A preocupação com a desinformação e a segurança das eleições ganharam destaque neste ano com o rápido desenvolvimento da Inteligência Artificial, que tende a ser usada por grupos criminosos para aplicarem golpes durante o período de campanha. Segundo o Relatório Global de Ameaças da CrowdStrike, empresa especialista em cibersegurança, o uso de IA aumentou as operações de cibercrimes em 89% em 2025.
Cada vez mais os chamados atacantes se utilizam de prompts como arma de reconhecimento e roubo de dados. Os dados mostram que o tempo que um criminoso leva para invadir o sistema, acessar e roubar as informações, caiu para apenas 29 minutos em 2025, um avanço de 65% se comparado ao ano anterior. O caso mais rápido ocorreu em apenas 27 segundos.
Em entrevista à Itatiaia, o vice-presidente de engenharia de vendas da CrowdStrike para América Latina, Marcos Ferreira, aponta que o uso de IA para phishing, um tipo de ataque cibernético que usa mensagens ou sites fraudulentos para enganar as vítimas, tende a ser abusado por criminosos em ano eleitoral.
“A gente segue vendo a IA sendo muito usada por “hacktivistas”, mas obviamente ela pode ser abusada em ano eleitoral para a desinformação. Hoje nós temos modelos que geram imagens, geram vozes, cada um treinado para uma finalidade. Imagina fazer um mix disso? Olha o tamanho da desinformação que você consegue criar”, disse.
Ferreira compara a situação com as "correntes falsas" de WhatsApp, que antes eram facilmente identificáveis. Agora, ele observa que a IA tornou as mensagens realistas e quase indetectáveis. “Imaginem algo extremamente bem elaborado, com ares de verdade, o quão robusto se torna essas campanhas de desinformação”, acrescentou.
Na entrevista, o executivo também abordou o avanço da regulamentação da IA na legislação brasileira, ainda em discussão no Congresso Nacional. Ferreira ressalta que é um desafio para o legislador acompanhar a velocidade em que as ferramentas evoluem, e o fato de que grupos criminosos não respeitam os limites da lei.
“A gente vê novos modelos de IA saindo a cada segundo, modelos que são liberados para certas empresas, certas categorias. A nível global, existe uma grande preocupação em quem vai colocar a mão e o acesso nesses modelos. A regulamentação permea diferentes áreas de preocupação, desde ataques, mas inúmeras outras disciplinas, até questões trabalhistas. Tem muita coisa sendo debatida, moldada e revista de forma muito dinâmica”, disse.
Segundo ele, não há preocupação quanto à possibilidade da regulamentação diminuir a capacidade de ação das empresas de cibersegurança. “Essas regulamentações do uso de IA talvez não se apliquem a esses grupos atacantes, mas mesmo assim temos que defender contra essa realidade. Acredito que a regulamentação é muito mais no sentido de transparência e garantias, do que diminuir a capacidade de resposta. Quanto a isso, não vejo uma preocupação hoje”, declarou.





