*Por Andrew Deck
Em maio de 2024, Pooja Shali, âncora da India Today, recebeu uma mensagem preocupada de uma amiga. A amiga estava navegando pelos Reels do Instagram e se deparou com o que parecia ser um vídeo de Shali anunciando uma notícia em seu programa matinal, First Up.
O público em toda a Índia está acostumado a ver Shali atrás da bancada de apresentação, mas, nesse vídeo, algo parecia estranho. Os lábios de Shali acompanhavam as palavras que eram ditas, mas, depois da 1ª frase, sua entonação mudou e seu ritmo de fala ficou artificial. Ela também parecia estar promovendo um aplicativo de negociação móvel, dizendo que o aplicativo havia sido verificado pela redação da India Today e recebido um investimento de US$ 3 bilhões do homem mais rico da Índia.
Shali nunca tinha ouvido falar do aplicativo, muito menos o havia promovido para seus telespectadores.
“Eu fiquei completamente chocada”, disse Shali. Ela reconheceu imediatamente o clipe como um deepfake. Enquanto os primeiros segundos do áudio foram extraídos de um segmento real do First Up, tudo o que foi inserido depois era uma fabricação produzida por IA. “Nós reportamos constantemente sobre golpes financeiros digitais e somos nós que alertamos as pessoas para não caírem em golpes digitais, mas você não esperaria que seu rosto ou sua voz fossem usados indevidamente.”
Logo, Shali recebeu mais mensagens de outros amigos que tinham visto o vídeo circulando em seus feeds. Ela está grata por aqueles mais próximos não terem sido enganados, mas também preocupada com o fato de que o espectador médio no Instagram não seria capaz de perceber a diferença. “Não era só sobre IA, era sobre pedir às pessoas que investissem seu dinheiro”, disse ela.
Durante anos, golpistas vêm manipulando clipes de figuras públicas para promover produtos nas redes sociais. Mas, com o aumento dos vídeos produzidos por IA, esses esquemas estão usando cada vez mais a imagem de jornalistas –especialmente jornalistas de televisão– para vender seus produtos.
Apresentadores de TV como Shali são rostos familiares e confiáveis, que falam com autoridade de suas bancadas. Crucialmente, os rostos desses jornalistas também aparecem em incontáveis horas de vídeos facilmente acessíveis, olhando diretamente para a câmera. Esse material está pronto para ser alimentado em ferramentas que produzem deepfakes.
“Com celebridades ou outras figuras públicas, você pode acreditar nelas por qualquer número de razões, mas uma jornalista basearia o que diz na verdade e em fatos”, disse Shali, refletindo sobre por que jornalistas são tão frequentemente usados em deepfakes que promovem produtos comerciais. “Essa conexão que o espectador tem com o jornalista, especialmente jornalistas de telejornais, é o que está sendo usado indevidamente.”
Shali está longe de ser a 1ª jornalista a ter sua credibilidade explorada por golpistas que usam deepfakes. Jornalistas de televisão foram arrastados para fraudes semelhantes em todo o mundo, incluindo no Reino Unido, Canadá, Dinamarca, Rússia, Peru, África do Sul e Filipinas. Nos Estados Unidos, golpes têm como alvo âncoras nacionais como Al Roker e Gayle King. Esses vídeos promovem uma ampla variedade de produtos, mas frequentemente estão ligados a golpes com criptomoedas, grupos de investimento financeiro pagos, aplicativos de apostas e medicamentos fraudulentos.
“O jornalismo televisivo é uma das formas mais acessíveis de mídia. As pessoas não leem tanto quanto assistem, seja às notícias na televisão ou em seus celulares”, disse Kiran Nazish, fundadora e diretora da CFWIJ (Coalition for Women in Journalism). “Por causa do alcance das jornalistas de televisão, existe uma vulnerabilidade –elas são mais frequentemente alvo.”
Nazish vem acompanhando o crescimento dos deepfakes por meio da iniciativa Women Press Freedom, da CFWIJ. Quando o projeto começou a registrar incidentes de assédio on-line contra mulheres jornalistas em 2019, o uso de imagens estáticas manipuladas com ferramentas básicas de edição de software, como o Photoshop, ainda era a norma. Na época, criar um vídeo fraudulento como o que apresentava Shali exigiria conhecimento de técnicas complexas de aprendizado profundo e recursos computacionais significativos.
Agora, com o surgimento da IA generativa e de ferramentas baratas e acessíveis, alguns golpistas conseguem facilmente criar clones de voz de jornalistas. Em seguida, eles podem produzir sincronizações labiais, modificando os movimentos da boca em um clipe de vídeo existente para corresponder a uma nova faixa de áudio sintético. “Usar jornalistas populares, seus nomes e rostos para vender produtos on-line se tornou algo ubíquo porque as ferramentas estão disponíveis para todos”, disse Nazish. “O aumento tem sido exponencial.”
Em 2023, a Women Press Freedom documentou 7 incidentes de deepfakes direcionados a mulheres jornalistas em todo o mundo, disse Nazish. Em 2024, esse número subiu para 20. Agora, nos primeiros 9 meses de 2025, a organização identificou mais de 150 casos.
Além dos golpes nas redes sociais, mulheres jornalistas também têm sido cada vez mais alvo de deepfakes pornográficos usados para assediá-las e chantageá-las, bem como de deepfakes criados para alimentar campanhas de desinformação e promover narrativas políticas. “A misoginia direcionada às mulheres agora está sendo canalizada em nosso ambiente político atual”, disse Nazish. “Grande parte do direcionamento contra jornalistas é habitual.”
Há 1 ano, a CFWIJ parou de divulgar informações sobre casos específicos de deepfakes, em parte porque seus recursos limitados foram redirecionados para respostas de crise, incluindo o apoio individual a jornalistas enquanto elas lidam com as consequências dessas campanhas. Em golpes nas redes sociais, muitas vezes cabe às próprias jornalistas afetadas identificar, documentar e denunciar os vídeos –e também defender publicamente suas reputações.
“Espera-se que os jornalistas mantenham a própria segurança, mas reunir todas as informações sobre esses deepfakes é trabalhoso e traumático”, disse Nazish.
Freelancers, jornalistas independentes e profissionais que trabalham em veículos menores, com poucos recursos, geralmente são os que mais precisam de apoio. Mas organizações de mídia maiores nem sempre amparam seus funcionários. Sem citar nomes, Nazish disse que a Women Press Freedom trabalhou com uma jornalista no Reino Unido cuja empregadora a colocou em licença depois de um vídeo fraudulento viralizar nas redes sociais. Ela acabou pedindo demissão devido à falta de apoio.
Shali, felizmente, teve uma história diferente. Em poucos dias depois de relatar o deepfake aos seus superiores, a India Today produziu e publicou um vídeo desmentindo os anúncios do aplicativo de negociação móvel e o divulgou em todas as redes sociais da emissora.
Alguns deepfakes que incluem desinformação e imagens abusivas ou degradantes podem não se beneficiar de um reconhecimento direto –especialmente porque muitas dessas operações buscam visibilidade. No caso dos golpes com deepfakes, porém, há muito menos desvantagens em expor publicamente a fraude.
“Este é um dos casos em que há um risco muito menor em falar sobre como a IA está sendo usada”, disse Sam Gregory, diretor executivo da Witness, uma organização internacional sem fins lucrativos focada no uso de vídeo e tecnologia para defender os direitos humanos. “[Se você fizer isso] as pessoas vão pensar: ‘Eu não devo clicar quando esse vídeo chegar até mim’. Isso também tem um efeito positivo em golpes semelhantes, em que as pessoas veem uma figura proeminente anunciando algo e se perguntam: ‘Ela foi paga por isso ou foi falsificada?’”
Sem intervenção das principais plataformas de mídia social –seja monitorando anúncios de forma preventiva ou moderando aqueles que foram denunciados– há pouco que jornalistas e redações possam fazer individualmente para combater esses golpes.
No início de março, Martin Wolf, comentarista-chefe de economia do Financial Times, recebeu um e-mail de um ex-colega. Ele havia visto um vídeo vertical no Instagram que parecia mostrar Wolf falando para a câmera e direcionando usuários para um canal privado no WhatsApp, onde ele supostamente compartilhava conselhos exclusivos sobre investimentos e ações. Nos dias seguintes, mais e-mails chegaram de colegas e amigos, com links para anúncios fraudulentos semelhantes no Facebook.
Wolf entrou em contato com as equipes de cibersegurança e de redes sociais do FT, esperando que a Meta removesse os vídeos fraudulentos imediatamente. Os anúncios violavam claramente os padrões da comunidade da empresa, que proíbem a personificação de figuras públicas. Dias depois de se conectar com a empresa, os vídeos continuavam acumulando visualizações. Aqui está um dos vídeos, cortesia do FT e da biblioteca de anúncios da Meta:
Cada vez mais frustrado, o FT entrou em contato diretamente com Nick Clegg, então presidente de assuntos globais da Meta, que Wolf conhecia de sua vida anterior como político britânico e membro do Parlamento do Reino Unido. Em poucas horas depois do contato com Clegg, todos os vídeos e contas associadas foram retirados das plataformas da Meta. Nas semanas seguintes, porém, novas contas e anúncios surgiram para substituí-los.
“Ficamos jogando o que chamamos de ‘whack-a-mole’ por um bom tempo”, disse Wolf, que afirmou que o FT pressionou a Meta para remover os novos anúncios por quase 6 semanas. Usando a biblioteca de anúncios da Meta para os mercados da União Europeia, o FT documentou mais de 1.700 anúncios publicados no Facebook e no Instagram usando a imagem de Wolf. Juntos, os deepfakes alcançaram 970.000 usuários em toda a Europa. Wolf estima que o número real provavelmente seria de milhões se o Reino Unido e os Estados Unidos fossem incluídos.
Eventualmente, Wolf decidiu escrever sobre sua experiência em uma coluna para o FT. Ele disse que só depois que sua coluna foi publicada é que os anúncios foram completamente removidos das plataformas da Meta.
Para Wolf, os atrasos foram inaceitáveis. “Isso não me deixou realmente ansioso; me deixou com raiva. Fiquei com raiva por estar sendo arrastado para algo do qual eu não sei quantas pessoas, mas provavelmente muitas, foram prejudicadas”, disse ele. “Achei isso ultrajante –que alguém fizesse algo assim, e que qualquer grande empresa lucrasse com isso.”
A Meta não está só ganhando dinheiro com vídeos deepfakes de jornalistas. Um novo relatório do Tech Transparency Project descobriu que 63 anunciantes haviam veiculado mais de 150.000 anúncios políticos enganosos nas plataformas da Meta neste ano, incluindo deepfakes de figuras políticas. Coletivamente, esses anunciantes gastaram US$ 49 milhões e estavam entre os maiores investidores em publicidade da empresa na categoria.
“Os golpistas são incansáveis e continuam a evoluir suas táticas para tentar evitar a detecção, por isso estamos constantemente desenvolvendo novas formas de dificultar que enganem os outros –incluindo o uso de tecnologia de reconhecimento facial”, disse um porta-voz da Meta em um comunicado. “Removemos e desativamos os anúncios, contas e páginas que nos foram relatados.”
Como parte da resposta da Meta, Wolf foi convidado a se inscrever no programa de reconhecimento facial da empresa, voltado para combater o que ela chama de “golpes de anúncios que atraem celebridades”. A empresa relançou o programa no outono passado, depois de tê-lo encerrado quase 3 anos antes. Usando um sistema automatizado, a Meta compara anúncios enviados com fotos ou vídeos de selfie de figuras públicas cadastradas. Se for confirmada uma correspondência, o anúncio é revisado e removido.
Quando o teste foi inicialmente anunciado, incluía 50.000 figuras públicas. Depois que entrei em contato com a Meta para comentar esta reportagem, a empresa atualizou esses números em uma postagem corporativa no blog. Atualmente, 500.000 figuras públicas estão inscritas no programa, que ainda está disponível só nos Estados Unidos, Reino Unido e Coreia do Sul. Na 1ª metade de 2025, a Meta também afirmou que o número de anúncios fraudulentos denunciados por usuários globalmente em suas plataformas caiu 22%, em comparação com o total de impressões de anúncios.
Embora Wolf tenha conseguido, no fim das contas, combater seus golpistas, outros jornalistas podem não ter conexões pessoais ou apoio institucional para chamar a atenção das empresas de mídia social. Muitos jornalistas nem sequer vivem em países onde o programa de reconhecimento facial da Meta está operacional.
“Tentar passar pelos canais oficiais é frustrante, demorado e, em grande parte, ineficaz”, disse Matthew Garrahan, chefe de plataformas digitais do FT. “Foi só [depois] da coluna de Martin que a Meta realmente começou a agir. Tivemos um ex-vice-primeiro-ministro do Reino Unido intervindo para nos ajudar a remover o conteúdo –e mesmo assim ele voltou.”
A Meta não respondeu às perguntas sobre o envolvimento de Clegg ou se a coluna de Wolf influenciou a resposta da empresa.
“Do lado das plataformas, é preciso que essa proteção de imagem esteja realmente disponível para um número muito mais amplo de figuras públicas”, disse Gregory, da Witness, sobre programas de reconhecimento facial como o da Meta.
Ele aponta o YouTube como uma plataforma que está começando a adotar medidas preventivas mais fortes. Em meados de setembro, o gigante das redes sociais anunciou que estava implementando moderação baseada em reconhecimento facial para todos os membros de seu YouTube Partner Program, que inclui mais de 3 milhões de criadores em todo o mundo. (Gregory disse que, mesmo com o alcance ampliado, considera a aplicação da moderação do YouTube “inconsistente”.)
Enquanto isso, a Women Press Freedom reduziu os recursos destinados à comunicação com empresas de mídia social. Nazish disse que a decisão foi motivada, em parte, pelo contínuo desinvestimento da indústria em infraestrutura global de moderação.
Em 2022, o X demitiu a maioria de suas equipes globais de confiança e segurança. No início deste ano, a Meta encerrou seu programa de verificação de fatos de terceiros. A Women Press Freedom costumava reunir documentação sobre deepfakes e enviá-la diretamente a contatos dentro das empresas, que defendiam a remoção das postagens. Esses canais praticamente desapareceram até 2022, mesmo antes deste recente aumento nos golpes com deepfakes.
No vácuo deixado, jornalistas afetados estão ficando sem meios para defender sua credibilidade.
“Agora, quando eu falo, fico um pouco mais cautelosa”, disse Shali, sobre suas aparições na bancada desde o ano passado. Oito meses depois dos primeiros anúncios fraudulentos com sua imagem, um novo deepfake apareceu nas redes sociais promovendo um aplicativo de negociação semelhante. Desta vez, o vídeo falso apresentava tanto Shali quanto o CEO do Google, Sundar Pichai. “Isso pesa na minha mente”, disse ela. “Quando estou falando, não sei como eles poderão manipular isso.”
*Andrew Deck é redator da equipe do Nieman Lab, cobrindo temas relacionados à inteligência artificial.
Texto traduzido por Janaína Cunha. Leia o original em inglês.
O Poder360 tem uma parceria com duas divisões da Fundação Nieman, de Harvard: o Nieman Journalism Lab e o Nieman Reports. O acordo consiste em traduzir para português os textos do Nieman Journalism Lab e do Nieman Reports e publicar esse material no Poder360. Para ter acesso a todas as traduções já publicadas, clique aqui.