A desinformação nas eleições brasileiras está longe de ser apenas uma questão tecnológica, é também uma questão de educação midiática e de clareza conceitual. Quem alerta é a pesquisadora Beatriz Farrugia, especialista em desinformação e monitoramento eleitoral.
Em entrevista ao Correio, ela afirmou que há um uso crescente e equivocado da palavra “deepfake“, tanto por cidadãos comuns quanto por políticos, muitas vezes de forma intencional para tirar proveito no debate público.
Segundo Beatriz Farrugia, há candidatos que se dizem vítimas de deepfakes mesmo quando o conteúdo em circulação claramente não se encaixa nesse tipo de manipulação audiovisual baseada em inteligência artificial. “É um uso intencional distorcido do termo, feito para criar confusão e até abrir processos eleitorais”, disse.
Em outros casos, o uso é espontâneo, como se “deepfake” fosse sinônimo de “fake news“, conceito igualmente problemático e impreciso, mas amplamente adotado no vocabulário popular e político.
Do ponto de vista técnico, o país ainda está despreparado. Farrugia destacou a ausência de ferramentas amplamente acessíveis, confiáveis e com validação metodológica para detectar deepfakes. “Nem os peritos chamados pela Justiça Eleitoral conseguem, muitas vezes, chegar a uma conclusão definitiva”, contou.
Segundo ela, a falta de consenso técnico abre brechas para disputas judiciais baseadas em interpretações conflitantes, o que fragiliza a credibilidade das instituições e dificulta a responsabilização.
Apesar de iniciativas acadêmicas e privadas em desenvolvimento, ainda não há uma metodologia padronizada, de acordo com a pesquisadora. “Os pesquisadores e checadores usam um conjunto de ferramentas, mas não existe uma fórmula única que todos adotam. É um terreno traiçoeiro”, afirmou. A ausência de uma base comum também afeta a capacidade das plataformas digitais de responder de forma coordenada e eficaz aos conteúdos enganosos.
Entre as medidas urgentes, Beatriz Farrugia defende a adoção de etiquetas ou metadados obrigatórios que indiquem quando um conteúdo foi gerado por inteligência artificial. Ela também cobra mais transparência das plataformas, como o compartilhamento de dados com pesquisadores, reabertura de APIs e colaboração com agências de checagem, movimentos que, segundo ela, vêm sofrendo retrocessos. “O interesse das plataformas está cada vez mais distante da pesquisa e da responsabilidade social”, criticou.
Para o jornalismo, a missão é dupla: investigar com rigor e educar o público. A pesquisadora defendeu que os profissionais de imprensa incorporem rotinas de checagem com foco específico em conteúdos sintéticos, como os gerados por IA. E que ajudem a esclarecer os termos usados no debate público, evitando o uso genérico de expressões como “fake news“. “É preciso educar as pessoas no vocabulário, explicar o que é cada coisa. É uma tarefa urgente, e não dá para resolver do dia para a noite”, concluiu.
*Estagiária sob a supervisão de Rafaela Gonçalves
Por Revista Plano B
Fonte Correio Braziliense
Foto: aquivo pessoal