Impactantes Deepfakes de IA Iludem Eleitores e Líderes Políticos às Vésperas das Eleições de 2024 nos EUA - Surpreendente Relato: 'Achei que Fosse Real

 

Impactantes Deepfakes de IA Iludem Eleitores e Líderes Políticos às Vésperas das Eleições de 2024 nos EUA - Surpreendente Relato: 'Achei que Fosse Real

Os Estados Unidos enfrentam um desafio iminente com a proliferação de imitações geradas por inteligência artificial (IA), revelando uma aparente falta de preparação diante dos alertas emitidos por grupos de reflexão ao longo dos anos. 

Imagem by IA

No último fim de semana de 20 a 21 de janeiro, os residentes de New Hampshire foram surpreendidos por chamadas robóticas que ecoavam a voz do presidente Joe Biden, instruindo-os a evitar votar nas primárias de 23 de janeiro. As mensagens, aparentemente geradas por uma ferramenta deepfake de IA, levantaram preocupações sobre interferências nas eleições presidenciais de 2024.

Segundo a gravação obtida pela NBC, os habitantes foram aconselhados a permanecer em casa durante as primárias, sob a alegação de que votar naquele dia favoreceria os republicanos na possível reeleição de Donald Trump. O gabinete do procurador-geral estadual emitiu um comunicado repudiando as chamadas como desinformação, exortando os eleitores a ignorar completamente o conteúdo. Enquanto isso, um porta-voz de Donald Trump negou qualquer envolvimento do ex-presidente ou de sua campanha, enquanto as investigações para identificar a origem das chamadas estão em andamento.

Simultaneamente, outra controvérsia relacionada a deepfakes políticos emergiu quando um áudio gerado por IA imitando o líder democrata de Manhattan, Keith Wright, surgiu em 21 de janeiro. O áudio apresentava Wright falando negativamente sobre sua colega da Assembleia Democrata, Inez Dickens. Embora alguns tenham considerado o áudio falso, pelo menos um membro político foi momentaneamente convencido de sua autenticidade. A ausência de um método universal para detectar ou dissuadir deepfakes destaca a vulnerabilidade atual diante dessa ameaça.

Especialistas apontam que os perpetradores escolheram falsificações de áudio em vez de vídeo, pois os consumidores tendem a ser mais criteriosos com a falsificação visual. O consultor de IA Henry Ajder, ao comentar recentemente para o Financial Times, destacou que as pessoas estão mais familiarizadas com o Photoshop, enquanto a detecção eficaz de deepfakes permanece desafiadora. Recomenda-se cautela ao interagir com conteúdo de fontes desconhecidas ou duvidosas, especialmente quando envolve reivindicações extraordinárias, uma vez que, no momento da publicação deste artigo, não existe um método infalível para lidar com a ameaça representada pelos deepfakes.

Postar um comentário

Postagem Anterior Próxima Postagem

Formulário de contato