Ataque de Áudio por Deepfake: Pesquisadores de Segurança Desvelam Tecnologia de IA que Manipula Conversas em Tempo Real

 

Ataque de Áudio por Deepfake: Pesquisadores de Segurança Desvelam Tecnologia de IA que Manipula Conversas em Tempo Real

Recentemente, pesquisadores de segurança da IBM revelaram uma perturbadora e surpreendentemente fácil técnica de manipulação de conversas ao vivo por meio de inteligência artificial (IA). 

Iamgem by IA

Conhecido como "audio-jacking", o ataque emprega IA generativa, incluindo modelos como o ChatGPT da OpenAI e o Llama-2 da Meta, junto com tecnologia de áudio deepfake. Durante um experimento, a IA foi instruída a processar áudio de duas fontes em uma comunicação ao vivo, como uma conversa telefônica, interceptando e manipulando o áudio quando uma palavra-chave ou frase específica era detectada. Os pesquisadores conseguiram com sucesso substituir a voz autêntica por áudio deepfake, passando despercebido pelos participantes do experimento.

A execução do ataque, conforme destacado em um post no blog da IBM Security, envolveu algum nível de engenharia social ou phishing. No entanto, a construção do sistema de IA em si representou poucos desafios, sendo descrita como "surpreendente e assustadoramente fácil". A IA generativa moderna realizou o trabalho pesado, necessitando apenas de três segundos da voz de um indivíduo para criar uma clonagem convincente, destacando a facilidade atual desse tipo de deepfake, que pode ser implementado até mesmo via API.

Além de preocupações com fraudes financeiras, os pesquisadores alertam para as implicações mais amplas dessa ameaça de roubo de áudio. A manipulação invisível de conteúdo, como notícias ao vivo e discursos políticos em tempo real, poderia servir como uma forma sofisticada de censura. A capacidade de alterar discursos de figuras públicas sem detecção levanta sérias preocupações sobre desinformação, manipulação política e ameaças à segurança nacional. Diante desses desafios, a comunidade de pesquisa e as autoridades precisam se dedicar a desenvolver técnicas robustas de detecção e implementar regulamentações eficazes para mitigar os riscos associados ao audio-jacking e tecnologias similares.

Postar um comentário

Postagem Anterior Próxima Postagem

Formulário de contato