Comissão Europeia convoca especialistas para contribuir com diretrizes de combate à desinformação por meio de IA nas eleições

 

Comissão Europeia convoca especialistas para contribuir com diretrizes de combate à desinformação por meio de IA nas eleições

A Comissão Europeia está adotando medidas proativas para combater ameaças democráticas representadas pela inteligência artificial generativa e pelos deepfakes nas próximas eleições europeias, programadas para maio. 

Imagem by IA

A nova diretriz exigirá que plataformas tecnológicas de grande porte, como TikTok, X e Facebook, implementem sistemas de detecção de conteúdos gerados por IA, visando proteger o processo eleitoral contra desinformação.

Nesse sentido, a Comissão lançou uma consulta pública para colher propostas e sugestões relacionadas às diretrizes de segurança eleitoral, dirigidas tanto às plataformas online de muito grande porte (VLOPs) quanto aos motores de pesquisa online de muito grande porte (VLOSEs). O foco principal é reduzir as ameaças representadas pela inteligência artificial generativa e pelos deepfakes, que têm o potencial de enganar eleitores e manipular os processos eleitorais.

O projeto de orientações apresenta exemplos de medidas práticas para enfrentar riscos relacionados às eleições, incluindo ações específicas para lidar com conteúdos generativos de IA, planejamento de mitigação de riscos antes ou depois de eventos eleitorais e fornecimento de orientações claras para as eleições parlamentares europeias.

A inteligência artificial generativa pode criar e disseminar conteúdos sintéticos inautênticos e enganosos sobre políticos, eventos, pesquisas eleitorais e narrativas, representando uma ameaça real à integridade do processo democrático. O projeto de diretrizes, atualmente em consulta pública na União Europeia até 7 de março, sugere a implementação de alertas aos usuários sobre possíveis imprecisões nos conteúdos gerados por IA generativa.

Além disso, as diretrizes propõem a orientação dos usuários para fontes de informação autorizadas e a implementação de salvaguardas pelos gigantes da tecnologia para evitar a geração de conteúdos enganosos com potencial impacto no comportamento dos usuários. O projeto destaca a importância de indicar as fontes concretas das informações nos resultados gerados por IA, permitindo que os usuários verifiquem a confiabilidade e contextualizem as informações.

As "melhores práticas" delineadas no projeto de orientação para a mitigação de riscos são inspiradas na recentemente aprovada Lei da IA pela União Europeia e no seu equivalente não vinculativo, o Pacto da IA. Apesar de ainda não ter sido divulgada uma data específica para a obrigatoriedade das empresas rotularem o conteúdo manipulado de acordo com a Lei de Serviços Digitais da UE, a Meta anunciou planos para introduzir diretrizes específicas para o conteúdo gerado por IA em suas plataformas nos próximos meses. Esse conteúdo será identificado com rótulos visíveis, promovendo maior transparência e responsabilidade.

Postar um comentário

Postagem Anterior Próxima Postagem

Formulário de contato