Meta considera implementar 'sanções' para usuários que não divulguem o emprego de IA generativa em suas imagens

 

Meta considera implementar 'sanções' para usuários que não divulguem o emprego de IA generativa em suas imagens

A Meta anunciou planos de implementar novos padrões para conteúdo gerado por inteligência artificial (IA) em suas plataformas, Facebook e Instagram, nos próximos meses. 


Imagem by IA

Segundo a empresa, o conteúdo gerado por IA será elegível para verificação de fatos, representando um esforço para lidar com o aumento da disseminação de informações enganosas. A medida incluirá a identificação visual de conteúdo gerado por IA por meio de metadados ou marcas d'água intencionais, possibilitando aos usuários a opção de sinalizar conteúdo não rotulado suspeito.

Essa iniciativa reflete práticas anteriores de moderação de conteúdo pela Meta, anteriormente conhecida como Facebook. A empresa já contava com um sistema de denúncias para conteúdo violador dos termos de serviço, antes mesmo da era do conteúdo gerado por IA. Agora, em 2024, a Meta está capacitando os usuários a contribuir ativamente para a moderação, aproveitando o potencial do crowdsourcing, uma das maiores forças de consumo global.

A Meta afirma que sempre que suas ferramentas integradas são utilizadas na criação de conteúdo gerado por IA, este recebe uma marca d'água e um rótulo que indica sua origem. No entanto, reconhece que nem todos os sistemas generativos de IA incorporam essas proteções. Em colaboração com empresas parceiras, como Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock, a Meta busca desenvolver métodos para detectar marcas d'água invisíveis em larga escala.

Contudo, a empresa reconhece uma limitação em sua abordagem, uma vez que os métodos desenvolvidos até agora são aplicáveis apenas a imagens geradas por IA. A postagem no blog ressalta que, embora algumas empresas estejam começando a incluir sinais em geradores de imagens, ainda não se aplicam em ferramentas de IA que geram áudio e vídeo na mesma escala. Portanto, o Meta reconhece a atual incapacidade de detectar áudio e vídeo gerados por IA em grande escala, incluindo a ameaça representada pela tecnologia deepfake.

Postar um comentário

Postagem Anterior Próxima Postagem

Formulário de contato