Meta considera implementar 'sanções' para usuários que não
divulguem o emprego de IA generativa em suas imagens
A Meta anunciou planos de implementar novos padrões para conteúdo gerado por inteligência artificial (IA) em suas plataformas, Facebook e Instagram, nos próximos meses.
Imagem by IA
Segundo a empresa, o conteúdo gerado por IA
será elegível para verificação de fatos, representando um esforço para lidar
com o aumento da disseminação de informações enganosas. A medida incluirá a
identificação visual de conteúdo gerado por IA por meio de metadados ou marcas
d'água intencionais, possibilitando aos usuários a opção de sinalizar conteúdo
não rotulado suspeito.
Essa iniciativa reflete práticas anteriores de moderação de
conteúdo pela Meta, anteriormente conhecida como Facebook. A empresa já contava
com um sistema de denúncias para conteúdo violador dos termos de serviço, antes
mesmo da era do conteúdo gerado por IA. Agora, em 2024, a Meta está capacitando
os usuários a contribuir ativamente para a moderação, aproveitando o potencial
do crowdsourcing, uma das maiores forças de consumo global.
A Meta afirma que sempre que suas ferramentas integradas são
utilizadas na criação de conteúdo gerado por IA, este recebe uma marca d'água e
um rótulo que indica sua origem. No entanto, reconhece que nem todos os
sistemas generativos de IA incorporam essas proteções. Em colaboração com
empresas parceiras, como Google, OpenAI, Microsoft, Adobe, Midjourney e
Shutterstock, a Meta busca desenvolver métodos para detectar marcas d'água
invisíveis em larga escala.
Contudo, a empresa reconhece uma limitação em sua abordagem,
uma vez que os métodos desenvolvidos até agora são aplicáveis apenas a imagens
geradas por IA. A postagem no blog ressalta que, embora algumas empresas
estejam começando a incluir sinais em geradores de imagens, ainda não se
aplicam em ferramentas de IA que geram áudio e vídeo na mesma escala. Portanto,
o Meta reconhece a atual incapacidade de detectar áudio e vídeo gerados por IA
em grande escala, incluindo a ameaça representada pela tecnologia deepfake.