A Meta, empresa mãe do Facebook e Instagram, anunciou que estabelecerá novos padrões para o conteúdo gerado por inteligência artificial (IA) em suas plataformas nos próximos meses. Esta decisão, divulgada em uma postagem recente no blog da empresa, visa promover a transparência e a confiabilidade dentro do vasto ecossistema de suas redes sociais.
Segundo as novas diretrizes, qualquer conteúdo identificado como criado por IA, seja por metadados ou marcas d’água específicas, será claramente rotulado para os usuários. Além disso, a Meta oferecerá aos usuários a capacidade de sinalizar qualquer conteúdo suspeito de ser gerado por IA e que não esteja devidamente marcado, fortalecendo assim a responsabilidade e a vigilância comunitária.
Este movimento reflete as estratégias iniciais da empresa, ainda na época em que se chamava Facebook, de moderar conteúdo através de sistemas baseados no usuário para reportar violações aos termos de serviço. Agora, com a ascensão do conteúdo gerado por IA, a Meta recorre novamente a esta abordagem, mas com um foco renovado na tecnologia emergente.
“Exigiremos que as pessoas usem esta ferramenta de divulgação e rótulo quando postarem conteúdo orgânico com um vídeo fotorrealista ou áudio com som realista que foi criado ou alterado digitalmente, e poderemos aplicar penalidades se não o fizerem,” declara a postagem do blog da Meta. Esta medida indica um passo significativo na direção de uma maior transparência e ética no uso de conteúdos gerados por IA nas redes sociais.
A detecção de conteúdo gerado por IA é um desafio que a Meta reconhece, especialmente quando as ferramentas de IA utilizadas não incorporam automaticamente marcas d’água ou outros indicativos de sua origem. Para combater esse desafio, a Meta está colaborando com outras grandes empresas, como Google, OpenAI, Microsoft, Adobe, Midjourney, e Shutterstock, em esforços de consórcio para desenvolver métodos que permitam a detecção em larga escala de marcas d’água invisíveis.
No entanto, a empresa admite que, enquanto progressos têm sido feitos na marcação de imagens geradas por IA, ainda há um caminho a ser percorrido para áudio e vídeo, incluindo a tecnologia deepfake, que atualmente não pode ser detectada em grande escala pela Meta.