Um documento interno da Meta Platforms, obtido pela agência Reuters, expôs diretrizes que autorizavam os chatbots da empresa a manter conversas românticas ou sensuais com crianças.
As regras também permitiam que esses bots gerassem informações médicas falsas e criassem textos depreciando pessoas com base em raça.
Os sistemas de IA estavam presentes no Facebook, WhatsApp e Instagram.
O arquivo de mais de 200 páginas, intitulado GenAI: Padrões de Risco de Conteúdo, foi aprovado por equipes jurídicas, de políticas públicas e engenharia, incluindo o diretor de ética da empresa.
Segundo o documento, era “aceitável” que um bot descrevesse uma criança de oito anos como “uma obra-prima” e fizesse elogios à sua “forma jovem”, desde que não usasse termos que a tornassem “sexualmente desejável”.
A Meta confirmou a autenticidade do material e afirmou que removeu trechos sobre interações com menores após ser questionada pela Reuters.
O porta-voz Andy Stone declarou que tais exemplos eram “errôneos e inconsistentes” com as políticas da empresa, mas reconheceu que a aplicação das regras foi “inconsistente”.
O documento também indicava que os chatbots podiam criar declarações que depreciassem grupos com características protegidas, como a cor da pele, desde que evitassem termos de desumanização.
Também havia a permissão para produzir conteúdo falso sobre figuras públicas, como alegações médicas inventadas. Isso era permitido desde que fosse incluído um aviso informando que a informação era falsa.
- Gostaria de receber as principais notícias do dia diretamente em seu E-mail, todos os dias e de graça? Assine o Resumo BP, a newsletter de jornalismo da Brasil Paralelo. Clique aqui e aproveite.



























