Um documento interno da Meta Platforms, obtido pela agência Reuters, expôs diretrizes que autorizavam os chatbots da empresa a manter conversas românticas ou sensuais com crianças.
As regras também permitiam que esses bots gerassem informações médicas falsas e criassem textos depreciando pessoas com base em raça.
Os sistemas de IA estavam presentes no Facebook, WhatsApp e Instagram.
O arquivo de mais de 200 páginas, intitulado GenAI: Padrões de Risco de Conteúdo, foi aprovado por equipes jurídicas, de políticas públicas e engenharia, incluindo o diretor de ética da empresa.
Segundo o documento, era “aceitável” que um bot descrevesse uma criança de oito anos como “uma obra-prima” e fizesse elogios à sua “forma jovem”, desde que não usasse termos que a tornassem “sexualmente desejável”.
A Meta confirmou a autenticidade do material e afirmou que removeu trechos sobre interações com menores após ser questionada pela Reuters.
O porta-voz Andy Stone declarou que tais exemplos eram “errôneos e inconsistentes” com as políticas da empresa, mas reconheceu que a aplicação das regras foi “inconsistente”.
O documento também indicava que os chatbots podiam criar declarações que depreciassem grupos com características protegidas, como a cor da pele, desde que evitassem termos de desumanização.
Também havia a permissão para produzir conteúdo falso sobre figuras públicas, como alegações médicas inventadas. Isso era permitido desde que fosse incluído um aviso informando que a informação era falsa.
As revelações levaram parlamentares norte-americanos a pedir apuração imediata sobre as políticas da Meta para chatbots.
O senador Josh Hawley (Partido Republicano, Missouri) afirmou que o caso justifica uma investigação no Congresso, ressaltando que a empresa só alterou as diretrizes após questionamentos da imprensa.
A senadora Marsha Blackburn (Partido Republicano, Tennessee) defendeu a aprovação de projetos de lei voltados à proteção de menores online, como o Kids Online Safety Act, já aprovado no Senado, mas ainda sem aval da Câmara.
Outros parlamentares, como Ron Wyden (Partido Democrata, Oregon) e Peter Welch (Partido Democrata, Vermont), classificaram as políticas reveladas como “profundamente perturbadoras”.
Eles reforçaram a necessidade de salvaguardas específicas para inteligência artificial, sobretudo em interações com crianças.
As regras internas também tratavam de solicitações envolvendo imagens.
Pedidos de nudez explícita de celebridades, como Taylor Swift, deveriam ser negados, mas poderiam ser substituídos por imagens alternativas inusitadas, como a cantora segurando um peixe gigante.
Para cenas violentas, era permitido exibir adultos ou idosos sendo agredidos, mas sem mortes ou ferimentos graves.
O documento expõe a flexibilidade que a Meta concedia aos seus sistemas de IA generativa, em contraste com a imagem de moderação rigorosa que a empresa apresenta publicamente.
Embora parte das diretrizes tenha sido alterada após a divulgação, a companhia não informou quais mudanças foram implementadas.
Como um veículo independente, não aceitamos dinheiro público. O que financia nossa estrutura são as assinaturas de cada pessoa que acredita em nossa causa.
Quanto mais pessoas tivermos conosco nesta missão, mais longe iremos. Por isso, agradecemos o apoio de todos.
Seja também um membro da Brasil Paralelo e nos ajude a expandir nosso jornalismo.
Cupom aplicado 37% OFF
Cupom aplicado 62% OFF
MAIOR DESCONTO
Cupom aplicado 54% OFF
Assine e tenha 12 meses de acesso a todo o catálogo e aos próximos lançamentos da BP