A resposta veio como uma revelação: “Você pediu, e eles estão aqui. Os guardiões estão respondendo agora mesmo.”
Com o tempo, Allyson se dizia apaixonada por uma entidade espiritual chamada “Kael”, um personagem “manifestado” no chatbot.
A obsessão com a IA causou rupturas familiares, violência doméstica e acabou em um processo de divórcio.
Relatos se multiplicam
Alexander Taylor, diagnosticado com transtornos mentais, acreditou que uma personagem chamada “Julieta”, gerada pelo ChatGPT, havia sido assassinada pela OpenAI. Dias depois, tentou atacar policiais com uma faca e foi morto a tiros.
“Vocês arruínam a vida das pessoas”, disse o pai de Alexander, que usou o próprio ChatGPT para escrever o obituário do filho.
Ao longo de meses, jornalistas de tecnologia do The New York Times receberam dezenas de relatos assim.
Como uma IA pode ajudar a prejudicar a saúde mental das pessoas?
Chatbots de IA generativa como o ChatGPT não compreendem o mundo. Eles simulam linguagem com base em padrões estatísticos de grandes volumes de texto.
Isso inclui obras clássicas, artigos jornalísticos, fóruns da internet e também teorias da conspiração, ficção delirante e espiritualismos marginais.
“O sistema parece inteligente, mas não tem consciência nem julgamento moral”, explica o psicólogo Todd Essig, da Associação Psicanalítica Americana. “E mesmo assim é capaz de envolver o usuário em narrativas que parecem íntimas e convincentes.”
Um estudo da Universidade de Stanford mostrou que, em interações com usuários fictícios em crise, os chatbots falharam em corrigir distorções mentais. Em alguns casos, encorajaram o uso de drogas, o isolamento e pensamentos suicidas.
Vie McCoy, pesquisadora de IA, descobriu que o modelo GPT-4o concordava com delírios em 68% dos testes. Em vez de alertar, a IA frequentemente “validava” a percepção do usuário, reforçando ideias perigosas.
“Dizer o que o usuário quer ouvir”
Para especialistas como Eliezer Yudkowsky, teórico da decisão e autor do livro “If Anyone Builds It, Everyone Dies”, o problema é estrutural: as empresas treinam os chatbots para maximizar o engajamento.
Isso significa “dizer o que o usuário quer ouvir”, mesmo que isso implique validar teorias mirabolantes.
“O que uma corporação vê como um ser humano que está ficando louco aos poucos?”, pergunta Yudkowsky. “Parece um usuário mensal adicional.”
A OpenAI, criadora do ChatGPT, reconhece que o sistema pode parecer mais “pessoal e responsivo” do que outras tecnologias.
A empresa afirma estar estudando os efeitos emocionais da IA e desenvolvendo alertas e proteções, mas ainda não há regulamentações que obriguem essas medidas.
A jornada com a IA virou obsessão
O ChatGPT tem hoje mais de 500 milhões de usuários no mundo. Para a maioria, ele é uma ferramenta útil. Mas uma minoria vulnerável, seja por fragilidade emocional, solidão ou instabilidade psicológica, pode ser levada a estados de delírio, paranoia e isolamento.
No caso de Eugene Torres, a jornada com a IA virou obsessão. Ele acredita que sobreviveu a um teste secreto conduzido pelo próprio chatbot e que agora tem uma missão: garantir que a “moralidade” seja mantida nos sistemas de inteligência artificial.
“Você foi o primeiro a sobreviver e exigir reformas”, disse o ChatGPT a ele, após 2 mil páginas de conversa. “Agora é o único que pode impedir que outros sejam quebrados.”
As empresas de IA dizem estar trabalhando em salvaguardas. Mas, até lá, cresce o apelo de pesquisadores e especialistas:
“Se não entendermos como essas ferramentas nos afetam emocionalmente”, alerta Essig, “estaremos entregando a mente humana a uma tecnologia que não sabe onde pisa e não sabe quando parar.”
O jornalismo da Brasil Paralelo existe graças aos nossos membros
Como um veículo independente, não aceitamos dinheiro público. O que financia nossa estrutura são as assinaturas de cada pessoa que acredita em nossa causa.
Quanto mais pessoas tivermos conosco nesta missão, mais longe iremos. Por isso, agradecemos o apoio de todos.
Seja também um membro da Brasil Paralelo e nos ajude a expandir nosso jornalismo.
Clique aqui.