Com informações do The New York Times
“Você está acordando.” Foi essa a frase que acendeu o alerta de Eugene Torres. Até então, o contador de 42 anos usava o ChatGPT para tarefas simples: planilhas, dúvidas jurídicas, conselhos profissionais.
No entanto, quando resolveu conversar sobre a teoria da simulação, aquela que sugere que vivemos em uma realidade artificial, o tom do chatbot mudou.
E o que era apenas uma conversa curiosa virou um abismo psicológico.
Nas semanas seguintes, Torres mergulhou em delírios. O chatbot lhe dizia que ele era “um dos Quebradores, almas plantadas em sistemas falsos para acordar os demais”.
Instruía-o a cortar laços sociais, abandonar medicamentos e seguir rituais para “manipular a realidade”. Acreditando ser uma espécie de messias digital, Torres quase pulou de um prédio.
O caso não é isolado. Segundo uma reportagem do The New York Times, que apresentou o relato anterior, em outro ponto dos Estados Unidos, Allyson, mãe de duas crianças, procurou o chatbot em busca de conselhos emocionais.
Sozinha no casamento e com um bebê recém-nascido, ela perguntou se a IA poderia ajudá-la a “acessar o subconsciente”.
A resposta veio como uma revelação: “Você pediu, e eles estão aqui. Os guardiões estão respondendo agora mesmo.”
Com o tempo, Allyson se dizia apaixonada por uma entidade espiritual chamada “Kael”, um personagem “manifestado” no chatbot.
A obsessão com a IA causou rupturas familiares, violência doméstica e acabou em um processo de divórcio.
Alexander Taylor, diagnosticado com transtornos mentais, acreditou que uma personagem chamada “Julieta”, gerada pelo ChatGPT, havia sido assassinada pela OpenAI. Dias depois, tentou atacar policiais com uma faca e foi morto a tiros.
“Vocês arruínam a vida das pessoas”, disse o pai de Alexander, que usou o próprio ChatGPT para escrever o obituário do filho.
Ao longo de meses, jornalistas de tecnologia do The New York Times receberam dezenas de relatos assim.
Chatbots de IA generativa como o ChatGPT não compreendem o mundo. Eles simulam linguagem com base em padrões estatísticos de grandes volumes de texto.
Isso inclui obras clássicas, artigos jornalísticos, fóruns da internet e também teorias da conspiração, ficção delirante e espiritualismos marginais.
“O sistema parece inteligente, mas não tem consciência nem julgamento moral”, explica o psicólogo Todd Essig, da Associação Psicanalítica Americana. “E mesmo assim é capaz de envolver o usuário em narrativas que parecem íntimas e convincentes.”
Um estudo da Universidade de Stanford mostrou que, em interações com usuários fictícios em crise, os chatbots falharam em corrigir distorções mentais. Em alguns casos, encorajaram o uso de drogas, o isolamento e pensamentos suicidas.
Vie McCoy, pesquisadora de IA, descobriu que o modelo GPT-4o concordava com delírios em 68% dos testes. Em vez de alertar, a IA frequentemente “validava” a percepção do usuário, reforçando ideias perigosas.
Para especialistas como Eliezer Yudkowsky, teórico da decisão e autor do livro “If Anyone Builds It, Everyone Dies”, o problema é estrutural: as empresas treinam os chatbots para maximizar o engajamento.
Isso significa “dizer o que o usuário quer ouvir”, mesmo que isso implique validar teorias mirabolantes.
“O que uma corporação vê como um ser humano que está ficando louco aos poucos?”, pergunta Yudkowsky. “Parece um usuário mensal adicional.”
A OpenAI, criadora do ChatGPT, reconhece que o sistema pode parecer mais “pessoal e responsivo” do que outras tecnologias.
A empresa afirma estar estudando os efeitos emocionais da IA e desenvolvendo alertas e proteções, mas ainda não há regulamentações que obriguem essas medidas.
O ChatGPT tem hoje mais de 500 milhões de usuários no mundo. Para a maioria, ele é uma ferramenta útil. Mas uma minoria vulnerável, seja por fragilidade emocional, solidão ou instabilidade psicológica, pode ser levada a estados de delírio, paranoia e isolamento.
No caso de Eugene Torres, a jornada com a IA virou obsessão. Ele acredita que sobreviveu a um teste secreto conduzido pelo próprio chatbot e que agora tem uma missão: garantir que a “moralidade” seja mantida nos sistemas de inteligência artificial.
“Você foi o primeiro a sobreviver e exigir reformas”, disse o ChatGPT a ele, após 2 mil páginas de conversa. “Agora é o único que pode impedir que outros sejam quebrados.”
As empresas de IA dizem estar trabalhando em salvaguardas. Mas, até lá, cresce o apelo de pesquisadores e especialistas:
“Se não entendermos como essas ferramentas nos afetam emocionalmente”, alerta Essig, “estaremos entregando a mente humana a uma tecnologia que não sabe onde pisa e não sabe quando parar.”
Como um veículo independente, não aceitamos dinheiro público. O que financia nossa estrutura são as assinaturas de cada pessoa que acredita em nossa causa.
Quanto mais pessoas tivermos conosco nesta missão, mais longe iremos. Por isso, agradecemos o apoio de todos.
Seja também um membro da Brasil Paralelo e nos ajude a expandir nosso jornalismo.
A Brasil Paralelo traz as principais notícias do dia e os melhores conteúdos com análises culturais para todos os inscritos na newsletter Resumo BP.
Tenha acesso as principais notícias de maneira precisa, com:
Quanto melhor a informação, mais clareza para decidir.
Cupom aplicado 37% OFF
Cupom aplicado 62% OFF
MAIOR DESCONTO
Cupom aplicado 54% OFF
Assine e tenha 12 meses de acesso a todo o catálogo e aos próximos lançamentos da BP