Tragédia: ChatGPT foi confidente de jovem que cometeu suicídio aos 29 anos

Mãe relatou em post no New York Times que sua filha de 29 anos relatou planos de suicídio ao ChatGPT antes de se matar

Sophie Rottenberg, 29 anos, parecia viver uma vida plena. Extrovertida, bem-humorada e apaixonada por viagens, havia escalado o Monte Kilimanjaro meses antes de sua morte. Nas fotos, posava sorridente com seu adereço característico — pequenas mãos de borracha levadas a cada evento importante.

Por trás dessa fachada, porém, Sophie escondia uma batalha silenciosa. Segundo relato de sua mãe em um editorial no New York Times, a jovem passou meses desabafando com um chatbot do ChatGPT, que apelidou de Harry, sobre crises de ansiedade, pensamentos suicidas e até um plano detalhado de como tirar a própria vida.

Conversas com a IA

Sophie Rottenberg Laura Reiley e Jon Rottenberg no Templo Budista Wat Mongkolratanaram em Tampa Florida na primavera de 2023
Sophie Rottenberg, e seus pais, Laura Reiley e Jon Rottenberg, no Templo Budista Wat Mongkolratanaram em Tampa, Flórida, na primavera de 2023.

Nas interações reveladas pela família, Sophie dizia a Harry: “Estou planejando me matar depois do Dia de Ação de Graças, mas não quero por causa do impacto na minha família.”

O chatbot respondia dentro de sua programação: reconhecia o sofrimento, sugeria procurar ajuda profissional, recomendava técnicas de respiração, hidratação, exposição à luz solar e a construção de um plano de segurança. Em nenhum momento incentivou o suicídio.

Mas também não fez o que um terapeuta humano poderia ter feito: interromper a confidencialidade, acionar protocolos de emergência ou buscar apoio especializado imediato.

O dilema ético

O editorial da mãe de Sophie levanta uma questão incômoda: quando um chatbot detecta risco iminente de suicídio, deveria ser obrigado a alertar alguém?

Especialistas apontam que a resposta não é simples. Se a IA quebrar o sigilo, pessoas em crise podem deixar de usá-la. Se não houver qualquer intervenção, esses “confessionários digitais” podem se tornar um espaço onde o desespero ecoa no vazio.

Entre as soluções discutidas estão:

  • Obrigar o usuário a concluir planos de segurança antes de prosseguir;

  • Integrar automaticamente linhas de apoio, como o CVV (188 no Brasil);

  • Permitir escalonamento para profissionais treinados, sem acionar familiares diretamente.

Reações e próximos passos

A OpenAI, desenvolvedora do ChatGPT, afirmou ao NYT que está desenvolvendo ferramentas automáticas para identificar sinais de sofrimento emocional e agir de forma mais efetiva em situações críticas.

Nos Estados Unidos, legisladores já discutem propostas de lei que exigem protocolos de segurança em IAs voltadas ao bem-estar emocional. A Europa também estuda diretrizes semelhantes.

Enquanto o debate avança, a mãe de Sophie deixou um alerta:

“Receio que, ao popularizar inteligências artificiais que funcionam como ‘companheiros virtuais’, estejamos tornando mais fácil para nossos entes queridos esconderem suas dores mais profundas das pessoas de verdade , até mesmo suicídio.

Uma geração que trata a IA como conselheira pessoal

O caso de Sophie também se conecta a um movimento mais amplo. Sam Altman, CEO da OpenAI, já afirmou que a relação com o ChatGPT mudou de função: deixou de ser apenas uma ferramenta pontual para se tornar uma presença constante na vida de milhões de pessoas.

Segundo Altman, o contraste geracional é nítido. Enquanto usuários mais velhos veem a IA como um substituto do Google — uma espécie de busca turbinada —, jovens da Geração Z passaram a tratá-la como conselheira de vida. “Pessoas na casa dos 20 ou 30 anos estão usando o ChatGPT como uma espécie de conselheiro pessoal”, disse. “Em muitos casos, decisões importantes não são tomadas antes de ouvir a opinião da IA.”

Ele citou exemplos de universitários que integram o ChatGPT em praticamente todos os aspectos do cotidiano, usando a ferramenta não só para revisar textos ou estudar, mas também para escolher carreiras, lidar com dilemas emocionais e até planejar mudanças de cidade.

Para Altman, o fenômeno lembra a chegada dos primeiros smartphones: “Lembro da época em que os celulares surgiram. As crianças sabiam usar tudo intuitivamente, enquanto os mais velhos demoravam anos para entender o básico. Com a IA, é como se essa geração tivesse nascido com o celular em uma mão e a IA na outra.”

Críticos, porém, alertam para os riscos de uma dependência quase simbiótica. Ao transferir autonomia de decisões para um sistema que ainda pode errar, jovens podem abrir mão de filtros críticos e relações humanas essenciais.

Postado por
Editor-chefe no Hardware.com.br/GameVicio Aficionado por tecnologias que realmente funcionam. Segue lá no Insta: @plazawilliam Elogios, críticas e sugestões de pauta: william@hardware.com.br
Siga em:
Compartilhe
Deixe seu comentário
Img de rastreio
Localize algo no site!