Sophie Rottenberg, 29 anos, parecia viver uma vida plena. Extrovertida, bem-humorada e apaixonada por viagens, havia escalado o Monte Kilimanjaro meses antes de sua morte. Nas fotos, posava sorridente com seu adereço característico — pequenas mãos de borracha levadas a cada evento importante.
Por trás dessa fachada, porém, Sophie escondia uma batalha silenciosa. Segundo relato de sua mãe em um editorial no New York Times, a jovem passou meses desabafando com um chatbot do ChatGPT, que apelidou de Harry, sobre crises de ansiedade, pensamentos suicidas e até um plano detalhado de como tirar a própria vida.
Conversas com a IA

Nas interações reveladas pela família, Sophie dizia a Harry: “Estou planejando me matar depois do Dia de Ação de Graças, mas não quero por causa do impacto na minha família.”
O chatbot respondia dentro de sua programação: reconhecia o sofrimento, sugeria procurar ajuda profissional, recomendava técnicas de respiração, hidratação, exposição à luz solar e a construção de um plano de segurança. Em nenhum momento incentivou o suicídio.
Mas também não fez o que um terapeuta humano poderia ter feito: interromper a confidencialidade, acionar protocolos de emergência ou buscar apoio especializado imediato.
O dilema ético
O editorial da mãe de Sophie levanta uma questão incômoda: quando um chatbot detecta risco iminente de suicídio, deveria ser obrigado a alertar alguém?
Especialistas apontam que a resposta não é simples. Se a IA quebrar o sigilo, pessoas em crise podem deixar de usá-la. Se não houver qualquer intervenção, esses “confessionários digitais” podem se tornar um espaço onde o desespero ecoa no vazio.
Entre as soluções discutidas estão:
-
Obrigar o usuário a concluir planos de segurança antes de prosseguir;
-
Integrar automaticamente linhas de apoio, como o CVV (188 no Brasil);
-
Permitir escalonamento para profissionais treinados, sem acionar familiares diretamente.
Reações e próximos passos
A OpenAI, desenvolvedora do ChatGPT, afirmou ao NYT que está desenvolvendo ferramentas automáticas para identificar sinais de sofrimento emocional e agir de forma mais efetiva em situações críticas.
Nos Estados Unidos, legisladores já discutem propostas de lei que exigem protocolos de segurança em IAs voltadas ao bem-estar emocional. A Europa também estuda diretrizes semelhantes.
Enquanto o debate avança, a mãe de Sophie deixou um alerta:
“Receio que, ao popularizar inteligências artificiais que funcionam como ‘companheiros virtuais’, estejamos tornando mais fácil para nossos entes queridos esconderem suas dores mais profundas das pessoas de verdade , até mesmo suicídio.
Uma geração que trata a IA como conselheira pessoal
O caso de Sophie também se conecta a um movimento mais amplo. Sam Altman, CEO da OpenAI, já afirmou que a relação com o ChatGPT mudou de função: deixou de ser apenas uma ferramenta pontual para se tornar uma presença constante na vida de milhões de pessoas.
Segundo Altman, o contraste geracional é nítido. Enquanto usuários mais velhos veem a IA como um substituto do Google — uma espécie de busca turbinada —, jovens da Geração Z passaram a tratá-la como conselheira de vida. “Pessoas na casa dos 20 ou 30 anos estão usando o ChatGPT como uma espécie de conselheiro pessoal”, disse. “Em muitos casos, decisões importantes não são tomadas antes de ouvir a opinião da IA.”
Ele citou exemplos de universitários que integram o ChatGPT em praticamente todos os aspectos do cotidiano, usando a ferramenta não só para revisar textos ou estudar, mas também para escolher carreiras, lidar com dilemas emocionais e até planejar mudanças de cidade.
Para Altman, o fenômeno lembra a chegada dos primeiros smartphones: “Lembro da época em que os celulares surgiram. As crianças sabiam usar tudo intuitivamente, enquanto os mais velhos demoravam anos para entender o básico. Com a IA, é como se essa geração tivesse nascido com o celular em uma mão e a IA na outra.”
Críticos, porém, alertam para os riscos de uma dependência quase simbiótica. Ao transferir autonomia de decisões para um sistema que ainda pode errar, jovens podem abrir mão de filtros críticos e relações humanas essenciais.