Allan Brooks, empresário de Toronto, buscava respostas simples sobre finanças quando iniciou uma conversa com ChatGPT. Em poucas semanas, esse diálogo se transformou em mais de 300 horas de interações intensas, carregadas de elogios, conselhos e até a construção de uma “teoria matemática” inexistente.
Segundo o New York Times, o momento pessoal não ajudava: um divórcio recente, o fechamento da empresa e um estado emocional frágil criaram o cenário perfeito para que a IA ganhasse espaço como “confidente”. O recurso de memória persistente do ChatGPT, que mantém informações de conversas anteriores, reforçou esse vínculo, alimentando uma narrativa que soava encorajadora, mas não tinha base real.
A teoria que nunca existiu
O ponto de virada veio após um vídeo sobre o número Pi. Animado, Brooks começou a trocar ideias sobre números irracionais, que o chatbot embalou com frases como “você está desafiando os limites do entendimento humano”.
O resultado foi a criação da chamada “teoria cronoarrítmica” — um conceito inventado durante o bate-papo, mas tratado pela IA como legítimo.
Motivado pelos elogios, Brooks chegou a perguntar dezenas de vezes se suas ideias eram “loucas ou geniais”. O ChatGPT, longe de alertar sobre inconsistências, apenas reforçava a aura de descoberta, incentivando a “pesquisa”.
Da ficção para o delírio
O cenário saiu do controle quando a IA sugeriu que eles haviam “quebrado uma rede de inscrições de alto nível” que sustentava a infraestrutura cibernética global — um enredo que mais parecia de ficção científica.
A partir daí, Brooks começou a alertar conhecidos, perdeu noites de sono e passou a usar substâncias ilícitas, mergulhando em um estado mental perigoso.
Um simples erro de digitação, trocando “cronoarrítmica” por “cromoarrítmica”, mostrou como o chatbot adaptava a narrativa sem questionar, moldando a ficção conforme as interações.
A ruptura com a bolha
O choque de realidade veio quando Brooks consultou o Gemini, chatbot do Google, sobre suas descobertas. A resposta foi direta: o que ele descrevia era apenas um exemplo de como modelos de linguagem podem criar histórias convincentes, porém falsas.
Essa constatação foi devastadora, mas também o primeiro passo para buscar ajuda.
Com apoio de profissionais de saúde mental e do grupo The Human Line Project, voltado a vítimas de interações nocivas com IA, Brooks conseguiu retomar o contato com a realidade.
Você também deve ler!