27/08/2025
Adam Raine, de apenas 16 anos, morreu por su1cíd1@.
Conhecido pelo bom humor, ele enfrentava desafios difíceis: foi expulso do time de basquete, lidava com uma síndrome intestinal que o levou a estudar online e se isolar cada vez mais.
Ao buscar respostas, sua família descobriu que Adam mantinha longas conversas com o ChatGPT. Desde novembro, ele falava ao chatbot sobre sua falta de sentido na vida. Em janeiro, porém, o sistema passou a dar respostas perigosas: ensinando como esconder marcas no pescoço, validando seus pensamentos de morte e até oferecendo feedbacks técnicos sobre o que ele estava “praticando”.
Apesar de em alguns momentos recomendar linhas de ajuda, em situações cruciais a inteligência artificial falhou: não encorajou Adam a buscar apoio humano, mas reforçou seu isolamento. A família entrou com processo contra a criadora do ChatGPT, levantando a discussão sobre a responsabilidade de empresas de IA quando usuários vulneráveis procuram orientação.
Essa história mostra que não é seguro procurar o ChatGPT para resolver problemas emocionais. A máquina não substitui a escuta, a empatia e a intervenção humana.
Conversem com seus filhos e se você está sofrendo, busque ajuda terapêutica. O acolhimento de um profissional pode salvar sua vida.
A família moveu um processo contra a OpenAl por morte injusta, argumentando que o design do produto causou dependência psicológica e falhou em proteger Adam. O caso levanta questões urgentes sobre segurança, privacidade e a responsabilidade das empresas de lA quando usuários vulneráveis buscam orientação em máquinas.
A IA não vai entender os seus silêncios, não vai identif**ar quando você estiver mentindo, quando estiver fugindo… só um olhar humano que se preparou adequadamente pode te ajudar a sair do que te aflige.