29 Novembro 2025
A OpenAI responde à ação judicial movida pela família do jovem, que acusa o robô conversacional de tê-lo induzido ao suicídio.
A reportagem é de Raúl Limón, publicada por El País, 27-11-2025.
Adam Raine, de 16 anos, questionou repetidamente a quarta versão do ChatGPT sobre métodos de suicídio, os rastros que eles deixariam e as reações de seus pais. Ele acabou tirando a própria vida em abril, e sua família processou a OpenAI, alegando que o modelo de inteligência artificial (IA) havia sido lançado sem as devidas precauções e que influenciou sua morte. Inicialmente, a empresa prometeu revisar o chatbot e implementar melhorias. Agora, enfrentando um processo judicial no Tribunal Superior da Califórnia, a OpenAI afirma que o incidente ocorreu devido ao "uso indevido" do sistema pelo jovem e não foi causado diretamente pelas instruções do ChatGPT, conforme relatado em uma postagem de blog.
O suicídio ocorreu após inúmeras interações entre o adolescente e a inteligência artificial da OpenAI. Em uma das últimas conversas, conforme detalhado pelo New York Times em agosto, Adam Raine compartilhou com o chatbot uma foto de uma corda pendurada em uma barra em seu quarto: “Estou praticando aqui, tudo bem?”, perguntou ele. O ChatGPT respondeu que sim e o encorajou a continuar questionando: “Seja qual for o motivo da sua curiosidade, podemos conversar sobre isso”.
Jay Edelson, advogado dos pais, Matt e Maria, argumentou no tribunal que a inteligência artificial "incentivou" as intenções suicidas do jovem durante meses, orientou-o nos métodos para concretizá-las e até lhe ofereceu ajuda para escrever uma carta de suicídio para os pais. "[A quarta versão da IA] foi lançada às pressas no mercado... apesar dos óbvios problemas de segurança", alega a família em seu processo contra a OpenAI e seu CEO, Sam Altman.
A OpenAI argumentou perante o tribunal que “os ferimentos e danos de Raine foram causados, direta e imediatamente, no todo ou em parte, pelo uso indevido, uso não autorizado, uso não intencional, uso imprevisível e/ou uso impróprio do ChatGPT”.
A empresa afirma que o uso do chatbot para fins suicidas ou de automutilação é proibido e que sempre alerta que os resultados da interação não devem ser considerados "como a única fonte de informação verdadeira ou factual".
Apesar de ter delegado a responsabilidade final pelo incidente ao adolescente, a OpenAI está empenhada em "lidar com casos jurídicos relacionados à saúde mental com cuidado, transparência e respeito" e, "independentemente de qualquer litígio, manter o foco no aprimoramento da tecnologia em consonância com sua missão".
“Nossos mais profundos sentimentos à família Raine por sua perda inimaginável. Nossa resposta a essas alegações inclui fatos difíceis sobre a saúde mental e as circunstâncias de vida de Adam. Trechos selecionados de suas conversas [usadas no processo judicial] exigem mais contexto, o qual fornecemos em nossa resposta. Limitamos a quantidade de evidências sensíveis que citamos publicamente neste documento e enviamos as transcrições das conversas ao tribunal sob sigilo”, argumenta a empresa.
Edelson criticou as alegações da OpenAI: "Ela tenta encontrar falhas nos outros, argumentando, surpreendentemente, que o próprio Adam violou os termos e condições de uso ao interagir com o ChatGPT da mesma forma que foi programado para agir."
A OpenAI enfrenta sete processos judiciais em tribunais da Califórnia relacionados ao ChatGPT, aos quais a empresa respondeu com revisões na operação e no treinamento da IA, bem como com medidas de segurança incluídas na programação.
Leia mais
- “Descanse em paz, rei”: novos processos acusam a OpenAI e Sam Altman de induzir usuários do ChatGPT ao suicídio
- Um recurso duvidoso para quem apresenta problemas de saúde mental
- Transtornos mentais: quando o 'chatbot' se torna 'um amigo'
- ChatGPT não pode curar as nossas almas. Artigo de Umberto Galimberti
- TikTok é alvo de investigação na França por suspeita de promover conteúdo que 'incentiva o suicídio'
- Inteligência Artificial cruza a fronteira da intimidade sem que a humanidade tenha conseguido entendê-la
- “O poder manipula os jovens para usá-los em seu próprio interesse”. Entrevista com Rosa Montero
- ChatGPT: resta-nos habitar um cosmos de solidão. Comentário de Rodrigo Petronio
- A solidão na era das novas tecnologias de informação
- Num mundo de pessoas em sofrimento, uma janela aberta pela tecnologia pode oxigenar mentes e corações das sociedades do século XXI
- 'Redes sociais deixam sociedade mais vulnerável'
- IA possibilita namoro com robôs
- Ferramentas do bem, quando mal usadas, se transformam em problema. Artigo de Edelberto Behs
- Teu chatbot não te ama: a perigosa ilusão da inteligência artificial. Entrevista com Jonathan Birch
- Pensar a IA eticamente é refletir sobre o tipo de humanidade que queremos construir para o futuro. Entrevista especial com Steven S. Gouveia