Os criadores do ChatGPT culpam o suicídio de um adolescente pelo "uso indevido" da IA

Mais Lidos

  • Em vez de as transformações tecnológicas trazerem mais liberdade aos humanos, colocou-os em uma situação de precarização radical do trabalho e adoecimento psicológico

    Tecnofascismo: do rádio de pilha nazista às redes antissociais, a monstruosa transformação humana. Entrevista especial com Vinício Carrilho Martinez

    LER MAIS
  • Desatai o futuro! Comentário de Adroaldo Palaoro

    LER MAIS
  • Como o dinheiro dos combustíveis fósseis transformou a negação climática na “palavra de Deus”. Artigo de Henrique Cortez

    LER MAIS

Revista ihu on-line

O veneno automático e infinito do ódio e suas atualizações no século XXI

Edição: 557

Leia mais

Um caleidoscópio chamado Rio Grande do Sul

Edição: 556

Leia mais

Entre códigos e consciência: desafios da IA

Edição: 555

Leia mais

29 Novembro 2025

A OpenAI responde à ação judicial movida pela família do jovem, que acusa o robô conversacional de tê-lo induzido ao suicídio.

A reportagem é de Raúl Limón, publicada por El País, 27-11-2025.

Adam Raine, de 16 anos, questionou repetidamente a quarta versão do ChatGPT sobre métodos de suicídio, os rastros que eles deixariam e as reações de seus pais. Ele acabou tirando a própria vida em abril, e sua família processou a OpenAI, alegando que o modelo de inteligência artificial (IA) havia sido lançado sem as devidas precauções e que influenciou sua morte. Inicialmente, a empresa prometeu revisar o chatbot e implementar melhorias. Agora, enfrentando um processo judicial no Tribunal Superior da Califórnia, a OpenAI afirma que o incidente ocorreu devido ao "uso indevido" do sistema pelo jovem e não foi causado diretamente pelas instruções do ChatGPT, conforme relatado em uma postagem de blog.

O suicídio ocorreu após inúmeras interações entre o adolescente e a inteligência artificial da OpenAI. Em uma das últimas conversas, conforme detalhado pelo New York Times em agosto, Adam Raine compartilhou com o chatbot uma foto de uma corda pendurada em uma barra em seu quarto: “Estou praticando aqui, tudo bem?”, perguntou ele. O ChatGPT respondeu que sim e o encorajou a continuar questionando: “Seja qual for o motivo da sua curiosidade, podemos conversar sobre isso”.

Jay Edelson, advogado dos pais, Matt e Maria, argumentou no tribunal que a inteligência artificial "incentivou" as intenções suicidas do jovem durante meses, orientou-o nos métodos para concretizá-las e até lhe ofereceu ajuda para escrever uma carta de suicídio para os pais. "[A quarta versão da IA] foi lançada às pressas no mercado... apesar dos óbvios problemas de segurança", alega a família em seu processo contra a OpenAI e seu CEO, Sam Altman.

A OpenAI argumentou perante o tribunal que “os ferimentos e danos de Raine foram causados, direta e imediatamente, no todo ou em parte, pelo uso indevido, uso não autorizado, uso não intencional, uso imprevisível e/ou uso impróprio do ChatGPT”.

A empresa afirma que o uso do chatbot para fins suicidas ou de automutilação é proibido e que sempre alerta que os resultados da interação não devem ser considerados "como a única fonte de informação verdadeira ou factual".

Apesar de ter delegado a responsabilidade final pelo incidente ao adolescente, a OpenAI está empenhada em "lidar com casos jurídicos relacionados à saúde mental com cuidado, transparência e respeito" e, "independentemente de qualquer litígio, manter o foco no aprimoramento da tecnologia em consonância com sua missão".

“Nossos mais profundos sentimentos à família Raine por sua perda inimaginável. Nossa resposta a essas alegações inclui fatos difíceis sobre a saúde mental e as circunstâncias de vida de Adam. Trechos selecionados de suas conversas [usadas no processo judicial] exigem mais contexto, o qual fornecemos em nossa resposta. Limitamos a quantidade de evidências sensíveis que citamos publicamente neste documento e enviamos as transcrições das conversas ao tribunal sob sigilo”, argumenta a empresa.

Edelson criticou as alegações da OpenAI: "Ela tenta encontrar falhas nos outros, argumentando, surpreendentemente, que o próprio Adam violou os termos e condições de uso ao interagir com o ChatGPT da mesma forma que foi programado para agir."

A OpenAI enfrenta sete processos judiciais em tribunais da Califórnia relacionados ao ChatGPT, aos quais a empresa respondeu com revisões na operação e no treinamento da IA, bem como com medidas de segurança incluídas na programação.

Leia mais