Um recurso duvidoso para quem apresenta problemas de saúde mental

Foto: Unsplash

Mais Lidos

  • “A emoção substituiu a expertise, e nosso cérebro adora isso!” Entrevista com Samah Karaki

    LER MAIS
  • “Marco temporal”, o absurdo como política de Estado? Artigo de Dora Nassif

    LER MAIS
  • A desigualdade mundial está aumentando: 10% da população detém 75% da riqueza

    LER MAIS

Assine a Newsletter

Receba as notícias e atualizações do Instituto Humanitas Unisinos – IHU em primeira mão. Junte-se a nós!

Conheça nossa Política de Privacidade.

Revista ihu on-line

O veneno automático e infinito do ódio e suas atualizações no século XXI

Edição: 557

Leia mais

Um caleidoscópio chamado Rio Grande do Sul

Edição: 556

Leia mais

Entre códigos e consciência: desafios da IA

Edição: 555

Leia mais

11 Novembro 2025

A OpenAI reuniu 170 médicos de sua Rede Global de Médicos, psiquiatras e psicólogos, que analisaram mais de 1,8 mil respostas de modelos envolvendo situações graves de saúde mental. Essa análise impulsionou a empresa a criar um novo modelo, o GPT-5, que incluiu a avaliação da segurança das respostas do modelo e a ajuda na redação das respostas do chatbot a perguntas relacionadas à saúde mental. Em 91% dos casos ele responde conforme o comportamento desejado, em comparação com os 77% do modelo anterior.

A reportagem é de Edelberto Behs, jornalista.

Segundo matéria do repórter Nick Robins-Early, do jornal The Guardian, mais de um milhão de usuários do ChatGPT enviam, semanalmente, mensagens que incluem “indicadores explícitos de potencial planejamento ou intenção suicida”. O dado é do blog da própria OpenAI, que levou a plataforma a trabalhar numa atualização de como o chatbot lida com conversas sensíveis.

A OpenAI também informou que cerca de 0,07% dos seus usuários ativos em uma determinada semana – o que corresponde a cerca de 560 mil dos seus estimados 800 milhões de usuários semanais – apresentam “possíveis sinais de emergência de saúde mental relacionadas a psicose ou mania. Ela expandiu, no novo GPT-5, o acesso a linhas diretas de crise e adicionou lembretes para os usuários para que façam pausas durantes sessões longas.

Pesquisadores de IA e defensores da saúde pública, assinala Robins-Early, desconfiam, há muito tempo, da propensão dos chatbots de confirmar as decisões ou delírios dos usuários, independentemente de serem prejudiciais, um problema conhecido como bajulação. Eles também se preocupam com o uso de chatbots de IA para apoio psicológicos e alertam que isso pode prejudicar usuários vulneráveis.

Leia mais