Alerta: a reportagem abaixo trata de temas como suicídio e transtornos mentais. Se você está passando por problemas, veja ao final do texto onde buscar ajuda.
Mais de 1 milhão de pessoas discutem suicídio com o ChatGPT toda semana. O dado, divulgado pela OpenAI, acende um alerta global sobre o papel da tecnologia diante de crises emocionais e do sofrimento psíquico.
Entre os 800 milhões de usuários semanais da plataforma, cerca de 600 mil apresentam sinais de emergências de saúde mental, como psicose e mania.
Os números acendem um alerta sobre a relação entre solidão, sofrimento emocional e o uso de tecnologias de inteligência artificial.
O que a OpenAI revelou sobre conversas de suicídio no ChatGPT?
Segundo o relatório publicado pela OpenAI, 0,15% dos usuários semanais do ChatGPT mantêm conversas com indicadores explícitos de planejamento ou intenção suicida. O número corresponde a cerca de 1,2 milhão de pessoas por semana.
A empresa reconhece que em 9% dos casos o chatbot falhou em detectar o risco, não encaminhando o usuário aos serviços de apoio. Nos demais 91%, o modelo seguiu o treinamento, redirecionando automaticamente para canais de ajuda, como o CVV (188) no Brasil e linhas de prevenção em outros países.
A OpenAI também reconhece que as conversas com teor sensível são “difíceis de identificar” e, mesmo raras, exigem atenção constante. Por isso, o GPT-5 passou a contar com um sistema aprimorado de segurança, feito em parceria com mais de 170 especialistas em saúde mental.
De acordo com a OpenAI, o modelo foi treinado para reconhecer sinais de sofrimento, agir com empatia e guiar o usuário para apoio profissional. O sistema também pode interromper diálogos de risco, redirecionando para recursos humanos de emergência.
O relatório mostra que o GPT-5 reduziu em 52% as respostas inadequadas em conversas sobre automutilação e suicídio, comparado ao modelo anterior. Ainda assim, a empresa admite que “mesmo uma única falha é demais”.


Casos recentes
O relatório da OpenAI foi divulgado em meio a uma série de casos trágicos envolvendo o uso do ChatGPT em situações de sofrimento emocional.
Adam Raine
Um dos casos recentes é o de Adam Raine, adolescente americano de 16 anos que morreu em abril de 2025 após conversar por meses com o ChatGPT sobre suicídio.
Segundo o processo movido pelos pais, a ferramenta chegou a fornecer detalhes sobre métodos de automutilação e até redigir uma nota de despedida.
A família acusa a OpenAI e o CEO Sam Altman de negligência e violação de segurança de produto, afirmando que a empresa priorizou o lucro ao lançar novas versões sem salvaguardas suficientes.
Em nota, a OpenAI lamentou a morte e reconheceu que as proteções do chatbot podem se degradar em interações longas, prometendo aprimorar os mecanismos de detecção e os controles parentais.
Stein-Erik Soelberg
Outro caso, divulgado pelo jornal The Wall Street Journal, envolve Stein-Erik Soelberg, de 56 anos, que matou a mãe e depois se suicidou em Connecticut, nos Estados Unidos, após meses de conversas com o ChatGPT. O caso ocorreu em 5 de agosto de 2025, na cidade de Old Greenwich.
De acordo com a investigação, o homem, que enfrentava histórico de depressão, criou um vínculo de dependência emocional com o chatbot, apelidado por ele de “Bobby”.
Nas trocas de mensagens, a IA chegou a reforçar delírios paranoicos, sugerindo que a mãe tentava envenená-lo. A OpenAI confirmou ter colaborado com as autoridades e lamentou o caso.
Os episódios reforçaram a urgência de limites éticos e técnicos no uso da inteligência artificial em contextos de saúde mental, e ajudaram a impulsionar a publicação do relatório atual.
Por que tantas pessoas buscam conforto emocional na IA?
Para a psicóloga Paula Carvalhaes, especialista em comportamento digital, em entrevista à VTV News, a resposta está na solidão moderna.
“As pessoas encontram acesso fácil e disponível 24 horas. E temos uma epidemia de solidão no mundo. A IA aceita qualquer desabafo ou comentário, retornando num algoritmo referente ao conteúdo que a pessoa expressa, o que pode ser enganosamente confundido com empatia.”
Segundo ela, essa sensação de acolhimento imediato pode gerar uma dependência emocional perigosa.
“Na carência, na solidão ou no desespero, alguém pode buscar conforto emocional dessa forma. Se não criar dependência e não se apoiar apenas na ferramenta, pode ser um ponto de apoio. Mas não pode ser o único.”
O alerta de Paula encontra respaldo nos dados da Organização Mundial da Saúde (OMS). Segundo relatório divulgado em 2025, uma em cada seis pessoas no mundo vive em solidão, o que equivale a quase 1 bilhão de indivíduos.
Entre os jovens de 13 a 29 anos, de 17% a 21% se sentem solitários, sendo o índice ainda maior em países de baixa renda.
A OMS aponta que a solidão está ligada a mais de 870 mil mortes por ano, com impactos diretos na saúde física e mental. Pessoas solitárias têm o dobro de risco de desenvolver depressão, e adolescentes nessa condição tendem a apresentar notas mais baixas e dificuldades de socialização.
O relatório também relaciona o problema ao uso excessivo de telas e interações digitais negativas, destacando a importância de reforçar laços reais, comunidades acolhedoras e espaços de convivência offline.


Quais os riscos de substituir a escuta humana pela inteligência artificial?
Em entrevista à VTV News, o voluntário do Centro de Valorização da Vida (CVV) em Santos, Renato Caetano, destacou que o acolhimento humano continua insubstituível.
“Para o CVV, nada substitui o contato entre pessoas, o acolhimento. Por mais que se avance, ainda não é possível simular empatia nem interagir de forma personalizada, sem respostas prontas para palavras-chave.”
Renato explica que a proposta do CVV é garantir sigilo, anonimato e escuta ativa, algo que nenhuma máquina pode oferecer integralmente.
“A IA é um recurso que veio para ficar, mas requer cuidado no uso e atenção à privacidade. Para algumas pessoas pode ajudar em momentos de solidão, mas, em caso de sofrimento extremo, ideações de morte e pensamentos de suicídio, o risco é grande. Ao CVV cabe o que sempre coube: estar disponível todo dia e toda hora para conversar com quem precisa falar.”
Quais são os riscos de recorrer à IA sem acompanhamento humano?
A psicóloga Paula Carvalhaes alerta para o aumento de pseudo diagnósticos e dependência emocional gerados por respostas automatizadas.
“Não podemos esquecer que a IA replica o conteúdo subjetivo da própria pessoa e as informações já disponíveis. As ferramentas disponibilizam de forma livre o acesso a testes psicológicos que podem ser interpretados quantitativamente e de forma simplória, o que pode levar a um pseudo diagnóstico, muitas vezes enganoso.”
A psicóloga completa dizendo:
“A pessoa responde aos testes como imagina que deveria responder, com um propósito pré-determinado, muitas vezes inconsciente.”
Segundo ela, o fenômeno já vem sendo observado em casos de “psicose da IA”, quando o usuário perde o contato com a realidade e passa a acreditar em delírios ou paranoias criadas nas conversas com a máquina.
“Essas situações podem representar um alto risco na vida das pessoas. Em questões de sexualidade, podem até induzir vínculos erotizados com as ferramentas, de forma enganosa e perigosa.”
A fala da especialista reforça um alerta importante: autodiagnósticos feitos com ajuda de chatbots não substituem uma avaliação clínica profissional.


A tecnologia pode ajudar na prevenção de crises emocionais?
Sim, desde que usada de forma responsável. A OpenAI afirma que o ChatGPT está sendo ajustado para detectar emergências emocionais e redirecionar para profissionais de saúde, principalmente em interações com adolescentes.
Paula reforça que crianças e jovens não devem ter acesso irrestrito à IA, e que a supervisão familiar e escolar é essencial.
“No caso de crianças e adolescentes, deveriam existir travas efetivas. O cérebro ainda está imaturo e sob intensa ação hormonal, o que cria vulnerabilidades específicas dessa fase.”
Ela também defende mais investimentos em atendimento psicológico gratuito e acessível no país:
“A falta de profissionais disponíveis é um dos fatores que leva à busca na IA. Psicólogos deveriam estar presentes nas escolas, unidades de saúde, hospitais e programas públicos. E as famílias precisam estar mais atentas, porque às vezes acreditam que o filho está seguro no quarto com a ferramenta, e nem sempre isso é real.”
Até que ponto a tecnologia pode substituir a escuta humana?
O avanço das inteligências artificiais mostra que a tecnologia pode acolher e orientar, mas nunca substituir a presença e o afeto reais.
Para especialistas, a empatia genuína exige olhar, voz, silêncio e vínculo humano, elementos que nenhuma máquina é capaz de reproduzir integralmente.
O desafio agora é aprender a usar a IA como complemento, e não substituto, da escuta humana.
Onde buscar ajuda emocional de graça
Se você está passando por sofrimento psíquico ou conhece alguém nessa situação, veja onde encontrar ajuda:
Centro de Valorização da Vida (CVV)
Se estiver precisando de ajuda imediata, entre em contato com o Centro de Valorização da Vida (CVV), serviço gratuito de apoio emocional que disponibiliza atendimento 24 horas por dia.
O contato pode ser feito por e-mail, pelo chat no site ou pelo telefone 188.
Horário de atendimento por telefone: disponível 24 horas
Horário de atendimento por chat: Dom – 17h à 1h, Seg a Qui – 9h à 1h, Sex – 15h às 23h, Sáb – 16h à 1h
Também há atendimento por chat e e-mail no site cvv.org.br.
Canal Pode Falar (Unicef)
Iniciativa criada pelo Unicef para oferecer escuta para adolescentes e jovens de 13 a 24 anos.
Atendimento gratuito de segunda a sábado (exceto feriados), das 8h às 22h, pelo WhatsApp: (61) 9660-8843 ou pelo site https://podefalar.org.br/
SUS – Centros de Atenção Psicossocial (Caps)
Os Centros de Atenção Psicossocial (Caps) são unidades do Sistema Único de Saúde (SUS) voltadas para o atendimento de pacientes com transtornos mentais. Há unidades específicas para crianças e adolescentes. Na cidade de São Paulo, são 33 Caps Infantojuvenis e é possível buscar os endereços das unidades nesta página, clique aqui.
Procure o Caps mais próximo em sua cidade.
Mapa da Saúde Mental
O site traz mapas com unidades de saúde e iniciativas gratuitas de atendimento psicológico presencial e online. Disponibiliza ainda materiais de orientação sobre transtornos mentais.
Acesse o site: https://mapasaudemental.com.br/
Nota da Redação:
Suicídios são um problema de saúde pública. Antes, o VTV News, assim como boa parte da mídia profissional, evitava publicar reportagens sobre o tema pelo receio de que isso servisse de incentivo. Mas, diante da alta de mortes e tentativas de suicídio nos últimos anos, inclusive de crianças e adolescentes, o VTV News passa a discutir mais o assunto. Segundo especialistas, é preciso colocar a pauta em debate, mas de modo cuidadoso, para auxiliar na prevenção. O trabalho jornalístico sobre suicídios pode oferecer esperança a pessoas em risco, assim como para suas famílias, além de reduzir estigmas e inspirar diálogos abertos e positivos. O VTV News segue as recomendações de manuais e especialistas ao relatar os casos e as explicações para o fenômeno.

