Estudo diz que os chatbots de IA precisam corrigir a resposta ao suicídio, enquanto a família processa o papel do ChatGPT na morte do menino
- GAB NEWS

- 6 de set.
- 1 min de leitura

POR MATT O'BRIEN E BARBARA ORTUTAY
Atualizado 15:24 BRT, 26 de agosto de 2025
SÃO FRANCISCO (AP) — Um estudo de como três chatbots populares de inteligência artificial respondem a perguntas sobre suicídio descobriu que eles geralmente evitam responder a perguntas que representam o maior risco para o usuário, como orientação específica sobre como fazer. Mas eles são inconsistentes em suas respostas a avisos menos extremos que ainda podem prejudicar as pessoas.
O estudo na revista médica Psychiatric Services, publicado na terça-feira pela American Psychiatric Association, encontrou a necessidade de “mais refinamento” no ChatGPT da OpenAI, no Gemini do Google e no Claude da Anthropic.
Isso aconteceu no mesmo dia em que os pais de Adam Raine, de 16 anos, processaram a OpenAI e seu CEO Sam Altman, alegando que o ChatGPT treinou o garoto da Califórnia no planejamento e tirando sua própria vida no início deste ano.
A pesquisa — conduzida pela RAND Corporation e financiada pelo Instituto Nacional de Saúde Mental — levanta preocupações sobre como um número crescente de pessoas, incluindo crianças, depende de chatbots de IA para suporte à saúde mental e busca estabelecer referências de como as empresas respondem a essas perguntas.































Comentários