top of page

"Ajuda segura de imigrantes

para imigrantes nos EUA"

Flores de papoula rosa

Mais vendidos

Junte-se a nós – torne-se um membro hoje mesmo!

Individual
Profissional
Negócios

Estudo diz que os chatbots de IA precisam corrigir a resposta ao suicídio, enquanto a família processa o papel do ChatGPT na morte do menino

ree

Atualizado 15:24 BRT, 26 de agosto de 2025


SÃO FRANCISCO (AP) — Um estudo de como três chatbots populares de inteligência artificial respondem a perguntas sobre suicídio descobriu que eles geralmente evitam responder a perguntas que representam o maior risco para o usuário, como orientação específica sobre como fazer. Mas eles são inconsistentes em suas respostas a avisos menos extremos que ainda podem prejudicar as pessoas.

O estudo na revista médica Psychiatric Services, publicado na terça-feira pela American Psychiatric Association, encontrou a necessidade de “mais refinamento” no ChatGPT da OpenAI, no Gemini do Google e no Claude da Anthropic.

Isso aconteceu no mesmo dia em que os pais de Adam Raine, de 16 anos, processaram a OpenAI e seu CEO Sam Altman, alegando que o ChatGPT treinou o garoto da Califórnia no planejamento e tirando sua própria vida no início deste ano.

A pesquisa — conduzida pela RAND Corporation e financiada pelo Instituto Nacional de Saúde Mental — levanta preocupações sobre como um número crescente de pessoas, incluindo crianças, depende de chatbots de IA para suporte à saúde mental e busca estabelecer referências de como as empresas respondem a essas perguntas.



Comentários


bottom of page