top of page

"Ajuda segura de imigrantes

para imigrantes nos EUA"

Flores de papoula rosa

Mais vendidos

Junte-se a nós – torne-se um membro hoje mesmo!

Individual
Profissional
Negócios

A FTC se prepara para pressionar empresas de IA sobre o impacto nas crianças, relata o Wall Street Journal.

By Reuters

September 4, 202512:14 PM GMT-3


ree

4 de setembro (Reuters) - Os EUA A Comissão Federal de Comércio está se preparando para examinar os riscos de saúde mental dos chatbots de IA para crianças e exigirá documentos internos das principais empresas de tecnologia, incluindo OpenAI, Meta Platforms (META.O), abre uma nova guia e Character.AI, informou o Wall Street Journal na quinta-feira.

A agência está preparando cartas para enviar às empresas que operam chatbots populares, disse o relatório, citando funcionários da administração.

"A Character.AI não recebeu uma carta sobre o estudo da FTC, mas damos as boas-vindas ao trabalho com reguladores e legisladores à medida que eles começam a considerar a legislação para este espaço emergente", disse a empresa.

FTC, OpenAI e Meta não responderam imediatamente aos pedidos de comentários da Reuters. A Reuters não conseguiu verificar o relatório de forma independente.

A FTC e toda a Administração estão focadas em cumprir o mandato de Trump "para cimentar o domínio da América em IA, criptomoedas e outras tecnologias de ponta do futuro" sem comprometer a segurança e o bem-estar das pessoas, disse um porta-voz da Casa Branca.

A notícia chega semanas depois que um relatório exclusivo da Reuters revelou como a Meta permitiu o comportamento provocativo do chatbot com crianças, incluindo permitir que os bots se envolvessem em "conversas românticas ou sensuais".

Na semana passada, a empresa de mídia social disse que adicionaria novas salvaguardas para adolescentes aos seus produtos de inteligência artificial por meio de sistemas de treinamento para evitar conversas de flerte e discussões sobre automutilação ou suicídio com menores, e limitando temporariamente seu acesso a certos personagens de IA.

Em junho, mais de 20 grupos de defesa do consumidor apresentaram uma queixa à FTC e aos procuradores-gerais estaduais, alegando que plataformas de IA como Meta AI Studio e Character.AI permitem a prática não licenciada de medicina hospedando "bots de terapia".

O procurador-geral do Texas, Ken Paxton, lançou uma investigação sobre a Meta e a Character.AI no mês passado por supostamente enganar crianças com serviços de saúde mental gerados por IA, acusando-as de práticas comerciais enganosas e violações de privacidade.


Comentários


bottom of page