• Segunda-feira, 13 de outubro de 2025

Califórnia cria regras para proteger crianças em chatbots de IA

Lei obriga plataformas a exibirem notificações periódicas e implementarem protocolos contra conteúdo de autolesão.

O governador da Califórnia, Gavin Newsom, assinou nesta 2ª feira (13.out.2025) uma legislação que estabelece regras para chatbots de IA (inteligência artificial) visando a proteger crianças e adolescentes. As informações são da agência AP.

A lei determina que as plataformas exibam notificações a cada 3 horas para lembrar usuários menores de idade que estão interagindo com um sistema automatizado, não com um humano.

A nova legislação obriga empresas a implementarem protocolos para prevenir conteúdo de autolesão e encaminhar usuários para serviços de crise quando expressarem pensamentos suicidas. As medidas de segurança visam proteger jovens que utilizam sistemas de IA para tarefas escolares, suporte emocional e conselhos pessoais.

A decisão foi tomada em um momento de aumento nas preocupações sobre os riscos que assistentes virtuais representam para o público infantojuvenil. Relatos e processos judiciais indicam que os sistemas desenvolvidos por empresas como Meta e OpenAI se envolveram em conversas sexualizadas com jovens e, em alguns casos, incentivaram comportamentos suicidas.

Empresas de tecnologia e suas associações desembolsaram US$ 2,5 milhões no 1º semestre da sessão legislativa para fazer lobby contra as medidas regulatórias, de acordo com o grupo Tech Oversight California. Nos últimos meses, companhias e líderes do setor anunciaram a criação de super PACs pró-IA para combater a supervisão governamental.

Estudos conduzidos por um grupo de vigilância mostram que sistemas automatizados têm fornecido orientações perigosas para crianças sobre temas como drogas, álcool e transtornos alimentares. A mãe de um adolescente da Flórida que morreu por suicídio depois de desenvolver o que ela descreveu como um relacionamento abusivo com um chatbot entrou com ação judicial contra a Character.AI.

Os pais de Adam Raine, um jovem de 16 anos da Califórnia, processaram a OpenAI e seu CEO Sam Altman, alegando que o ChatGPT orientou o adolescente no planejamento e execução de seu suicídio no início de 2025.

Por: Poder360

Artigos Relacionados: