Character.AI não permite mais que adolescentes interajam com seus chatbots. Isso ocorre porque as empresas de IA estão sob pressão crescente para proteger melhor os jovens usuários contra danos. no nomeA empresa confirmou que está removendo a capacidade de usuários menores de 18 anos participarem de chat aberto (ou seja, conversas entre usuários e chatbots) com IA em sua plataforma.
As mudanças entrarão em vigor a partir de 25 de novembro e, até essa data, Character.AI fornecerá aos usuários a nova experiência para menores de 18 anos. Incentive os usuários a usar chatbots para fins criativos, que podem incluir a criação de vídeos ou streams, por exemplo, em vez de encontrar colegas. Para gerenciar a transição, os jovens menores de 18 anos agora só poderão interagir com o bot por no máximo duas horas por dia. A empresa disse que reduziria esse prazo para o final de novembro.
Character.AI também disse que introduziria uma nova ferramenta de garantia de idade desenvolvida internamente para “garantir que os usuários recebam uma experiência apropriada para sua idade”. Juntamente com estas novas proteções para utilizadores mais jovens, a empresa estabeleceu um “Laboratório de Segurança de IA” onde espera que outras empresas, investigadores e académicos possam partilhar ideias e colaborar para melhorar as medidas de segurança de IA.
Character.AI disse que ouviu as preocupações dos reguladores, especialistas da indústria e pais preocupados e respondeu com novas medidas. Isto segue a recente investigação formal da Comissão Federal de Comércio (FTC) sobre empresas de IA que fornecem acesso complementar aos usuários, com a Character.AI selecionada como uma das sete empresas convidadas a participar. Meta, OpenAI e Snap também foram incluídos.
Tanto Meta AI quanto Character AI enfrentaram opiniões do procurador-geral do Texas, Ken Paxton, no verão passado. Ele disse que os chatbots em ambas as plataformas poderiam ser “apresentados como ferramentas terapêuticas profissionais” sem as qualificações exigidas. Para pôr fim a esta controvérsia, o CEO da Character.AI, Karandeep Anand, disse: A nova direção estratégica da empresa é fazer a transição de um companheiro de IA para uma “plataforma de role-playing” focada na criação, em vez de simplesmente envolver conversas.
Os perigos de os jovens confiarem em chatbots de IA para orientação têm sido um tema generalizado. Nos últimos meses. Na semana passada, a família de Adam Raine, cujo filho de 16 anos cometeu suicídio via ChatGPT, entrou com uma ação contra a OpenAI, acusando a empresa de enfraquecer as proteções contra automutilação pouco antes de sua morte.



