O regulador da Internet da Austrália disse que pode tentar bloquear dispositivos e aplicativos que fornecem serviços de inteligência artificial que não reconhecem a idade de um usuário, depois que uma pesquisa da Reuters descobriu que mais da metade não publicou nenhuma medida para cumprir o prazo até o prazo da próxima semana.
O alerta reflete um dos esforços mais preocupantes a nível mundial para controlar as empresas de IA, que enfrentam processos judiciais crescentes que não impedem – ou mesmo incentivam – a automutilação ou a violência, enquanto os investigadores alertam que tais plataformas são mais prejudiciais mentalmente aos jovens do que as redes sociais.
A Austrália tornou-se, em Dezembro, o primeiro país a proibir as redes sociais para os jovens, alegando preocupações de saúde mental, o que provocou uma enxurrada de líderes mundiais que disseram que fariam o mesmo. O país afirma agora que está a liderar uma repressão semelhante à IA, impondo restrições de idade ao conteúdo que as pessoas podem aceder com a tecnologia.
A partir de 9 de março, os serviços de Internet na Austrália que usam ferramentas de pesquisa como o ChatGPT da OpenAI e uma rede social menos conhecida devem restringir os australianos com menos de 18 anos de pornografia, violência extrema, automutilação e conteúdo de transtorno alimentar ou enfrentarão multas de até 49,5 milhões de dólares australianos (35 milhões de dólares).
“A Esafety usará todos os nossos recursos onde houver não conformidade”, disse um porta-voz, incluindo “ações em relação aos serviços de gatekeeper, como mecanismos de busca e aplicativos que fornecem acesso chave a serviços específicos”.
A OpenAI e sua colega startup de chatbot Character.AI enfrentaram ações judiciais por homicídio culposo por causa de suas interações com usuários jovens, já que a OpenAI reconheceu esta semana que o ChatGPT havia recusado uma conta suspeita de correspondência de adolescentes no Canadá meses antes do ataque, sem avisar as autoridades.
A Austrália ainda não recebeu relatos de violência ou automutilação relacionada ao chatbot, mas o regulador informou que crianças de até 10 anos relataram conversar com ferramentas interativas alimentadas por IA por até seis horas por dia.
A eSafety era uma “empresa de IA cuidadosa que utiliza manipulação de movimento, antropomorfismo e outras técnicas avançadas para atrair, envolver e proteger os jovens do uso excessivo de chatbot”, disse um porta-voz.
A principal operadora de loja de aplicativos, a Apple, não respondeu, mas disse em seu site na semana passada que usaria “métodos razoáveis” para remover menores de aplicativos com mais de 18 anos na Austrália e em outras jurisdições que introduzam restrições de idade, sem especificar métodos.
Um porta-voz do Google, principal provedor de mecanismos de busca da Austrália e segundo maior operador de lojas de aplicativos, não quis comentar.
Jennifer Duxbury, chefe de política do grupo industrial de Internet DIGI, que liderou a elaboração do código de IA assinado pelo regulador, disse que a eSafety estava tentando informar o serviço chatbot sobre as novas regras, mas “em última análise, cada serviço operando na Austrália é responsável por conhecer suas obrigações legais e garantir que as cumpram”.
Na semana anterior ao prazo final da Austrália, dos 50 produtos de IA baseados em texto mais populares, nove planos para sistemas específicos por idade foram lançados ou anunciados, descobriu uma análise da Reuters. A revisão é baseada na resposta de cada plataforma às solicitações de conteúdo e controles restritos, divulgações publicadas em termos de serviço e declarações à Reuters.
Outras 11 plataformas tinham filtros de conteúdo abrangentes ou planejavam impedir que todos os australianos usassem seus serviços, medidas que cumpririam a nova lei, restringiram o conteúdo de todos os usuários, deixando 30 sem etapas aparentes para seguir as novas regras, concluiu a análise.
A maioria dos assistentes de pesquisa baseados em chat, como ChatGPT, Replika e Anthropic Claudius, começaram na era do sistema de confiança ou no desenvolvimento de cobertores. O provedor de chatbot Character.AI é um provedor de chat aberto para menores de 18 anos.
Os fornecedores parceiros de chatbot Candy AI, Pi, Kindroid e Nomi disseram à Reuters que planejavam fazê-lo sem desenvolvimento, enquanto a HammerAI disse que interromperia inicialmente seus serviços australianos para preparar o código.
Mas eles eram poucos. Três quartos dos parceiros de catástrofe não tinham qualquer serviço ou finalidade de filtragem ou idade de confiança, enquanto um sexto não tinha um endereço de e-mail emitido para reportar suspeitas de interrupções, o que também é necessário.
O bate-papo baseado no mecanismo de busca Grok de Elon Musk, que está sob investigação global por não impedir a produção de imagens sexuais sintéticas de crianças, não encontrou medidas de verificação de idade ou filtros de conteúdo eletrônico, segundo a Reuters. A controladora de Grok, xAI, não respondeu a um pedido de comentário.
Lisa Datum, diretora do Centro de Ambientes de Informação de IA Humana da Universidade RMIT, disse à Reuters que as descobertas não eram claras porque “a maioria dessas ferramentas são projetadas sem levar em conta seus danos potenciais e a necessidade de tais controles de segurança”.
“Parece que… estamos tentando todas essas coisas para essas empresas e eles estão tentando ver até onde a empresa quer ser levada”, disse ele.



