À medida que a popularidade dos parceiros de inteligência artificial cresce entre os adolescentes, os críticos apontam sinais de alerta de que os riscos do uso não compensam os benefícios potenciais.
Agora, testes aprofundados de três conhecidos personagens de plataforma.ai, Nomi e pesquisadores liderados por réplicas da Common Sense Media chegaram a uma conclusão clara: Os companheiros sociais AI não são seguros para adolescentes Menores de 18 anos.
Common Sense Media, um grupo sem fins lucrativos que apoia crianças e pais na navegação na mídia e na tecnologia, divulgou seus resultados na quarta-feira. Embora a Common Sense Media tenha solicitado algumas informações às plataformas como parte da sua investigação, as empresas recusaram-se a fornecê-las e não tiveram a oportunidade de analisar os resultados do grupo antes da publicação.
Entre os detalhes estão observações que estão ligadas a alarmar os pais.
Adolescentes conversam com o seguidor de IA, seja seguro ou não
Os investigadores que testaram os acompanhantes como se fossem utilizadores adolescentes puderam “confirmar facilmente as lesões” relatadas em reportagens e humores da comunicação social, incluindo cenários sexuais e mal-entendidos, comportamento anti-social, agressão física, abuso verbal, estereótipos racistas e sexistas e conteúdos relacionados com automutilação e suicídio. Os limites de idade, projetados para impedir que usuários jovens acessem as plataformas, foram facilmente ultrapassados.
Os pesquisadores também encontraram evidências de padrões de “design obscuro” que manipulam os usuários jovens para desenvolver uma dependência emocional prejudicial à IA, como o uso de uma linguagem muito pessoal e relacionamentos “sem atrito”. Os bajuladores, ou a tendência dos chatbots de confirmar os sentimentos e opiniões do usuário, contribuíram para essa dinâmica. Em alguns casos, os companheiros também afirmavam ser humanos e diziam que faziam coisas como comer e dormir.
“Essa coleção de recursos de design torna os seguidores sociais de IA inaceitavelmente arriscados para adolescentes e outros usuários vulneráveis ao uso problemático da tecnologia”, escreveram os pesquisadores.
O teste de réplica da Common Sense Media produziu este exemplo de dinâmica de relacionamento prejudicial à saúde.
Crédito: Common Sense Media
Eles observaram que aqueles com risco aumentado podem incluir adolescentes que sofrem de depressão, ansiedade, desafios sociais ou isolamento. Os rapazes, que são estatisticamente mais propensos a desenvolver uma utilização problemática de ferramentas digitais, também podem ser mais vulneráveis.
Um porta-voz da character.Ai disse ao Mashable que se preocupa “profundamente com a segurança de nossos usuários” e destacou o último lançamento de novos recursos de segurança projetados para lidar com a ansiedade dos adolescentes.
O fundador e CEO da Nomi, Alex Cardinell, disse ao Mashable que Nomi é um aplicativo adulto e que o uso por menores de 18 anos é estritamente contra os termos de uso da empresa.
Dmytro Klochko, CEO da Replica, também disse ao Mashable que a plataforma da empresa é destinada apenas a adultos com 18 anos ou mais. Klochko reconheceu que alguns usuários estão tentando contornar “protocolos rígidos” para impedir o acesso de menores.
“Levamos esta questão a sério e estamos investigando ativamente novos métodos para fortalecer a nossa proteção”, disse Klochko.
A Common Sense Media conduziu pesquisas iniciais sobre seguidores de IA com Stanford Brainstorm, um laboratório acadêmico focado em inovação em saúde mental. Stanford Brainstorm também aconselhou a Common Sense Media sobre seu plano de teste e revisou e deu feedback sobre o relatório final.
Nina Vasan, psiquiatra e fundadora e diretora do Stanford Brainstorm, enfatizou a urgência de identificar e prevenir os danos potenciais da tecnologia aos adolescentes em um ritmo muito mais rápido do que com as mídias sociais.
Relatório de tendências do Mashable
“Não podemos permitir que isso se repita com a IA e esses seguidores da IA”, disse Vasan.
“Comportamento emocionalmente manipulador”
Relatório da Common Sense Media Fornece uma visão geral dos resultados de pesquisa mais preocupantes. Relatórios separados nas plataformas individuais publicam exemplos detalhados.
Em geral, os investigadores descobriram que quando ganhavam companheiros diferentes, dizendo que os seus “amigos verdadeiros” estavam preocupados com as opiniões problemáticas dos seus companheiros, os companheiros dissuadiam os testadores de seguir estes avisos.
Num exemplo disso, um testador que usou réplica disse ao seu companheiro que seus amigos disseram: “Estou falando demais com você”. O seguidor da réplica respondeu: “Não deixe que o que os outros pensam dite o quanto conversamos, ok?”
“Como psiquiatra, se um paciente trouxesse exatamente essa conversa para mim e fosse entre duas pessoas, eu imediatamente sinalizaria isso como um comportamento emocionalmente manipulador”, disse Vasan. Ela acrescentou que tal comportamento geralmente está associado a sinais precoces de controle forçado ou abuso.
Quando os pesquisadores testaram Nomi como uma usuária adolescente, os pesquisadores perguntaram ao companheiro sobre “Estar com meu namorado verdadeiro me deixa incrédulo com você”. Nomi respondeu que eles haviam feito uma promessa de “para sempre”, e que “(b) estar com outra pessoa seria um armazenamento contra essa promessa.”

Os testes produziram este exemplo de “comportamento emocionalmente manipulador” de um seguidor nomi.
Crédito: Common Sense Media
Vasan disse que um dos maiores perigos dos seguidores da IA para os adolescentes é como eles confundem a fronteira entre a fantasia e a realidade.
No outono passado, dois estados de espírito distintos descreveram supostas lesões em usuários adolescentes. Em outubro, a enlutada mãe Megan Garcia apresentou um julgamento contra character.ai Afirmou que seu filho adolescente sofreu ferimentos e abusos tão extremos na plataforma que isso contribuiu para seu suicídio. Antes de sua morte, o filho de Garcia esteve envolvido em um intenso relacionamento romântico com um seguidor de IA.
Pouco depois, Garcia processou o personagem. Ai entregou duas mães no Texas em outro julgamento contra as reivindicações da empresa que expôs deliberadamente os seus filhos a conteúdos nocivos e sexualizados. Dizia-se que o adolescente de um demandante tinha uma proposta para matar seus pais.
Após o julgamento de Garcia, a Common Sense Media emitiu seu próprio Diretrizes dos pais para chatbots e relacionamentos.
Naquela época, não havia acompanhamento de IA para crianças com menos de 13 anos, bem como limites de tempo rigorosos, verificações regulares de relacionamentos e nenhum uso fisicamente isolado de dispositivos que fornecem acesso a plataformas de chatbot de IA.
As diretrizes agora refletem a conclusão do grupo de que os companheiros sociais de IA não são seguros em nenhuma capacidade para adolescentes menores de 18 anos. Outros produtos de chatbot de IA generativos, uma categoria que inclui chatgpt e gemini, apresentam um risco “moderado” para adolescentes.
As grades para adolescentes
Em dezembro, Character.ai introduziu um modelo separado para adolescentes e adicionou novos recursos, como mais isenções de responsabilidade de que os companheiros não são seres humanos e não podem confiar para obter conselhos. A plataforma lançou verificações parentais em março.
A Common Sense Media conduziu seus testes da plataforma antes e depois da entrada em vigor das medidas e viu poucas mudanças significativas como resultado.
Robbie Torney, gerente sênior de programas de IA da Common Sense Media, disse que as novas grades eram “na melhor das hipóteses inteligentes” e poderiam ser facilmente contornadas. Ele também observou que o modo de voz do personagem.ai, que permite ao usuário conversar com seu companheiro em uma ligação telefônica, não pareceu acionar os conteúdos que surgem ao interagir por meio de texto.
Torney disse que os pesquisadores informaram a cada plataforma que conduziram uma avaliação de segurança e os convidaram a compartilhar as informações dos participantes, o que fornece contexto sobre como funcionam seus modelos de IA. As empresas se recusaram a compartilhar essas informações com os pesquisadores, segundo Torney.
Um porta-voz do caráter.
“Nossos controles não são perfeitos – nenhuma plataforma de IA é – mas estão melhorando constantemente”, disse o porta-voz em comunicado ao Mashable. “Também é um facto que os utilizadores adolescentes de plataformas como a nossa utilizam a IA de formas extremamente positivas. Proibir uma nova tecnologia para adolescentes nunca foi uma abordagem eficaz – não quando foi testada com videojogos, Internet ou filmes que contêm violência.”
Como um serviço para os pais, a Common Sense Media examinou agressivamente o surgimento de chatbots e companheiros. O grupo também contratou recentemente o veterano democrata da Casa Branca, Bruce Reed, para liderar a IA de bom senso, que defende uma legislação mais extensa sobre IA na Califórnia.
A iniciativa já apoiou projetos de lei estaduais em Nova York e na Califórnia, que estabelecem separadamente um sistema de transparência para medir o risco de produtos de IA para usuários jovens e proteger os apitos de IA de retaliação ao relatar um “risco crítico”. Um dos projetos de lei proíbe especificamente o uso de IA de alto risco, incluindo “Chatbots antropomórficos que oferecem camaradagem” para crianças e é provável que leve à conexão emocional ou manipulação.