Início ESPECIAIS Meta adiciona recursos de segurança de chatbot de IA para adolescentes

Meta adiciona recursos de segurança de chatbot de IA para adolescentes

9
0

A Meta, empresa controladora do Instagram e do Facebook, planeja lançar novos recursos de segurança em seu chatbot de IA para proteger os adolescentes em meio a preocupações crescentes sobre o impacto da tecnologia nos usuários jovens.

O gigante da mídia social Facebook anunciou na sexta-feira que adicionará novos controles parentais para chatbots de IA que permitirão aos pais bloquear o acesso de seus filhos adolescentes a bate-papos individuais com personagens de IA e receber informações sobre tópicos sobre os quais seus filhos estão conversando com os produtos de IA da empresa.

O novo recurso está previsto para ser lançado no início do próximo ano, começando pelo Instagram.

“Sabemos que os pais já estão fazendo muito quando se trata de navegar com segurança na Internet com seus filhos adolescentes, e especialmente quando pensamos em novas tecnologias como a IA, que tornam as coisas mais simples”, disseram Adam Mosseri do Instagram e Alexander Wang, Diretor de IA da Meta. “Estamos empenhados em fornecer ferramentas e recursos úteis”, escreveu ele. postagem no blog.

Os pais podem bloquear o bate-papo com todos os personagens de IA no meta ou direcionar personagens específicos, disse a empresa. Mesmo que o personagem IA esteja desativado, o assistente de IA da empresa ainda estará disponível para adolescentes.

Meta também enfatizou sua abordagem PG-13 em suas contas para jovens recentemente anunciadas. Essa abordagem fará com que a empresa use a classificação de filmes PG-13 para orientar qual conteúdo os adolescentes veem por padrão na plataforma.

A empresa de tecnologia observou que seus personagens de IA são projetados para direcionar os usuários jovens aos recursos, se necessário, sem envolvê-los em discussões sobre suicídio, automutilação ou distúrbios alimentares.

De acordo com Meta, os adolescentes só podem interagir com um conjunto limitado de personagens sobre “romance ou outro conteúdo impróprio, e não sobre tópicos apropriados à idade, como educação, esportes ou hobbies”.

A Meta foi criticada no início deste ano por causa de um documento político que apresentava exemplos de como seus chatbots de IA poderiam envolver crianças em conversas “românticas ou sensuais”.

Na época, a empresa disse que o exemplo estava incorreto e acabou sendo removido.

Os chatbots de IA em geral têm sido examinados nos últimos meses. A família de um adolescente da Califórnia processou a OpenAI em agosto, alegando que o ChatGPT encorajou o suicídio de seu filho.

O padre Matthew Raine foi um dos vários pais que testemunhou perante uma comissão do Senado no mês passado que os chatbots de IA levaram os seus filhos ao suicídio ou à automutilação e instou os legisladores a estabelecerem barreiras de proteção para a nova tecnologia.

Diante dessas preocupações, o governador da Califórnia, Gavin Newsom (R), assinou um projeto de lei no início desta semana exigindo que os desenvolvedores de chatbots desenvolvessem protocolos para evitar que modelos discutam suicídio e automutilação com crianças e lembrá-las repetidamente de que não estão falando com um ser humano.

Mas o governador vetou uma medida separada que proibiria os criadores de oferecerem os seus produtos a crianças, a menos que garantissem que não se envolveriam em conversas sobre temas prejudiciais. Newsom sugeriu que “amplas restrições” “levariam involuntariamente a uma proibição total” do uso de chatbots por crianças.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui