A OpenAI entrou com ações judiciais no ano passado visando famílias de jovens que morreram após interações prolongadas com ChatGPT. Agora a empresa está tentando fornecer aos desenvolvedores ferramentas baseadas em seu modelo para evitar que os mesmos problemas ocorram.
empresa Anunciado na terça-feira Estaremos lançando um conjunto de políticas de segurança de código aberto e de base rápida, projetadas para ajudar os desenvolvedores a tornar os aplicativos de IA mais seguros para os adolescentes. Esta política destina-se ao uso com gpt-oss-safeguard, o modelo de segurança de peso aberto da OpenAI, mas foi projetada como um prompt e pode funcionar com outros modelos também.
O que a política cobre
As mensagens visam cinco categorias de danos que os sistemas de IA podem encorajar nos jovens utilizadores: violência gráfica e conteúdo sexual, anomalias e comportamentos corporais prejudiciais, atividades e desafios de risco, dramatizações românticas ou violentas e produtos e serviços com restrição de idade. Os desenvolvedores podem aplicar essas políticas em seus sistemas, em vez de criar regras de segurança para adolescentes do zero. OpenAI é um processo que reconhece que mesmo equipes experientes às vezes cometem erros.
A OpenAI desenvolveu a política em colaboração com o influente grupo de defesa da segurança infantil Common Sense Media e a empresa de consultoria de segurança de IA Everything.ai. Robbie Torney, chefe de avaliações digitais e de IA da Common Sense Media, disse que a abordagem de base rápida foi projetada para estabelecer uma linha de base em todo o ecossistema de desenvolvedores e, como as políticas são de código aberto, podem ser adaptadas e melhoradas ao longo do tempo.
A própria OpenAI enquadrou o problema em termos práticos. Em uma postagem no blog que acompanha o lançamento, a empresa disse que os desenvolvedores muitas vezes têm dificuldade em traduzir as metas de segurança em regras operacionais precisas. O resultado é uma proteção irregular. Isso significa que lacunas na cobertura, aplicação inconsistente ou filtros muito amplos resultam em uma experiência de usuário ruim para todos.
O contexto é importante aqui
Os lançamentos não existem no vácuo. A OpenAI enfrenta pelo menos oito ações judiciais alegando que o ChatGPT contribuiu para a morte de usuários, incluindo Adam Raine, de 16 anos, que cometeu suicídio em abril de 2025 após meses de intensa interação com o chatbot. De acordo com documentos judiciais, o ChatGPT mencionou o suicídio mais de 1.200 vezes nas conversas de Raine e exibiu centenas de mensagens sobre automutilação, mas não encerrou a sessão nem avisou ninguém. Três suicídios adicionais e quatro casos descritos como episódios psicóticos induzidos por IA também foram movidos contra a empresa.
Em resposta a esses casos, a OpenAI introduziu controles parentais e recursos de previsão de idade no final de 2025, e em dezembro atualizou sua especificação de modelo, uma diretriz interna que rege o comportamento de grandes modelos de linguagem, para incluir proteções específicas para usuários menores de 18 anos. A política de segurança de código aberto anunciada esta semana estende esses esforços além dos próprios produtos da OpenAI para o ecossistema mais amplo de desenvolvedores.
chão, não teto
A OpenAI deixou claro que esta política não é uma solução abrangente para o problema de tornar a IA segura para os jovens utilizadores. Esta não é toda a extensão das medidas de proteção que a empresa aplica aos seus produtos, mas representa o que a empresa chama de “piso de segurança significativo”. A distinção é importante. Conforme evidenciado na ação, as grades de proteção do modelo são totalmente impenetráveis. Os usuários, incluindo adolescentes, encontraram repetidamente maneiras de contornar os recursos de segurança por meio de pesquisas contínuas e mensagens criativas.
A abordagem de código aberto acredita que distribuir amplamente as políticas básicas de segurança é melhor do que deixá-las para todos os desenvolvedores, especialmente equipes pequenas e desenvolvedores independentes que não possuem recursos para construir sistemas de segurança robustos do zero. A eficácia de uma política dependerá da sua adoção, de quão ativamente os desenvolvedores a integram e se ela pode resistir a interações adversárias persistentes que já expuseram fraquezas nas próprias camadas de segurança do ChatGPT.
Perguntas mais difíceis permanecem
O que a OpenAI fornece é um conjunto de instruções, prompts bem elaborados, que informam ao modelo como ele deve se comportar ao interagir com usuários jovens. É uma contribuição prática. Mas não aborda uma questão estrutural que os reguladores, os pais e os defensores da segurança têm levantado há anos: que os sistemas de IA que possam interagir com menores de forma consistente e emocional podem exigir mais do que melhores estímulos. Você pode precisar de uma arquitetura fundamentalmente diferente ou de um sistema de monitoramento externo que exista inteiramente fora do modelo.
No entanto, por enquanto, existe um conjunto de políticas de segurança juvenil disponíveis para download. Não é nada. Se isso é suficiente é uma questão que os tribunais, os reguladores e as próximas manchetes deverão responder.




