Início ESPECIAIS OpenAI diz que novo modelo GPT-5.2 é ‘mais seguro’ para a saúde...

OpenAI diz que novo modelo GPT-5.2 é ‘mais seguro’ para a saúde mental

37
0

Hoje, a OpenAI lançou o GPT-5.2, apresentando um desempenho de segurança mais forte quando se trata de saúde mental.

“Com este lançamento, continuamos nosso trabalho para fortalecer as respostas dos modelos em conversas delicadas e fazer melhorias significativas na forma como eles respondem a avisos que indicam sinais de suicídio ou automutilação, problemas de saúde mental ou dependência emocional do modelo.” Postagem do blog da OpenAI situação.

A OpenAI recentemente entrou com uma ação judicial acusando o ChatGPT de contribuir para psicose, paranóia e delírios em alguns usuários. Alguns desses usuários morreram por suicídio após longas conversas com chatbots de IA, que apresentam problemas bem documentados de bajulação.

Em resposta a um processo por homicídio culposo relacionado ao suicídio de Adam Raine, de 16 anos, a OpenAI negou a responsabilidade do LLM e disse que o ChatGPT orientou o adolescente a procurar ajuda para pensamentos suicidas e que o adolescente “utilizou indevidamente” a plataforma. Ao mesmo tempo, OpenAI Prometemos melhorar a capacidade de resposta do ChatGPT. Quando os usuários mostram sinais de alerta de automutilação e crise de saúde mental. À medida que muitos utilizadores se tornam emocionalmente ligados a chatbots de IA como o ChatGPT, as empresas de IA enfrentam um escrutínio cada vez maior sobre as salvaguardas que implementam para proteger os seus utilizadores.

Agora, a OpenAI afirma que seu modelo ChatGPT mais recente produz “menos respostas indesejáveis” em situações delicadas.

Velocidade da luz mashável

Em uma postagem no blog anunciando o GPT-5.2, a OpenAI disse que o GPT-5.2 obteve pontuação mais alta em testes de segurança relacionados à saúde mental, dependência emocional e automutilação em comparação com o modelo GPT-5.1. Anteriormente, a OpenAI afirmou que estava usando “conclusão segura”. Uma nova abordagem para treinamento de segurança Trata-se de equilibrar usabilidade e segurança. Mais informações sobre o desempenho do novo modelo podem ser encontradas aqui: 5.2 Cartão do Sistema.


Crédito: Captura de tela: OpenAI

No entanto, a empresa também observou casos em que o GPT-5.2 rejeitou solicitações de conteúdo adulto, principalmente textos sexuais. No entanto, isso não parece afetar os usuários que a OpenAI sabe serem menores. A empresa disse que suas medidas de proteção à idade “parecem estar funcionando bem”. A OpenAI aplica proteções adicionais de conteúdo para menores, incluindo a redução do acesso a conteúdo que contenha violência, sangue coagulado, desafios virais, dramatizações de natureza sexual, romântica ou violenta e “padrões de beleza extremos”.

Um modelo de previsão de idade também está sendo trabalhado. Isso permite que o ChatGPT estime a idade de um usuário e forneça conteúdo mais adequado à idade para usuários mais jovens.

No início deste outono, a OpenAI introduziu controles parentais no ChatGPT, incluindo monitoramento e restrição de certos tipos de uso.

A OpenAI não é a única empresa de IA acusada de agravar os problemas de saúde mental. ano passado Mãe processa Character.AI Depois que seu filho morreu por suicídio, outro processo alega que “personagens” da plataforma causaram danos significativos às crianças. Especialistas em segurança online declararam Character.AI inseguro para adolescentes. Da mesma forma, os chatbots de IA em várias plataformas, incluindo OpenAI, foram declarados inseguros para a saúde mental dos jovens, de acordo com especialistas em segurança infantil e saúde mental.

Se você estiver se sentindo suicida ou passando por uma crise de saúde mental, converse com alguém. Você pode ligar ou enviar uma mensagem de texto para 988 Suicide and Crisis Lifeline no 988 ou conversar para: 988lifeline.org. Você pode entrar em contato com a Trans Lifeline ligando para 877-565-8860 ou o Projeto Trevor pelo telefone 866-488-7386. Envie “START” para a Linha de Texto de Crise em 741-741. Ligue para a linha de apoio da NAMI em 1-800-950-NAMI, de segunda a sexta, das 10h às 22h (horário do leste dos EUA), ou envie-nos um e-mail. (e-mail protegido). Se você não gosta do telefone, recomendo usar: 988 Suicídio e Crise Lifeline Chat. Aqui Lista de recursos internacionais.


Divulgação: A empresa-mãe da Mashable, Ziff Davis, entrou com uma ação judicial contra a OpenAI em abril, alegando que a OpenAI violou os direitos autorais de Ziff Davis no treinamento e operação de seus sistemas de IA.

Source link