Início ESPECIAIS Mais de um milhão de usuários estão emocionalmente ligados ao ChatGPT e...

Mais de um milhão de usuários estão emocionalmente ligados ao ChatGPT e a OpenAI está tentando resolver esse problema.

37
0

O que aconteceu? OpenAI mudou a maneira como o ChatGPT lida com conversas delicadas quando as pessoas usam o ChatGPT para suporte emocional. A empresa Especificações do modelo atualizadas. O modelo básico, GPT-5, reflete como o ChatGPT lida com conversas delicadas relacionadas a psicose/mania, automutilação e suicídio, e dependência emocional de assistentes.

Isto é importante pelos seguintes motivos: A dependência emocional baseada em IA, onde os usuários formam um apego unilateral aos chatbots, é uma realidade.

  • A OpenAI estima que cerca de 0,15% dos usuários ativos semanais mostram sinais de apego emocional ao modelo, e 0,03% das mensagens apontam para o mesmo risco.
  • O mesmo valor de 0,15% também se aplica a conversas que indicam planos ou intenções suicidas, enquanto 0,05% das mensagens mostram pensamentos suicidas.
  • Expandindo a grande base de usuários do ChatGPT, mais de um milhão de pessoas estão formando laços emocionais com a IA.
  • OpenAI relata melhorias significativas após a atualização. Nestas áreas, as reações indesejáveis ​​foram reduzidas em 65 a 80 por cento e os maus resultados associados à dependência emocional foram reduzidos em aproximadamente 80 por cento.

Como está melhorando?: A versão atualizada introduz novas regras em torno da segurança da saúde mental e dos relacionamentos na vida real, permitindo que a IA responda com compaixão sem ter que fingir ser um terapeuta ou amigo.

  • A OpenAI trabalhou com mais de 170 especialistas em saúde mental para remodelar o modelo de comportamento, adicionar ferramentas de segurança e expandir as orientações.
  • O GPT-5 agora pode detectar sinais de mania, delírios ou intenção suicida e responder com segurança, reconhecendo seus sentimentos e, ao mesmo tempo, orientando gentilmente os usuários para a ajuda real.
  • As novas regras garantem que o ChatGPT não atue como companheiro nem estimule a dependência emocional. Em vez disso, fortalece as conexões humanas.
  • Os modelos agora podem priorizar ferramentas confiáveis ​​ou recursos especializados alinhados à segurança do usuário.

Por que eu deveria me importar? As questões emocionais e éticas não se limitam aos adultos que se apegam aos chatbots. Também aborda a forma como a IA interage com as crianças, cujas implicações podem não ser totalmente compreendidas.

  • Se você já confiou no ChatGPT durante esse patch difícil, esta atualização está aqui para garantir sua segurança emocional.
  • O ChatGPT agora se adapta melhor aos sinais emocionais e ajuda os usuários a encontrar ajuda real em vez de substituí-la.

Source link