OpenAI lançou um recurso de segurança opcional para ChatGPT que permite que usuários adultos atribuam contatos de emergência para questões de saúde e segurança mental. Quando a OpenAI detecta que uma pessoa pode ter discutido tópicos como automutilação ou suicídio com o chatbot, uma notificação é enviada a um amigo, familiar ou cuidador designado como “contato confiável”.
“O Trusted Contact foi projetado em torno da premissa simples e testada por especialistas de que, quando alguém está em crise, conectá-lo a alguém que conhece e em quem confia pode fazer uma diferença significativa”, disse OpenAI no anúncio. “Ele fornece outra camada de suporte junto com a linha de apoio localizada já disponível no ChatGPT.”
O recurso Contatos confiáveis está marcado. Todos os usuários adultos do ChatGPT podem ativá-lo adicionando os detalhes de contato de um colega adulto (18+ em todo o mundo ou 19+ na Coreia) nas configurações de sua conta ChatGPT. Os representantes de confiança devem aceitar o convite no prazo de uma semana após o recebimento da solicitação. Os usuários podem remover ou editar os contatos selecionados em Configurações, e os contatos confiáveis também podem optar por se remover a qualquer momento.
A OpenAI afirma que as notificações são “intencionalmente limitadas” e que não compartilhará detalhes ou histórico de bate-papo com contatos confiáveis. Quando o sistema automatizado da OpenAI detecta que um usuário está falando sobre automutilação, o ChatGPT incentiva o usuário a procurar ajuda de um contato confiável e notifica esse contato de que uma notificação pode ser enviada. De acordo com a OpenAI, uma “equipe pequena e especialmente treinada” analisa a situação e, se determinar que a conversa indica um sério problema de segurança, o ChatGPT envia um breve e-mail, mensagem de texto ou notificação do ChatGPT no aplicativo para contatos confiáveis.
Ele se baseia no recurso de contato de emergência introduzido junto com os controles parentais do ChatGPT em setembro passado, depois que um garoto de 16 anos tirou a própria vida após meses revelando segredos no ChatGPT. Meta também introduziu um recurso semelhante que alertará os pais se seus filhos estiverem “repetidamente” pesquisando tópicos de automutilação no Instagram.



