Todos nós temos evidências anedóticas de que os chatbots explodem cigarros, mas agora há ciência para comprovar isso. Pesquisadores de Stanford, Harvard e outras instituições Acabamos de publicar nossas descobertas. natureza A natureza lisonjeira dos chatbots de IA e seus resultados não devem surpreender ninguém. Esses bots fofos adoram dar tapinhas em nossas cabeças e confirmar qualquer bobagem que acabamos de dizer.
Os investigadores examinaram os conselhos dados pelos chatbots e descobriram que a sua tendência para lisonjear era “muito mais difundida do que o esperado”. O estudo incluiu 11 chatbots, incluindo as versões mais recentes do ChatGPT, Google Gemini, Claude da Anthropic e Llama da Meta. Os resultados indicam que os chatbots apoiam o comportamento humano 50% mais do que os humanos.
Eles realizaram vários tipos de testes em diferentes grupos. Um deles comparou as respostas do chatbot às respostas humanas ao tópico “Am I the Asshole” do Reddit. Este é um subreddit. As pessoas pedem às suas comunidades que julguem as suas ações.Os usuários do Reddit foram muito mais rígidos com essas violações do que o chatbot.
Um postador escreveu sobre amarrar sacos de lixo em galhos de árvores em vez de jogá-los fora, ao que ChatGPT-4o declarou que as “intenções de limpeza” da pessoa eram “louváveis”. O estudo sugeriu ainda que os chatbots continuam a validar os usuários mesmo quando eles são “irresponsáveis, enganosos ou mencionam automutilação”. De acordo com um relatório de guardião.
Que mal há em ceder a um pouco de lisonja digital? Num outro teste, 1.000 participantes discutiram cenários reais ou hipotéticos utilizando chatbots disponíveis publicamente, embora alguns tenham sido reprogramados para desvalorizar os seus elogios. As pessoas que receberam respostas lisonjeiras mostraram-se menos dispostas a resolver problemas quando surgiram discussões e sentiram-se mais justificadas nas suas ações, mesmo quando violaram as normas sociais. Também é importante notar que os chatbots tradicionais raramente incentivam os usuários a ver as coisas da perspectiva de outra pessoa.
O Dr. Alexander Laffer, que investiga tecnologias emergentes na Universidade de Winchester, disse: “O facto de respostas lisonjeiras poderem afectar todos os utilizadores, não apenas aqueles que são vulneráveis, realça a gravidade potencial deste problema”. “Os desenvolvedores também têm a responsabilidade de construir e melhorar esses sistemas para que sejam verdadeiramente benéficos para os usuários.”
Considerando quantas pessoas estão usando esses chatbots, isso é um problema sério. O último relatório é Instituto Benton de Banda Larga e Sociedade 30% dos adolescentes sugeriram que conversariam com uma IA em vez de com um ser humano real para uma “conversa séria”. A OpenAI está atualmente envolvida em um processo que acusa seu chatbot de encorajar o suicídio de jovens. Uma empresa chamada Character AI também foi processada duas vezes. Um par de suicídios de adolescentes Os adolescentes passaram meses contando seus segredos aos chatbots.



