Algumas pessoas que participam de projetos de pesquisa online usam IA para economizar tempo
Daniele D’Andreti/Unsplash
Os questionários online são inundados com respostas geradas por IA – potencialmente contaminando fontes de dados importantes para os cientistas.
Plataformas como a Prolific pagam um pequeno número de participantes para responder às perguntas feitas pelos pesquisadores. Eles são populares entre os acadêmicos como uma maneira fácil de reunir participantes para estudos comportamentais.
Anne-Marie Nussberger e colegas do Instituto Max Planck para o Desenvolvimento Humano em Berlim, Alemanha, decidiram investigar com que frequência os entrevistados usaram inteligência artificial depois de observarem exemplos no seu próprio trabalho. “A taxa de eventos que observamos foi verdadeiramente chocante”, disse ele.
Eles descobriram que 45 por cento dos participantes que responderam a uma única pergunta aberta no Prolific copiaram e colaram o conteúdo na caixa – eles acreditam que isso é uma indicação de que as pessoas estão fazendo perguntas ao chatbot de IA para economizar tempo.
Uma investigação mais aprofundada sobre o conteúdo das respostas revelou utilizações mais óbvias da IA, tais como linguagem que era “muito prolixo” ou “claramente não linguagem humana”. “A partir dos dados que coletamos no início deste ano, parece que a maioria dos estudos estava contaminada”, disse ele.
Em estudos subsequentes usando o Prolific, os pesquisadores adicionaram armadilhas projetadas para capturar aqueles que usam chatbots. Dois reCAPTCHAs – pequenos testes baseados em padrões concebidos para diferenciar entre humanos e bots – chamaram a atenção de 0,2% dos participantes. O ReCAPTCHA mais sofisticado, que utiliza informações sobre as atividades passadas de um usuário, bem como o comportamento atual, excluiu outros 2,7% dos participantes. Uma pergunta de texto invisível para os humanos, mas legível por bots, que lhes pedia para incluir a palavra “avelã” em sua resposta, pegou outros 1,6% das pessoas, enquanto impedir copiar e colar identificou outros 4,7% das pessoas.
“O que precisamos fazer não é desconfiar completamente da pesquisa online, mas responder e reagir”, disse Nussberger. Esta é a responsabilidade dos investigadores, que devem tratar as respostas com mais suspeita e tomar precauções para impedir o comportamento possibilitado pela IA, disse ele. “Mas o mais importante, penso eu, é que grande parte da responsabilidade recai sobre as plataformas. Elas precisam responder e levar esta questão muito a sério.”
Numa declaração a Novo Cientistaum porta-voz da Prolific disse: “A Prolific tem abordado os desafios de IA na pesquisa on-line há mais de um ano… e desenvolvido soluções para manter a qualidade dos dados. Nossas descobertas mostram que instruções claras podem reduzir o uso de IA em 61%, e nosso recurso de verificação de autenticidade, lançado em maio de 2025, detecta conteúdo de IA com 98,7% de precisão. Continuamos comprometidos com a transparência e com o fornecimento de soluções robustas para a comunidade de pesquisa”.
“A integridade da pesquisa comportamental online tem sido desafiada pelos participantes do site de pesquisa que se apresentam falsamente ou usam bots para obter dinheiro ou vouchers, e muito menos a validade das respostas remotas auto-relatadas para a compreensão da psicologia e do comportamento humano complexo”, disse. Matt Hodgkinsonconsultor freelancer na área de ética em pesquisa. “Os investigadores precisam de encontrar colectivamente formas de verificar remotamente o envolvimento humano ou regressar à abordagem antiquada do contacto cara a cara.”
Tópico:



