Uma nova pesquisa sugere que os sistemas de recomendação personalizados que selecionam conteúdo em plataformas como o YouTube também podem interferir na forma como as pessoas aprendem. O estudo descobriu que quando os algoritmos decidiam quais informações seriam apresentadas durante uma tarefa de aprendizagem, os participantes sem conhecimento prévio do tópico tendiam a se concentrar apenas em uma pequena parte do que era mostrado.
Por explorarem menos material disponível, esses participantes muitas vezes respondiam às perguntas erradas em testes posteriores. Mesmo estando errados, eles expressaram grande confiança em suas respostas.
Os resultados levantam preocupações, disse Giwon Bahg, que conduziu o trabalho como parte de sua tese de doutorado em psicologia na Universidade Estadual de Ohio.
Algoritmos podem ser tendenciosos mesmo sem conhecimento prévio
Grande parte da investigação existente sobre algoritmos de personalização examina como afectam as opiniões das pessoas sobre questões políticas ou sociais, das quais as pessoas têm pelo menos alguma consciência.
“Mas a nossa investigação mostra que mesmo que não saibamos nada sobre um assunto, estes algoritmos podem começar imediatamente a criar preconceitos e levar a uma visão distorcida da realidade”, disse Barger, agora pós-doutorando na Penn State.
Os resultados da pesquisa aparecem em Jornal de Psicologia Experimental: Uma Revisão.
Os resultados sugerem que as pessoas podem compreender rapidamente as informações limitadas fornecidas pelos algoritmos e tirar conclusões amplas, muitas vezes injustificadas, disse o coautor do estudo Brandon Turner, professor de psicologia na Universidade Estadual de Ohio.
“As pessoas perdem informações quando seguem algoritmos, mas o que elas pensam que sabem se generaliza para outros recursos e outras partes do ambiente que nunca experimentaram”, disse Turner.
Exemplo de recomendação de filme
Para ilustrar como surge este preconceito, os investigadores descreveram um cenário simples: uma pessoa que nunca viu um filme de um determinado país decide experimentar algum. Os serviços de streaming sob demanda oferecem recomendações.
Os espectadores escolhem um thriller de ação porque ele aparece no topo da lista. O algoritmo então recomenda mais thrillers de ação para os espectadores escolherem.
“Se o objetivo dessa pessoa, seja explícito ou implícito, é realmente compreender o estado geral do cinema neste país, então as recomendações algorítmicas acabam por distorcer seriamente a compreensão”, escrevem os autores.
Ao olhar apenas para um gênero, as pessoas podem ignorar ótimos filmes de outras categorias. Os autores observam que também podem formar suposições imprecisas e excessivamente amplas sobre as culturas ou sociedades representadas nestes filmes.
teste algoritmo efeitos de criaturas fictícias
Bahg e sua equipe de pesquisa exploraram essa ideia em um experimento com 346 participantes online. Para garantir que ninguém introduzisse conhecimento prévio, os pesquisadores utilizaram uma tarefa de aprendizagem completamente fictícia.
Os participantes estudaram vários tipos de alienígenas cristalinos, cada um com seis categorias diferentes de características. Por exemplo, uma parte quadrada de um alienígena pode aparecer em preto escuro em alguns tipos e cinza claro em outros.
O objetivo é aprender como identificar cada tipo de alienígena sem saber quantos tipos existem.
Como os algoritmos orientam a aprendizagem
No experimento, as características do alienígena estavam escondidas atrás de uma caixa cinza. Em uma condição, os participantes precisavam clicar em todos os recursos para visualizar informações completas sobre cada alienígena.
No outro caso, os participantes selecionam os recursos a serem examinados e o algoritmo de personalização seleciona os itens que eles provavelmente amostrarão com mais frequência. O algoritmo os orienta a examinar repetidamente os mesmos recursos ao longo do tempo. Eles ainda podem visualizar todos os recursos que desejarem, mas também podem ignorar completamente outros recursos.
Os resultados mostraram que aqueles guiados pelo algoritmo de personalização viram menos recursos em geral e de forma padronizada e seletiva. Mais tarde, quando os testaram com novos exemplos de alienígenas que nunca tinham visto antes, muitas vezes os classificaram incorretamente. Mesmo assim, os participantes permaneceram confiantes nas suas respostas.
“Eles estavam mais confiantes quando a sua escolha estava realmente errada do que quando estavam certos, o que é preocupante porque têm menos conhecimento”, disse Barger.
Impacto nas crianças e na aprendizagem diária
Turner observou que estas descobertas têm implicações práticas.
“O que acontece se você tem um filho que realmente quer entender o mundo e está interagindo com um algoritmo online que prioriza fazer com que os usuários consumam mais conteúdo?” Turner disse.
“Consumir conteúdo semelhante é muitas vezes inconsistente com a aprendizagem. Isso pode causar problemas para os usuários e, em última análise, para a sociedade.”
O professor de psicologia da Ohio State University, Vladimir Sloutsky, também é coautor.



