Início ANDROID As empresas de tecnologia não se importam com os alunos que usam...

As empresas de tecnologia não se importam com os alunos que usam seus agentes de IA para trapacear

24
0

As empresas de IA sabem que as crianças são o futuro – o seu modelo de negócios. A indústria não esconde os seus esforços para atrair a geração mais jovem para os seus produtos através de ofertas promocionais oportunas, descontos e programas de referência. “Aqui para ajudá-lo a passar pelas finais”, disse OpenAI ao apresentar o ChatGPT Plus aos alunos. Os alunos têm acesso gratuito por um ano ao Google e Confusãoprodutos caros de IA. A confusão até pagou ao referenciador $ 20 para cada estudante dos EUA que pode baixar o navegador Comet AI.

Popularidade das ferramentas de IA entre adolescente é astronomia. Quando um produto penetra com sucesso no sistema educativo, são os professores e os alunos que serão afetados; os professores lutam para acompanhar as novas maneiras como seus alunos utilizam o sistema, e seus alunos também arriscado por não aprender a aprender de jeito nenhum, alertam os educadores.

Isso se torna mais automatizado com a mais recente tecnologia de IA, agentes de IA, que podem concluir tarefas online para você. (Embora lentamente, como Borda foi visto em testes de vários agentes no mercado.) Essas ferramentas pioram a situação ao facilitar a fraude. Enquanto isso, as empresas de tecnologia brincam com a responsabilidade sobre como suas ferramentas podem ser usadas, muitas vezes culpando apenas os alunos que capacitaram com máquinas trapaceiras aparentemente imparáveis.

A confusão parece residir na sua reputação como ferramenta de trapaça. Ele libera um Anúncios do Facebook no início de outubro, que mostrava um “aluno” discutindo como seus “colegas” estavam usando o agente Comet AI para fazer o dever de casa de múltipla escolha. Em outro anúncio postado no mesmo dia na página do Instagram da empresaum ator diz aos alunos que o navegador pode responder ao teste em nome deles. “Mas não sou eu quem está lhe contando isso”, disse ele. Quando um vídeo de um agente da Perplexity completando a lição de casa online de alguém – o caso de uso exato no anúncio da empresa – apareceu no X, O CEO da Perplexity, Aravind Srinivas, republicou o vídeotirar sarro de, “Absolutamente não faça isso.”

Quando Borda Quando solicitado a responder às preocupações de que o agente de IA da Perplexity estava sendo usado para trapacear, o porta-voz Beejoli Shah disse que “todas as ferramentas de aprendizagem desde o ábaco foram usadas para trapacear.

Neste outono, logo após o verão da indústria de IA, os educadores começaram a postar vídeos de agentes de IA completando tarefas perfeitamente em suas salas de aula online: Agente OpenAI ChatGPT produzir e enviar ensaios no Canvas, um dos painéis de gerenciamento de aprendizagem mais populares; Perplexity AI Assistant completou o questionário com sucesso e produzir um breve ensaio.

No outro vídeoOs agentes do ChatGPT fingem ser estudantes trabalhando em tarefas destinadas a ajudar seus colegas a se conhecerem. “Ele realmente se apresentou como eu… então isso me surpreendeu”, disse o criador do vídeo, o designer instrucional universitário Yun Moh. Borda.

Canvas é o principal produto da controladora Instrutorque afirma ter dezenas de milhões de usuários, incluindo usuários em “todas as escolas da Ivy League” e “40% dos distritos K-12 dos EUA”. Moh quer que as empresas bloqueiem agentes de IA que finjam ser estudantes. Ele perguntou ao Instructor em seu fórum de ideias da comunidade e enviou um e-mail aos representantes de vendas da empresa, citando preocupações de “potencial abuso por parte dos alunos”. Ele incluiu um vídeo do agente fazendo o dever de casa falso de Moh para ele.

Demorou quase um mês para Moh receber uma resposta da equipe executiva da Instruct. Sobre o tema do bloqueio de agentes de IA nas suas plataformas, parecem argumentar que não se trata de soluções técnicas, mas sim filosóficas e, em qualquer caso, isto não deve impedir o progresso:

“Acreditamos que, em vez de simplesmente bloquear a IA, queremos criar formas novas e pedagogicamente sólidas de usar a tecnologia que realmente evitem a trapaça e criem maior transparência na forma como os alunos a utilizam.

“Portanto, embora sempre apoiemos os esforços para prevenir trapaças e proteger a integridade acadêmica, como fazem nossos parceiros no bloqueio de navegadores, monitoramento e detecção de trapaças, não hesitaremos em construir ferramentas poderosas e transformadoras que possam abrir novas formas de ensino e aprendizagem. O futuro da educação é importante demais para ser interrompido por causa do medo do abuso.”

O instrutor é mais direto com Borda: Embora a empresa tenha algumas restrições que verificam determinados acessos de terceiros, a Instructure afirma que não pode bloquear agentes externos de IA e seu uso não autorizado. Os instrutores “nunca serão capazes de banir completamente os agentes de IA” e não podem controlar “ferramentas executadas localmente nos dispositivos dos alunos”, disse o porta-voz Brian Watkins, esclarecendo que o problema da trapaça dos alunos é, pelo menos em parte, causado pela tecnologia.

A equipe de Moh também teve dificuldades. Os profissionais de TI estão tentando encontrar maneiras de detectar e bloquear o comportamento dos agentes, como o envio de muitas tarefas e questionários muito rapidamente, mas os agentes de IA podem mudar seus padrões de comportamento, tornando-os “muito difíceis de identificar”, disse Moh. Borda.

Em setembro, dois meses depois Instrutor assina acordo com OpenAIe um mês após o pedido de Moh, o Instrutor tomou partido opor diferentes ferramentas de IA que, segundo os educadores, ajudam os alunos a trapacear, como Washington Post relatado. O botão “ajuda com a lição de casa” do Google no Chrome facilita a pesquisa de imagens de qualquer parte de qualquer coisa no navegador, como perguntas de questionário na telacomo apontou um professor de matemática – via Google Lens. Educador soar o alarme no fórum da comunidade de instrutores. O Google está ouvindo, de acordo com o feedback da equipe da comunidade Instructure no fórum, e um exemplo da “parceria de longo prazo” das duas empresas que inclui “discussões regulares” sobre tecnologia educacional, disse Watkins Borda.

Quando questionado, o Google afirmou que o botão “ajuda com a lição de casa” era apenas um teste de atalho para o Lens, recurso que já existia. “Os alunos nos dizem que apreciam ferramentas que os ajudam a aprender e compreender as coisas visualmente, por isso realizamos testes que oferecem uma maneira mais fácil de acessar o Lens durante a navegação”, disse o porta-voz do Google, Craig Ewer. Borda. A empresa pausou os testes do atalho para incluir o feedback inicial do usuário.

O Google abre a possibilidade de um atalho Lens/Chrome no futuro, o que é difícil de imaginar não vai comercializado para estudantes considerando sua presença recente blog da empresaescrito por um estagiário, afirmou: “O Google Lens no Chrome é um salvador da escola”.

Alguns educadores descobriram que os agentes às vezes, mas não de forma consistente, recusando-se a concluir tarefas acadêmicas. Mas essas barreiras são fáceis de superar, como aponta a instrutora de inglês Anna Mills em seu curso. OpenAI Atlas Browser para enviar tarefas sem pedir permissão. “Este era o oeste selvagem”, disse Mills Borda sobre o uso da IA ​​no ensino superior.

É por isso que educadores como Moh e Mills querem que as empresas de IA façam o mesmo pegar responsabilidade pelo produto, não responsabilizando os alunos que o utilizam. A força-tarefa de IA da Modern Language Association, da qual Mills faz parte, divulgou um comunicado em outubro, pediu à empresa que desse aos educadores controle sobre como os agentes de IA e outras ferramentas são usados ​​em suas salas de aula.

A OpenAI parece querer se distanciar da trapaça e, ao mesmo tempo, preservar o futuro da educação baseada em IA. Em julho a empresa adicionou um modo de aprendizagem ao ChatGPT que não fornece respostas e a vice-presidente de educação da OpenAI Leah Belsky notificado Insider de negócios que a IA não deve ser usada como uma “secretária eletrônica”. Belsky disse Borda:

“O papel da educação sempre foi preparar os jovens para prosperar no mundo que herdarão. Este mundo está agora equipado com IA avançada que determinará como os empregos são realizados, quais habilidades são importantes e quais oportunidades estão disponíveis. Nossa responsabilidade coletiva como ecossistema educacional é ajudar os alunos a usar bem essas ferramentas – para melhorar a aprendizagem, não impedi-la – e reimaginar como o ensino, a aprendizagem e a avaliação funcionam em um mundo movido pela IA.”

Enquanto isso, os instrutores tendem a não tentar “policiar as ferramentas”, enfatizou Watkins. Em vez disso, a empresa afirma que está trabalhando com a missão de “redefinir a própria experiência de aprendizagem”. Presumivelmente, essa visão não inclui trapaça contínua, mas a solução que propõem é semelhante à OpenAI: um “esforço colaborativo” entre empresas que fabricam ferramentas de IA e as instituições que as utilizam, bem como professores e alunos, para “definir como é o uso responsável da IA”. É um trabalho em andamento.

Em última análise, a aplicação de quaisquer directrizes para a utilização ética da IA ​​que produzam em painéis, em grupos de reflexão e em salas de reuniões corporativas será da responsabilidade dos professores nas suas salas de aula. O produto foi lançado e o acordo foi assinado antes Essas diretrizes foram até estabelecidas. Aparentemente, não havia como voltar atrás.

Siga tópicos e autores desta história para ver mais coisas semelhantes em seu feed inicial personalizado e para receber atualizações por e-mail.




Source link