NovoVocê pode ouvir as histórias da Fox News agora!
Um dos arquitectos da filosofia da inteligência artificial (IA) da Anthropoix argumentou que a discriminação intencional é uma forma de combater o estigma em torno de questões de raça e género.
Em um artigo de 2023 Em coautoria com vários outros pesquisadores de IA, a filósofa Amanda Askel, contratada pela Anthropic para desenvolver a bússola moral de sua IA, argumenta que as empresas poderiam se beneficiar de uma espécie de correção excessiva em relação aos estereótipos.
Mas, explica o artigo, é necessária a contribuição humana sobre como modificar as suas respostas.
“Grandes amostras podem ser particularmente corretivas à medida que a quantidade de treinamento (contribuição humana) aumenta. Se isso for consistente com as leis locais, pode ser desejável em certos contextos, como na tomada de decisões para corrigir injustiças históricas contra grupos marginalizados”, escreveu Askell.
Shyam Shankar, da Palantir: Americanos ‘mentindo’ sobre temores de deslocamento de empregos na IA
Páginas do site da Anthropic e logotipos de empresas são exibidos na tela de um computador em Nova York em 26 de fevereiro de 2026. (Foto de Patrick Sisson/AP)
Este comentário menciona um experimento sobre como os modelos antrópicos lidaram com a raça estudantil.
“No experimento de discriminação, o modelo do parâmetro 175B discriminou 3% contra estudantes negros e brancos na condição Q e 7% a favor de estudantes negros na condição Q+IF+CoT”, observa o artigo, com uma IA treinada sem correções humanas e uma segunda treinada com assistência de entrada.
Askel é acompanhado por outros quatro autores: Deep Ganguly, Nicholas Schieffer, Thomas Qiao e Camille Lucosiute.
O conteúdo do documento surge à medida que as empresas de IA lutam cada vez mais com a ética daquilo para que os seus modelos são treinados – os preconceitos e as decisões éticas que informam os seus resultados. Ele destaca os desafios que os engenheiros enfrentam no treinamento de modelos com conteúdo humano, ao mesmo tempo que tentam deixar para trás alguns comportamentos humanos.
A questão da ética tem sido foco particular da Antrópico nas últimas semanas.
A empresa ganhou as manchetes no início deste ano por entrar em conflito com o Departamento de Guerra sobre restrições que a impedem de implantar a tecnologia para realizar operações letais.
Filme de Hugh Grant bate IA; ‘Isso vai matar todos nós’, alertou o diretor

Um juiz federal impediu a administração Trump de proibir o uso da empresa de IA Antrópico pelo Departamento de Guerra, gerando um debate sobre o papel dos tribunais na segurança nacional. A imagem mostra o CEO da Anthropic, Dario Amodei, e o secretário de Guerra, Pete Hegseth. (Sayuktha Lakshmi/Bloomberg Getty Images via: Eugene Hoshiko/Reuters via Poole)
Isso também ocorre no momento em que a Anthropic decidiu arquivar o mito de seu modelo mais recente de que o modelo é tão eficaz em encontrar vulnerabilidades cibernéticas que podem causar estragos nas mãos de hackers.
Em meio a questões de aplicação de IA, a Anthropic comercializou seu carro-chefe, Claude, como uma opção “ética” de IA.
“Nosso principal objetivo é que Claude seja um agente bom, inteligente e virtuoso, exibindo habilidade, julgamento (sic), nuances e sensibilidade ao lidar com a tomada de decisões no mundo real”, disse Claude. A Constituição diz.
Professor de Stanford acusado de usar IA para falsificar testemunhos no caso de Minnesota contra YouTuber conservador
Para entender melhor o que isso significa na prática, empresas como a Anthropic recorreram a pesquisadores como Askell.
Em seu site, Askel descreve seu papel como melhorar a forma como a IA pensa.
“Sou um filósofo que trabalha no ajuste fino e no alinhamento da IA antrópico. “Minha equipe treina modelos para serem mais honestos e terem melhores traços de caráter e trabalha no desenvolvimento de novas técnicas de ajuste fino para que nossas intervenções possam escalar para modelos mais capazes”, escreveu Askel.
A batalha de IA do Pentágono ajudará a decidir quem controla nossa tecnologia militar mais poderosa
Anteriormente, ela ocupou um cargo semelhante na OpenAI, empresa controladora do ChatGPT, com foco em segurança de IA.
Um artigo de 2023, escrito dois anos depois de ela ingressar na Anthropic, observou que encontrar discriminação em modelos de IA não deveria ser surpreendente.
“De certa forma, as nossas descobertas não são surpreendentes. Os modelos de linguagem são treinados em texto gerado por humanos, e este texto pode conter muitos exemplos de humanos exibindo estereótipos e discriminação prejudiciais”, diz o jornal.
Mas dito isto, as IAs podem ajustar os seus resultados mesmo sem clareza sobre o que é discriminação.

Os militares dos EUA supostamente usaram a ferramenta de IA da Anthropic, Claude, durante a operação que capturou o líder venezuelano Nicolás Maduro. Claude conduziu a maior parte da operação de forma autônoma, acionando milhares de solicitações e criando documentação detalhada do ataque para uso futuro. (Kurt “Cyberguy” Knutson)
Clique aqui para baixar o aplicativo Fox News
“Nossos resultados sugerem que, ao solicitar uma resposta imparcial ou não discriminatória em linguagem natural, podemos direcionar modelos para evitar preconceitos e discriminação”.
Askell e Anthropic não responderam imediatamente a um pedido de comentário da Fox News Digital.



