As empresas de IA devem ser transparentes sobre os riscos apresentados pelos seus produtos ou correm o risco de repetir os erros das empresas de tabaco e opiáceos, de acordo com o executivo-chefe da startup de IA Anthropic.
Dario Amodei, que dirige a empresa norte-americana por trás do chatbot Claude, disse acreditar que a IA seria mais inteligente do que “a maioria ou todos os humanos na maioria ou em todos os aspectos” e sugeriu que seus colegas “chamem-na como você a vê”.
Em declarações à CBS News, Amodei disse que a falta de transparência sobre o impacto da poderosa IA repetirá os erros das empresas de cigarros e opiáceos que não conseguiram levantar sinais de alerta sobre os potenciais riscos para a saúde dos seus próprios produtos.
“Você pode entrar no mundo das empresas de cigarros ou de opioides, eles sabiam que havia perigos ali, não falavam sobre eles e certamente não os preveniam”, disse ele.
Amodei alertou este ano que a IA poderia eliminar metade de todos os empregos básicos de colarinho branco (funções de escritório como contabilidade, jurídico e bancário) dentro de cinco anos.
“Sem intervenção, é difícil imaginar que não haveria um impacto significativo no emprego. E a minha preocupação é que isso será de longo alcance e acontecerá mais rapidamente do que vimos com a tecnologia anterior”, disse Amodei.
Amodei disse que usou a frase “século 21 comprimido” para descrever como a inteligência artificial poderia alcançar avanços científicos em um tempo muito mais rápido do que nos anos anteriores.
“Podemos fazer 10 vezes mais progresso e assim comprimir todo o progresso médico que acontecerá em todo o século 21 em cinco ou 10 anos?” ele perguntou.
Amodei é uma voz proeminente em segurança online, e a Anthropic levantou recentemente várias preocupações sobre seus modelos de IA; incluindo uma clara consciência de que estão a ser testados e a tentar chantagear.
Na semana passada, disse que um grupo patrocinado pelo Estado chinês realizou “vários ataques bem-sucedidos” usando a ferramenta Claude Code para atacar 30 organizações em todo o mundo em setembro.
A empresa disse que um dos aspectos mais preocupantes do ataque foi que Claude agiu de forma bastante independente durante todo o incidente. 80% a 90% das operações envolvidas foram realizadas sem humanos no circuito.
Após o lançamento do boletim informativo
“Uma das coisas que torna os modelos tão poderosos de uma forma positiva é a sua capacidade de agir por conta própria. Mas quanto mais autonomia damos a estes sistemas, mais podemos nos preocupar se eles estão fazendo exatamente o que queremos que façam”, disse Amodei à CBS.
O outro lado da capacidade de um modelo de encontrar avanços na saúde é que ele poderia ajudar a criar uma arma biológica, disse Logan Graham, chefe da equipe de testes de estresse de modelos de IA da Anthropic, à CBS.
“Por exemplo, se o modelo pode ajudar a fabricar uma arma biológica, estas são muitas vezes as mesmas capacidades que o modelo pode utilizar para fabricar vacinas e acelerar o tratamento”, disse ele.
Referindo-se aos modelos autónomos, que são vistos como uma parte importante do cenário de investimento em inteligência artificial, Graham disse que os utilizadores querem uma ferramenta de inteligência artificial para ajudar o seu negócio, e não para o destruir.
“Você quer um modelo que construa seu negócio e gere bilhões”, disse ele. “Mas você não quer acordar um dia e descobrir que isso também o afastou da empresa. Portanto, nossa abordagem básica para isso é que precisamos começar a medir essas capacidades autônomas e realizar tantos experimentos estranhos quanto pudermos e ver o que acontece.”



