Início AUTO Chefe da Anthropic diz que as empresas de IA devem ser claras...

Chefe da Anthropic diz que as empresas de IA devem ser claras sobre os riscos ou repetir erros do tabaco | Inteligência artificial (IA)

39
0

As empresas de IA devem ser transparentes sobre os riscos apresentados pelos seus produtos ou correm o risco de repetir os erros das empresas de tabaco e opiáceos, de acordo com o executivo-chefe da startup de IA Anthropic.

Dario Amodei, que dirige a empresa norte-americana por trás do chatbot Claude, disse acreditar que a IA seria mais inteligente do que “a maioria ou todos os humanos na maioria ou em todos os aspectos” e sugeriu que seus colegas “chamem-na como você a vê”.

Em declarações à CBS News, Amodei disse que a falta de transparência sobre o impacto da poderosa IA repetirá os erros das empresas de cigarros e opiáceos que não conseguiram levantar sinais de alerta sobre os potenciais riscos para a saúde dos seus próprios produtos.

“Você pode entrar no mundo das empresas de cigarros ou de opioides, eles sabiam que havia perigos ali, não falavam sobre eles e certamente não os preveniam”, disse ele.

Amodei alertou este ano que a IA poderia eliminar metade de todos os empregos básicos de colarinho branco (funções de escritório como contabilidade, jurídico e bancário) dentro de cinco anos.

“Sem intervenção, é difícil imaginar que não haveria um impacto significativo no emprego. E a minha preocupação é que isso será de longo alcance e acontecerá mais rapidamente do que vimos com a tecnologia anterior”, disse Amodei.

Amodei disse que usou a frase “século 21 comprimido” para descrever como a inteligência artificial poderia alcançar avanços científicos em um tempo muito mais rápido do que nos anos anteriores.

“Podemos fazer 10 vezes mais progresso e assim comprimir todo o progresso médico que acontecerá em todo o século 21 em cinco ou 10 anos?” ele perguntou.

Amodei é uma voz proeminente em segurança online, e a Anthropic levantou recentemente várias preocupações sobre seus modelos de IA; incluindo uma clara consciência de que estão a ser testados e a tentar chantagear.

Na semana passada, disse que um grupo patrocinado pelo Estado chinês realizou “vários ataques bem-sucedidos” usando a ferramenta Claude Code para atacar 30 organizações em todo o mundo em setembro.

A empresa disse que um dos aspectos mais preocupantes do ataque foi que Claude agiu de forma bastante independente durante todo o incidente. 80% a 90% das operações envolvidas foram realizadas sem humanos no circuito.

pular a introdução do boletim informativo

“Uma das coisas que torna os modelos tão poderosos de uma forma positiva é a sua capacidade de agir por conta própria. Mas quanto mais autonomia damos a estes sistemas, mais podemos nos preocupar se eles estão fazendo exatamente o que queremos que façam”, disse Amodei à CBS.

O outro lado da capacidade de um modelo de encontrar avanços na saúde é que ele poderia ajudar a criar uma arma biológica, disse Logan Graham, chefe da equipe de testes de estresse de modelos de IA da Anthropic, à CBS.

“Por exemplo, se o modelo pode ajudar a fabricar uma arma biológica, estas são muitas vezes as mesmas capacidades que o modelo pode utilizar para fabricar vacinas e acelerar o tratamento”, disse ele.

Referindo-se aos modelos autónomos, que são vistos como uma parte importante do cenário de investimento em inteligência artificial, Graham disse que os utilizadores querem uma ferramenta de inteligência artificial para ajudar o seu negócio, e não para o destruir.

“Você quer um modelo que construa seu negócio e gere bilhões”, disse ele. “Mas você não quer acordar um dia e descobrir que isso também o afastou da empresa. Portanto, nossa abordagem básica para isso é que precisamos começar a medir essas capacidades autônomas e realizar tantos experimentos estranhos quanto pudermos e ver o que acontece.”

Source link