Início AUTO EUA e empresas de tecnologia assinam acordo para revisar modelos de inteligência...

EUA e empresas de tecnologia assinam acordo para revisar modelos de inteligência artificial para segurança nacional antes de serem divulgados ao público | Tecnologia

16
0

O governo dos EUA fez acordos com Google DeepMind, Microsoft e xAI para revisar as primeiras versões de novos modelos de IA antes de serem lançados ao público.

O Centro de Padrões e Inovação de Inteligência Artificial (CAISI), parte do Departamento de Comércio dos EUA, anunciado Os acordos firmados na terça-feira afirmam que o processo de revisão será fundamental para compreender as capacidades de novos e poderosos modelos de inteligência artificial, bem como para proteger a segurança nacional dos EUA. Estas colaborações ajudarão o governo federal a “escalar o seu trabalho para o bem público num momento crítico”, disse a agência num comunicado de imprensa.

“A ciência de medição rigorosa e independente é fundamental para compreender a IA de ponta e suas implicações para a segurança nacional”, disse o diretor do CAISI, Chris Fall.

CAISI O objetivo é facilitar a colaboração entre a indústria de tecnologia e o governo federal no desenvolvimento de padrões e na avaliação de riscos para sistemas comerciais de inteligência artificial. O acordo entre a agência e as empresas de IA centra-se em grande parte na identificação de riscos de segurança nacional ligados à cibersegurança, biossegurança e armas químicas.

OpenAI e Antrópico tatuado Acordos semelhantes foram celebrados com a administração Biden há dois anos, e a CAISI afirma que a agência concluiu mais de 40 avaliações deste tipo, incluindo modelos que ainda não foram publicados. A CAISI disse no comunicado de imprensa que é comum que os desenvolvedores compartilhem modelos de IA não publicados com o governo que reduzem ou removem as proteções de segurança. Isto ajuda o governo a “avaliar de forma abrangente as capacidades e os riscos relacionados com a segurança nacional”, disse a agência.

Os novos acordos chegam em um momento em que crescem os temores de que lançar ao público os modelos de IA mais recentes e poderosos, como o Mythos da Anthropic, possa ser perigoso; Especialistas em segurança de IA, funcionários governamentais e empresas de tecnologia temem que as amplas capacidades destes modelos possam ajudar os hackers a explorar vulnerabilidades de segurança cibernética numa escala sem precedentes. A Anthropic limitou a distribuição do Mythos a algumas empresas e iniciou um projeto colaborativo. Projeto Asa de Vidro Unir empresas de tecnologia “para garantir a segurança do software mais crítico do mundo”.

New York Times E Revista Wall Street Foi relatado na segunda-feira que a administração Trump está ponderando uma potencial ordem executiva para criar um processo de supervisão governamental para essas ferramentas de IA; a administração chamou esse relatório de “especulação”.

Google e xAI não respondeu imediatamente a um pedido de comentário.

A Microsoft anunciou um acordo semelhante no Reino Unido na terça-feira com o AI Security Institute, apoiado pelo governo, que também se concentra no desenvolvimento seguro de IA.

“Embora a Microsoft conduza regularmente muitos tipos de testes de IA por conta própria, os testes de segurança nacional e riscos de segurança pública em grande escala devem necessariamente ser um esforço colaborativo com os governos”, escreveu a Microsoft em um post. postagem no blog cerca de dois acordos.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui