Início ESPECIAIS Pais pedem ao governador de Nova York que assine projeto de lei...

Pais pedem ao governador de Nova York que assine projeto de lei histórico de segurança de IA

21
0

Um grupo de mais de 150 pais enviou uma carta à governadora de Nova York, Kathy Hochul, na sexta-feira, instando-a a assinar a Lei de Segurança e Educação de IA Responsável (RAISE) sem alterações. A Lei RAISE é um projeto de lei barulhento. será necessário Grandes desenvolvedores de modelos de IA, como Meta, OpenAI, Deepseek e Google, desenvolvem planos de segurança e seguem regras de transparência para relatar incidentes de segurança.

O projeto foi aprovado no Senado e na Assembleia do Estado de Nova York em junho. Mas esta semana, Hocheol De acordo com relatos Depois que grandes empresas de IA intervieram, elas propuseram uma reescrita quase completa da Lei RAISE para torná-la mais favorável às empresas de tecnologia, semelhante a algumas das mudanças no SB 53 da Califórnia.

Naturalmente, muitas empresas de IA opõem-se diretamente a este projeto de lei. Alianças de IA que importam
Membros Meta, IBM, Intel, Oracle, Snowflake, Uber, AMD, Databricks e Hugging Face carta Ele detalhou suas “profundas preocupações” sobre a Lei RAISE aos legisladores de Nova York em junho, chamando o projeto de “impraticável”. e Leading the Future, um super PAC pró-IA apoiado pela Perplexity AI, Andreessen Horowitz (a16z), o presidente da OpenAI, Greg Brockman, e o cofundador da Palantir, Joe Lonsdale. Temos como alvo O deputado estadual de Nova York, Alex Bores, que co-patrocinou a Lei RAISE em um anúncio recente.

Duas organizações se fundiram: ParentsTogether Action e Tech Oversight Project. Uma carta enviada a Hocheol na sexta-feiraAfirma que alguns dos signatários “perderam os seus filhos devido aos chatbots de IA e às redes sociais”. Os signatários chamaram a Lei RAISE porque é uma “proteção minimalista” que agora deveria se tornar lei.

Eles também enfatizaram que o projeto de lei aprovado pela Assembleia do Estado de Nova York “não regulamenta todos os desenvolvedores de IA, mas apenas as maiores empresas, que gastam centenas de milhões de dólares anualmente”. Os acidentes de segurança em grande escala devem ser divulgados ao Procurador-Geral e um plano de segurança deve ser anunciado. Além disso, os desenvolvedores estão proibidos de lançar modelos Frontier se eles “criarem um risco irracional de danos catastróficos”, definidos como a morte ou ferimentos graves de 100 ou mais pessoas ou danos a direitos financeiros ou de propriedade no valor de mais de mil milhões de dólares, resultantes da criação de uma arma química, biológica, radiológica ou nuclear. Ou um modelo de IA que “age sem intervenção humana significativa” e cometeria certos crimes “se cometidos por um ser humano”.

“A forte oposição da Big Tech a essas proteções básicas parece familiar.
“Já vimos esse padrão de evitação e evitação antes”, disse ele. “Isso causa danos generalizados aos jovens.”
incluindo saúde mental, estabilidade emocional e capacidade de funcionamento na escola.
Tem sido amplamente documentado desde que as maiores empresas de tecnologia decidiram implementar o algoritmo.
Uma plataforma de mídia social sem transparência, supervisão ou responsabilidade.”

Source link