HQuase não passa um mês sem que um especialista em IA avise que a tecnologia representa uma ameaça existencial para a humanidade. Muitos desses avisos podem ser vagos ou ingênuos. Outros podem estar zelando por seus próprios interesses. É necessária uma revisão calma e controlada. Mas vale a pena levar a sério alguns avisos.
Na semana passada, alguns importantes pesquisadores de segurança de IA de nível básico renunciaram. aviso Parece que as empresas que buscam lucro deixam a segurança de lado e destacam produtos de risco. No curto prazo, isto indica um rápido “vazio” na prossecução de interesses de curto prazo. receitas. Sem regulamentação, o propósito público dá lugar ao lucro. O papel crescente da IA no governo e na vida quotidiana, e o desejo de lucro dos seus proprietários bilionários, exigem, obviamente, responsabilização.
A escolha de usar agentes (chatbots) como principal interface de consumo para IA foi principalmente para fins comerciais. A aparência de conversação e reciprocidade incentiva uma interação mais profunda do usuário em comparação com a barra de pesquisa do Google. Pesquisadora da OpenAI Zoë Hitzig avisado A introdução da publicidade nesta dinâmica acarreta o risco de manipulação. OpenAI afirma que os anúncios não afetam as respostas do ChatGPT. No entanto, tal como acontece com as redes sociais, podem tornar-se menos visíveis e mais direcionadas psicologicamente; Eles podem se beneficiar de um compartilhamento privado abrangente.
Vale a pena notar que simo resgateque fundou o negócio de publicidade do Facebook, juntou-se à OpenAI no ano passado. E a OpenAI recentemente demitiu seu gerente Ryan Beiermeister Por causa da “discriminação sexual”. Vários relatórios dizem que ele se opõe fortemente à disponibilização de conteúdo adulto. Todos estes movimentos mostram que as pressões empresariais estão a moldar o rumo da empresa e, possivelmente, da indústria de forma mais ampla. O facto de as ferramentas AI Grok de Elon Musk terem sido deixadas ativas durante tempo suficiente para levar a abusos, depois restringirem o acesso pago e, finalmente, terem parado de acompanhar investigações no Reino Unido e na UE, levanta questões sobre a monetização dos danos.
Sistemas mais especializados construídos para fins sociais, como educação e governo, são mais difíceis de avaliar. Mas como a busca frenética do lucro tende a introduzir preconceitos irresistíveis em todos os sistemas humanos que temos, o mesmo se aplica à inteligência artificial.
Este não é um problema de uma única empresa. Uma carta de demissão mais vaga do pesquisador de segurança da Antrópica Mrinank Sharma alerta que ‘o mundo está em perigo’e disse que “viu repetidamente como é difícil deixar verdadeiramente que nossos valores governem nossas ações”. A OpenAI já foi aparentemente uma organização puramente sem fins lucrativos; A Anthropic surgiu com a promessa de ser uma alternativa mais segura e cautelosa depois de decidir comercializá-la a partir de 2019. A saída de Sharma mostra que mesmo as empresas construídas com base na contenção estão a tentar resistir à mesma atração de lucros.
A razão para este realinhamento é clara. As empresas estão a queimar capital de investimento a taxas históricas, as receitas não estão a crescer suficientemente rápido e, apesar dos resultados técnicos impressionantes, ainda não está claro o que a IA “pode” fazer para obter lucro. do tabaco farmáciaVimos como os incentivos ao lucro podem distorcer as decisões. A crise financeira de 2008 mostrou o que pode acontecer quando os sistemas centrais são impulsionados por necessidades de curto prazo e por uma supervisão fraca.
São necessárias regulamentações governamentais fortes para resolver este problema. O último Relatório Internacional de Segurança de IA de 2026 apresentou um plano claro para uma avaliação e regulamentação sérias de riscos reais, desde a automação defeituosa até à desinformação. Embora tenha sido aprovado por 60 países, os governos dos EUA e do Reino Unido recusou-se a assinar. Este é um sinal preocupante de que estão a optar por proteger a indústria em vez de a envolverem.



