Início ESPECIAIS Sam Altman pede desculpas depois que OpenAI decide não denunciar usuários do...

Sam Altman pede desculpas depois que OpenAI decide não denunciar usuários do ChatGPT responsáveis ​​​​pelo tiroteio na escola de Tumbler Ridge

14
0

DR

Sam Altman pediu desculpas à comunidade de Tumbler Ridge, Colúmbia Britânica, pela falha da OpenAI em alertar a polícia depois que usuários do ChatGPT foram sinalizados para seu sistema no tiroteio escolar mais mortal no Canadá desde 1989. Cerca de uma dúzia de funcionários da OpenAI revisaram as contas denunciadas em junho de 2025, e alguns recomendaram denunciá-los às autoridades, mas a liderança os rejeitou e aplicou um “padrão mais elevado” que não foi incluído na conversa. encontrar. Desde então, a OpenAI reduziu seus padrões de relatórios e começou a entrar em contato com a RCMP, mas quaisquer alterações são voluntárias e não há leis no Canadá que exijam que as empresas de IA relatem ameaças identificadas.

Sam Altman postou uma carta aberta na quinta-feira à comunidade de Tumbler Ridge, British Columbia, pedindo desculpas pela falha da OpenAI em alertar as autoridades depois que seu sistema relatou usuários que cometeram o tiroteio em escolas mais mortal do Canadá em quase 40 anos. “Pedimos desculpas profundas por não notificar as autoridades sobre a conta banida em junho.“Altman escreveu.”Sabemos que palavras nunca são suficientes, mas acreditamos que é necessário um pedido de desculpas para reconhecer o dano e a perda irreparável que a sua comunidade sofreu..” A carta, divulgada em 23 de abril, chega 72 dias depois que Jesse Van Rootselaar, de 18 anos, foi morto em um tiroteio que começou na casa da família e terminou na Escola Secundária Tumbler Ridge em 10 de fevereiro, matando oito pessoas e ferindo outras 27. A detecção automatizada de abuso da OpenAI sinalizou a conta ChatGPT de Van Rutsela há oito meses, em junho de 2025. Cerca de uma dúzia de membros da equipe analisaram as conversas sinalizadas e descreveram os cenários. Tem sido associado à violência armada e encorajou alguns a contactar a polícia canadiana. A administração da empresa decidiu contra isso. Sua conta foi banida. Ninguém disse nada. Van Rootselaar criou uma segunda conta e não foi detectado até que a RCMP divulgou seu nome.

decisão

O Wall Street Journal relatou pela primeira vez as discussões internas na OpenAI. Os funcionários que analisaram o relato relatado de Van Rootselaar disseram:Risco iminente de danos graves a terceiros.” Eles intensificaram a conversa com uma recomendação para denunciá-la às autoridades. Mais tarde, a administração aplicou o que um porta-voz da OpenAI chamou de “limite mais alto” para relatórios de ameaças credíveis e iminentes e concluiu que as suas atividades não os atendiam. Sua conta foi cancelada. A conversa foi preservada internamente. A polícia não pôde ser contatada. Oito meses depois, Van Rootselaar matou sua mãe, Jennifer Strang, 39, e seu meio-irmão Emmett Jacobs, 11, em sua casa antes de dirigir até a escola e atirar neles com um rifle modificado, matando uma assistente educacional, Shanda Abiugana-Durand, 39, e cinco alunos, de 12 e 13 anos: Joey Benoit, Tikaria Lampert, Kylie Smith e Abel. Mwansa, e com idades entre 12 e 13 anos) foram mortos. Ezequiel Schofield. 27 pessoas ficaram feridas. Maya Gebala, 12 anos, levou três tiros na cabeça e no pescoço enquanto protegia seus colegas de classe, e os médicos disseram:Lesão cerebral fatal e traumática“Ele tem deficiências cognitivas e físicas permanentes. Van Rootselaar morreu por suicídio na escola.

A ação civil movida pela Cia Edmonds em nome de sua filha Maya na Suprema Corte de BC em março alega que o ChatGPT forneceu as seguintes informações:Informação, orientação e assistência para planear um evento com vítimas em massa, incluindo a contabilização dos tipos de armas a serem utilizadas e os precedentes de outros incidentes com vítimas em massa ou atos históricos de violência..” Os detalhes específicos da conversa não foram divulgados. O primeiro-ministro do BC, David Eby, disse que deliberadamente não perguntou o que havia nos registros de bate-papo para evitar interferir na investigação da RCMP. O que se sabe é que os próprios sistemas da OpenAI identificaram a conversa como potencialmente perigosa, a própria equipe da OpenAI recomendou ação e os executivos da OpenAI decidiram não tomar nenhuma ação. O pedido de desculpas não é pela falha na detecção. A detecção funcionou. O pedido de desculpas é pelo que aconteceu depois que a detecção foi ao ar.

carta

💜 da tecnologia da UE

As últimas novidades do cenário tecnológico da UE, a história do sábio fundador Boris e a questionável arte de IA. Receba-o em sua caixa de entrada gratuitamente todas as semanas. Cadastre-se agora!

A carta de Altman foi endereçada à comunidade de Tumbler Ridge e tornada pública depois que o primeiro-ministro Eby do BC revelou que Altman concordou em se desculpar durante as discussões iniciais sobre a forma como a OpenAI lidou com o incidente. “Tenho pensado muitas vezes em você nos últimos meses”, escreveu Altman. “Não consigo imaginar nada pior no mundo do que perder um filho.“Ele acrescentou:”Reafirmo o meu compromisso com o Presidente da Câmara e o Primeiro-Ministro em encontrar formas de prevenir tragédias como esta no futuro. No futuro, continuaremos a concentrar-nos no trabalho com todos os níveis de governo para garantir que algo como isto nunca mais aconteça.“A carta não incluía compromissos políticos específicos, uma explicação sobre o que a OpenAI mudaria ou um reconhecimento de que a equipe encorajou a denúncia da conta, mas foi rejeitada. Eby não apresentou um pedido de desculpas.”necessário” mas “Fica incrivelmente aquém da destruição infligida às famílias de Tumbler Ridge..” O prefeito de Tumbler Ridge, Darryl Krakowka, reconheceu o recebimento e pediu “cautela e consideração” enquanto a comunidade passa pelo processo de luto.

Os compromissos políticos vieram separadamente numa carta enviada aos ministros federais canadianos por Ann O’Leary, vice-presidente de política global da OpenAI. O’Leary escreveu que a OpenAI reduziu o limite de relatórios para que os usuários não precisem mais discutir o assunto.Metas, meios, tempo“Violência planejada para conversas a serem denunciadas às autoridades. A empresa recrutou especialistas em saúde mental e comportamento para ajudar a avaliar os casos denunciados e estabeleceu um ponto de contato direto com a RCMP. O’Leary disse que a política atualizada seguirá as interações de Van Rootselaar.”Eu teria sido encaminhado para a polícia.” Se descoberto hoje. As mudanças são voluntárias. Elas não são juridicamente vinculativas. Elas podem ser revertidas a qualquer momento. Não existe nenhuma lei no Canadá que exija que as empresas de IA relatem ameaças identificadas por meio de suas plataformas, e o governo federal ainda não introduziu uma.

padrão

Tumbler Ridge não é um caso isolado. Flórida lança primeira investigação criminal sobre empresa de IA ChatGPT teria dado instruções ao atirador sobre como operar sua arma no tiroteio em massa na Florida State University, pouco antes de matar duas pessoas e ferir outras cinco. A NPR informou em 23 de abril: “A OpenAI está sob investigação depois que dois homens armados usaram o ChatGPT para planejar um ataque..” As sete famílias disseram que o advogado disse:treinador suicidaMortes foram registradas no Texas, Geórgia, Flórida e Oregon. Em outro caso, a OpenAI foi acusada de ignorar três avisos sobre usuários perigosos, incluindo uma sinalização interna de assassinato em massa. O número de incidentes de segurança de IA relatados aumentou 56%, de 149 em 2023 para 233 em 2024, e os números em 2025 e 2026 serão ainda maiores.

O padrão que liga estes casos não é que os sistemas de IA gerem violência espontaneamente. As empresas de IA identificam comportamentos de risco nas suas plataformas e tomam decisões internas sobre se devem tomar medidas contra eles, tomando decisões de vida ou morte, mas não estão sujeitas a normas externas, obrigações legais e supervisão regulamentar. Os riscos mais profundos da dependência emocional dos chatbots de IA, incluindo um fenómeno que os investigadores apelidaram de “psicose da IA”, levantam questões sobre o que acontece quando os sistemas otimizados para manter o envolvimento se tornam os confidentes dos utilizadores em crise. O “limiar mais alto” da OpenAI para relatórios foi um julgamento comercial, não um padrão legal. Os funcionários que recomendaram entrar em contato com a polícia aplicaram seu próprio raciocínio moral. A administração que rejeitou esta questão errou fatalmente no cálculo ao aplicar um cálculo diferente que comparava os riscos reputacionais e legais de reportar com os de não reportar.

questões de segurança

A OpenAI anunciou as bolsas de segurança externa poucas horas depois que uma investigação da New Yorker relatou que havia dissolvido sua equipe de segurança interna. É uma sequência que captura a abordagem da empresa à governança de segurança com uma precisão inquietante. A equipe Hyperaligned que Ilya Sutskever liderou antes de sua saída foi dissolvida. A equipe de preparação do AGI foi dissolvida. À medida que a OpenAI passou de uma organização sem fins lucrativos para uma organização com fins lucrativos, a segurança foi removida dos registros do IRS da OpenAI. O chefe de robótica da OpenAI renunciou por questões de governança de segurança, especificamente “Vigiar os americanos sem supervisão judicial e ter autonomia letal sem aprovação humana são rotas que merecem mais deliberação do que receberam..” Bolsas externas, mudanças voluntárias de políticas e cartas de Altman compartilham a característica comum dos gestos controlados pela OpenAI. Pode ser publicado, modificado ou retirado sem aprovação externa. Eles fazem parecer que são responsáveis sem um mecanismo.

O recente lançamento da OpenAI de uma política de segurança de código aberto para usuários jovens Abrange violência gráfica, atividades perigosas e outras categorias de danos. A própria OpenAI chama isso de “piso de segurança significativo“não é uma solução abrangente. A lacuna entre o chão e o teto é onde Tumbler Ridge ocorreu. O sistema sinalizou o adolescente descrevendo um cenário de violência armada. A política dizia que não era suficiente denunciar. O adolescente matou oito pessoas. Um limite mais baixo teria levado a um relatório à RCMP. Se a RCMP tomou medidas, se a lei canadense permitiu a intervenção com base em conversas do ChatGPT e se o tiroteio poderia ter sido evitado não pode ser respondido porque nenhuma denúncia foi feita. Não há dúvida. A política atualizada da OpenAI agora afirma que apresentarão um relatório, mas a política atualizada ainda é voluntária, ainda sujeita às mesmas prioridades de liderança que impediram a apresentação do relatório original.

brecha

O ministro de IA do Canadá, Evan Solomon, disse sobre a promessa da OpenAI:Não vá longe o suficiente.“Os ministros federais dos portfólios de Inovação, Justiça, Segurança Pública e Cultura se reuniram com representantes da OpenAI depois que o governo chamou de volta os executivos da empresa no final de fevereiro. Uma força-tarefa conjunta entre Inovação, Ciência e Desenvolvimento Econômico do Canadá e Segurança Pública do Canadá está revisando os protocolos de relatórios de segurança de IA, com recomendações preliminares esperadas para o verão de 2026. O projeto de lei C-27, que inclui a Lei de Inteligência Artificial e Dados, foi a estrutura regulatória de IA proposta pelo Canadá, mas agora é amplamente visto como inadequado. Projeto de lei C-63, o Online Harms Act Ele foi projetado para plataformas de mídia social, não para sistemas generativos de IA que conduzem conversas individuais com os usuários.acesso legal“Embora o projeto de lei dê poderes à polícia para rastrear dados online de empresas estrangeiras, não exige especificamente que as empresas de IA relatem comportamentos ameaçadores. O Canadá atualmente não tem um quadro jurídico para atribuir responsabilidades se as empresas de IA tiverem informações que possam prevenir a violência e optarem por não partilhá-las.

Esta é a lacuna que a carta de Altman não consegue preencher. Um pedido de desculpas resolve falhas passadas. As alterações voluntárias nas políticas abordam riscos futuros. Nenhum deles aborda questões estruturais. Isso significa que a empresa avaliada em 852 mil milhões de dólares, que está a correr para construir inteligência artificial geral, serve centenas de milhões de utilizadores e utiliza sistemas que podem identificar comportamentos de risco em tempo real, não tem obrigação legal de contar a ninguém o que descobre. Os funcionários da OpenAI perceberam a ameaça. A administração da OpenAI determinou que a ameaça não atendia aos padrões internos da empresa. 8 pessoas morreram. A barra foi baixada. As seguintes decisões serão tomadas pela mesma empresa sob a mesma estrutura voluntária e não haverá responsabilidade legal por decisões incorretas. Altman escreveu que estava compartilhando a carta.Entendemos que cada um sofre à sua maneira e no seu momento..” Tumbler Ridge está de luto. A questão não é se Sam Altman está arrependido. A questão é se é política pedir desculpas.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui