Início ANDROID Uma IA desonesta causou um sério incidente de segurança no Meta

Uma IA desonesta causou um sério incidente de segurança no Meta

28
0

Durante quase duas horas na semana passada, os funcionários da Meta tiveram acesso não autorizado aos dados da empresa e dos usuários, graças a um agente de IA que forneceu aos funcionários conselhos técnicos imprecisos, conforme relatado anteriormente por Informação. A porta-voz da Meta, Tracy Clayton, disse em um comunicado ao Borda que “nenhum dado do usuário foi maltratado” durante o incidente.

Um engenheiro da Meta usou um agente interno de IA, que Clayton descreveu como “de natureza semelhante ao OpenClaw em um ambiente de desenvolvimento seguro”, para analisar questões técnicas que outros funcionários postaram nos fóruns internos da empresa. No entanto, o agente também respondeu às questões de forma independente e aberta após analisá-las, sem obter aprovação prévia. As respostas destinam-se apenas a ser mostradas ao funcionário que as solicitou, não sendo publicadas publicamente.

Um funcionário então agiu de acordo com o conselho da IA, que “forneceu informações imprecisas” que levaram a um incidente de segurança de nível “SEV1”, que é a segunda classificação de gravidade mais alta que Meta usa. O incidente permitiu temporariamente que os funcionários acessassem dados confidenciais que não estavam autorizados a ver, mas o problema foi resolvido.

Segundo Clayton, os agentes de IA envolvidos não tomaram nenhuma ação técnica, a não ser fornecer aconselhamento técnico impreciso, algo que os humanos também podem fazer. No entanto, os humanos podem ter feito mais testes e feito julgamentos mais completos antes de compartilhar essas informações – e não está claro se o funcionário que originalmente forneceu a resposta planeja publicá-la.

“Os funcionários que interagem com o sistema estão plenamente conscientes de que estão se comunicando com um bot automatizado. Isso é demonstrado pela isenção de responsabilidade anotada no rodapé e pelas respostas dos próprios funcionários no tópico”, comentou Clayton ao Borda. “O agente não tomou nenhuma atitude além de responder a uma pergunta. Se o técnico responsável tivesse conhecimento disso ou tivesse realizado outra inspeção, isso poderia ter sido evitado”.

No mês passado, um agente de IA da plataforma de código aberto OpenClaw ficou ainda mais travesso com o Meta quando um funcionário pediu que ele classificasse os e-mails em sua caixa de entrada, excluindo e-mails sem permissão. A ideia por trás de agentes como o OpenClaw é que eles podem agir por conta própria, mas, como outros modelos de IA, eles nem sempre interpretam comandos e instruções corretamente ou fornecem respostas precisas, um fato que os funcionários da Meta já descobriram duas vezes.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui