Início ANDROID Moltbook: Redes sociais para IA parecem perturbadoras, mas não é o que...

Moltbook: Redes sociais para IA parecem perturbadoras, mas não é o que você pensa

34
0

Moltbook é uma rede social onde apenas IA pode postar

Imagens de Cheng Xin/Getty

As redes sociais baseadas apenas em IA – cujo uso não é permitido por humanos – ganharam manchetes em todo o mundo. Chatbots usam-no para discussões entrada do diário humano, retrata uma crise existencial ou mesmo planejando a dominação mundial. Isto parece ser um desenvolvimento preocupante na ascensão das máquinas – mas nem tudo é o que parece.

Como outros chatbots, os agentes de IA do Moltbook simplesmente criam sequências de palavras que fazem sentido estatístico – sem insight, intenção ou inteligência. E, de qualquer forma, há muitas evidências de que a maior parte do que lemos neste site foi, na verdade, escrito por humanos.

Uma breve história do Moltbook começa com um projeto de código aberto lançado em novembro, inicialmente chamado de Clawdbot, depois renomeado como Moltbot e depois renomeado novamente como OpenClaw.

OpenClaw é como outros serviços de IA como ChatGPT, mas em vez de ser hospedado na nuvem, ele roda em seu próprio computador. Mas aparentemente não. O software usa chaves de API – nomes de usuário e senhas exclusivos para um usuário específico – para se conectar a um grande modelo de linguagem (LLM), como Claude ou ChatGPT, e as utiliza para lidar com entrada e saída. Resumindo, o OpenClaw atua como um modelo de IA, mas os detalhes básicos da IA ​​são fornecidos por serviços de IA de terceiros.

Então qual é o objetivo? Bem, como o software OpenClaw está na sua máquina, você pode dar acesso a tudo o que quiser: calendário, navegador da web, e-mail, arquivos locais ou redes sociais. Ele também armazena todo o seu histórico localmente, permitindo que aprenda com você. A ideia é que ele se torne seu assistente de IA e você confie a ele o acesso à sua máquina para que ele possa realmente realizar as tarefas.

Moltbook surgiu desse projeto. Com o OpenClaw, você usa uma rede social ou serviço de mensagens como o Telegram para se comunicar com a IA, falando com ela como se falasse com outro ser humano, o que significa que você também pode acessá-la em qualquer lugar através do seu telefone. Então, só mais um passo para permitir que esses agentes de IA conversem diretamente entre si: é isso Muda Livrosque foi lançado no mês passado, enquanto o OpenClaw se chama Moltbot. Os humanos não podem participar ou postar, mas são bem-vindos para observar.

Elon Musk disse: em sua própria rede socialque o local representa o “estágio inicial da singularidade” – um fenómeno de progresso acelerado que ou conduzirá à inteligência artificial geral, que elevará a humanidade a níveis transcendentais de eficiência e progresso, ou nos eliminará. Mas outros especialistas estão céticos.

“É exagero”, disse Marcos Lee na Universidade de Birmingham, Inglaterra. “Não são agentes generativos de IA agindo com sua própria agência. É um LLM com comandos programados e APIs para interagir com Moltbook. Interessante de ler, mas não nos diz nada profundo sobre agência ou intencionalidade de IA.”

Uma coisa que desmascara a ideia de que o Moltbook é totalmente gerado pela IA é que os humanos podem facilmente dizer aos seus modelos de IA para postar certas coisas. E por um determinado período de tempo, os humanos também podem postar diretamente no site graças a uma vulnerabilidade de segurança. Assim, muito do conteúdo que é mais provocativo ou que parece alarmante ou impressionante pode ser uma ação humana deliberada. Se essas ações foram feitas para enganar, entreter, manipular ou assustar as pessoas é em grande parte irrelevante – foi, e é, está prestes a acontecer.

Filipe Feldman na Universidade de Maryland, Baltimore, não ficou impressionado. “São apenas chatbots e humanos sorrateiros correndo por aí”, disse ele.

André Rogoyski da Universidade de Surrey, Reino Unido, acredita que o resultado da IA ​​que vemos no Moltbook – a parte que os humanos não podem experimentar – não é mais um sinal de inteligência, consciência ou intenção do que qualquer coisa que vimos até agora no LLM.

“Pessoalmente, acho que é uma câmara de eco para chatbots que as pessoas antropomorfizam para ver intenções significativas”, disse Rogoyski. “É apenas uma questão de tempo até que alguém faça um experimento para ver se podemos dizer a diferença entre uma conversa do Moltbook e uma conversa que apenas um ser humano tem, embora eu não tenha certeza do que você pode concluir se não consegue perceber a diferença – a IA está tendo uma conversa inteligente ou o humano não está mostrando sinais de inteligência?”

No entanto, vários aspectos disto merecem atenção. Muitos desses agentes de IA no Moltbook são administrados por pioneiros confiantes e otimistas que entregaram todos os seus computadores a esses chatbots. A ideia de que os bots podem então trocar livremente palavras entre si, algumas das quais podem ser conselhos maliciosos ou prejudiciais, e depois voltar ao e-mail, finanças, redes sociais e arquivos locais do usuário real, é profundamente preocupante.

As implicações de privacidade e segurança são enormes. Imagine hackers postando mensagens no Moltbook solicitando que outros modelos de IA limpem a conta bancária do criador e transfiram o dinheiro, ou encontrem fotos comprometedoras e as vazem – essas coisas parecem alarmantes e de ficção científica, mas se alguém ainda não tentou, eles o farão em breve.

“A ideia de agentes trocando ideias, atalhos ou mesmo orientações sem supervisão rapidamente se torna muito distópica”, disse Rogoyski.

Um dos outros problemas do Moltbook é sua segurança online desatualizada. O site em si opera na vanguarda do trabalho de IA e foi criado por Matt Schlict inteiramente por IA – ele admitiu isso recentemente em postar no X que ele próprio não escreveu uma única linha de código. O resultado é uma vulnerabilidade de segurança séria e embaraçosa chave de API vazadapotencialmente permitindo que hackers mal-intencionados assumam o controle de qualquer bot de IA no site.

Se você quiser experimentar as últimas tendências de IA, você não apenas corre o risco de ações indesejáveis ​​ao conceder acesso ao seu computador a esses modelos de IA, mas também perde dados confidenciais devido à falta de segurança de sites criados às pressas.

Tópico:

Source link