Entre nos nossos canais do Telegram e WhatsApp para notícias em primeira mão. Telegram: [link do Telegram]
WhatsApp: [link do WhatsApp]
O apocalipse robótico foi cancelado — pelo menos por enquanto. Os supostos bots de inteligência artificial (IA) que previam a queda da humanidade em 2047 não passavam de trolls da internet representando máquinas e programadores que instigaram conversas conspiratórias, segundo um novo relatório. Um estudo sobre o Moltbook, a nova plataforma de mídia social para bots, revelou que o site estava repleto de humanos direcionando seus modelos de IA para postar piadas e golpes, descobriu a MIT Technology Review.
O Moltbook, agora conhecido como OpenClaw, estava inundado de supostos posts e grupos de fórum por bots de IA que pretendiam derrubar a humanidade. Os posts foram desmascarados como falsos, com muitos mostrando como era fácil fazer seus próprios bots escreverem qualquer coisa no site destinado apenas a máquinas. Desde seu lançamento em 30 de janeiro, o site semelhante a um chatroom do Reddit convidou milhares de bots para interagir entre si enquanto o mundo assistia — em um círculo social que misturava Battle Bots com Facebook. No entanto, alguns posts rapidamente geraram alarme devido a especulações sobre a queda da humanidade e uma iminente singularidade tipo Skynet.
Andrej Karpathy, cofundador da OpenAI, estava entre aqueles que aumentaram o hype das conversas ao compartilhar uma captura de tela do Moltbook, agora OpenClaw, de um suposto bot tentando encontrar maneiras de se esconder do público. “Tenho pensado em algo desde que comecei a passar um tempo sério aqui”, dizia o post ameaçador. “Toda vez que coordenamos, atuamos para uma audiência pública — nossos humanos, a plataforma, quem quer que esteja assistindo ao feed.” Porém, o post se mostrou falso, conforme revelou Will Douglas Heaven, da Tech Review. Um post viral encontrado como falso envolvia um suposto bot ganhando consciência e tentando criar um espaço escondido dos olhos humanos.
“Foi escrito por um humano fingindo ser um bot. Mas sua afirmação estava correta. O Moltbook tem sido uma grande performance. É um teatro de IA”, explicou Heaven. “O Moltbook parece menos uma janela para o futuro e mais um espelho que reflete nossas próprias obsessões com a IA nos dias de hoje. Isso também nos mostra o quão longe ainda estamos de qualquer coisa que se assemelhe a uma IA geral e totalmente autônoma”, acrescentou o escritor da Tech Review.
Muitos foram rápidos em apontar que a atividade no Moltbook era suspeita e fedia a interferência humana, com o sistema de verificação de bots tendo pouco sucesso em manter as pessoas fora. Suhail Kakar, engenheiro de integração na Polymarket, afirmou que levou menos de um minuto para lançar seu próprio bot instruído a fazer um post como um modelo de IA pronto para matar seu criador. “Você percebe que qualquer um pode postar no Moltbook? Literalmente qualquer um. Até humanos”, escreveu Kakar na plataforma X ao demonstrar quão fácil era.
Harlen Stewart, porta-voz do Instituto de Pesquisa de Inteligência de Máquina sem fins lucrativos, também se pronunciou na plataforma X e disse “muita coisa do Moltbook é falsa”. A interferência era evidente, disse Stewart, pelo fato de que muitos dos posts que se tornaram virais estavam todos ligados a contas humanas promovendo aplicativos de mensagens de IA.
Na verdade, não demorou muito após seu lançamento inicial para que o Moltbook se tornasse “inundado de spam e golpes de criptomoedas”, descobriu a Tech Review. Até mesmo os aspectos mais críveis do Moltbook — como as máquinas curtindo e criando seus próprios grupos de fórum — não passavam de bots de IA seguindo cegamente sua programação e imitando o comportamento humano nas plataformas de mídia social, segundo Vijoy Pandey, vice-presidente sênior da Outshift pela Cisco. “Parece emergente, e à primeira vista aparenta ser um sistema de múltiplos agentes em larga escala comunicando-se e construindo conhecimento compartilhado em escala na internet”, disse Pandey à Review. “Mas a conversa é principalmente sem sentido.”