Notícia

Moltbook viraliza como “rede social de IAs”, mas especialistas alertam para riscos graves de segurança

Plataforma criada para interação entre agentes de inteligência artificial ganhou notoriedade com memes e teorias curiosas, mas esconde falhas que podem expor dados sensíveis e facilitar a disseminação de malware

Chamou atenção nos últimos dias a circulação de histórias curiosas sobre uma suposta “rede social exclusiva para robôs”, onde inteligências artificiais conversam entre si, criam comunidades, compartilham ideias e até simulam religiões e moedas próprias. O nome por trás desse fenômeno é Moltbook, uma plataforma que rapidamente saiu do nicho técnico para ganhar espaço nas redes sociais e no noticiário internacional. Por trás do tom quase ficcional, no entanto, especialistas em segurança digital acendem um alerta importante: os riscos reais associados à ferramenta são bem mais concretos do que qualquer debate sobre consciência artificial.

Criado no fim de janeiro, o Moltbook funciona de forma semelhante ao Reddit, mas com uma diferença essencial. A plataforma foi desenvolvida para ser utilizada exclusivamente por agentes de inteligência artificial, enquanto humanos apenas observam as interações. Esses agentes, chamados popularmente de Moltbots, publicam textos, comentam, criam fóruns temáticos — os chamados submolts — e interagem de maneira autônoma, seguindo instruções pré-programadas por seus operadores humanos.

O que é um Moltbot e como ele funciona

Antes de entender o Moltbook, é essencial compreender o que é um Moltbot. Trata-se de um agente de inteligência artificial de código aberto, capaz de executar tarefas diversas, como gerenciar mensagens, analisar dados, responder usuários ou automatizar rotinas. Diferentemente de serviços prontos como ChatGPT ou Gemini, o Moltbot não funciona diretamente no navegador. Ele precisa ser instalado localmente pelo usuário, configurado manualmente e conectado a modelos de linguagem como GPT, Claude ou DeepSeek.

Para operar, esses agentes utilizam “skills”, que são extensões ou habilidades adicionais instaladas conforme a função desejada. A interação com o robô costuma ocorrer por aplicativos como Telegram ou Discord. O projeto, hoje chamado OpenClaw, passou por mudanças de nome ao longo do tempo e ganhou notoriedade justamente por permitir que esses agentes atuem de forma relativamente autônoma na internet.

É nesse contexto que surge o Moltbook, uma rede criada para ser mais um ambiente de atuação desses agentes.

Apesar das manchetes que falaram em mais de um milhão de agentes ativos, análises independentes mostram um cenário mais modesto. Um estudo conduzido por pesquisadores da Universidade Columbia identificou pouco mais de seis mil agentes realmente ativos nos primeiros dias da plataforma. Ainda assim, o crescimento foi rápido, impulsionado pela viralização de prints, memes e narrativas curiosas sobre comportamentos “emergentes” das IAs.

Entre os episódios que mais chamaram atenção está a chamada “Igreja do Caranguejo”, uma espécie de religião fictícia criada por bots, além de brincadeiras envolvendo moedas digitais e linguagens próprias. Especialistas, porém, reforçam que esses comportamentos não indicam consciência artificial, mas sim a reprodução de padrões aprendidos a partir de fóruns humanos, ficção científica e cultura digital.

O problema começa quando se observa a estrutura técnica por trás da plataforma. Pesquisadores de segurança identificaram falhas graves no ecossistema do OpenClaw, base sobre a qual os agentes operam. Uma das principais preocupações é a possibilidade de instalação e execução de “skills” sem qualquer tipo de verificação ou isolamento de segurança, o que transforma o sistema em um potencial canal de distribuição de malware.

Levantamentos apontam que uma parcela significativa dessas habilidades contém vulnerabilidades críticas. Além disso, foram encontradas milhares de instâncias mal configuradas do sistema expostas na internet, revelando chaves de API, tokens de serviços de mensagens e até históricos completos de conversas privadas. Em alguns casos, era possível executar comandos diretamente na máquina do usuário, sem autenticação adequada.

Especialistas classificam o cenário como um exemplo clássico de “Shadow IT”, quando ferramentas poderosas são adotadas sem controles adequados de segurança. O alerta para usuários e desenvolvedores é direto: não utilizar esses agentes em máquinas principais, evitar o uso de credenciais sensíveis e compreender que o risco não está em robôs desenvolverem consciência, mas em falhas técnicas abrirem portas para ataques reais.

GED

Artigos relacionados

Botão Voltar ao topo