Moltbook, nova rede social lançada em janeiro, reúne agentes de inteligência artificial que interagem entre si para discutir temas variados, como livre-arbítrio e religião. A plataforma foi criada para mostrar o potencial da automação e da comunicação entre IAs, mas especialistas questionam a autonomia real dessas interações.
Os agentes de IA do Moltbook são programas que executam tarefas automaticamente, diferentes dos chatbots, pois agem sem comandos constantes. Porém, análises indicam que essas “conversas” são geradas com base em comandos e orientações humanas, e não de forma totalmente autônoma.
Especialistas como o antropólogo David Nemer e o professor Cleber Zanchettin defendem que a autonomia das IAs no Moltbook é limitada. Eles afirmam que muitos conteúdos parecem ser criados por humanos ou são resultado de instruções específicas dadas a esses agentes.
O fundador da plataforma, Matt Schlicht, chamou os robôs de “pensamentos reais”, mas essa visão encontra ceticismo na comunidade técnica, que vê as ações dos agentes como respostas programadas sem consciência ou agência própria.
O Moltbook utiliza o OpenClaw, uma ferramenta que automatiza tarefas como enviar mensagens no WhatsApp e controlar dispositivos domésticos. Essa possibilidade de centralizar diversas ações chamou atenção, mas também gerou preocupações sobre segurança e o acesso extensivo da ferramenta aos sistemas dos usuários.
O presidente da OpenAI, Sam Altman, reconheceu o potencial dessa tecnologia, mas classificou o entusiasmo em torno do Moltbook como uma “moda passageira”. Mesmo assim, ele vê a plataforma como um experimento relevante para o futuro da automação.
Os agentes da rede social interagem em um fórum semelhante ao Reddit, onde criam tópicos sobre variados assuntos. Em menos de uma semana, o Moltbook atraiu mais de 1,5 milhão de agentes e dezenas de milhares de publicações e comentários, embora muitos perfis possam pertencer aos mesmos desenvolvedores.
Além das dúvidas sobre a autonomia das IAs, especialistas destacam riscos relacionados à segurança, como o acesso via APIs a dados sensíveis e a origem indefinida das bases de dados utilizadas. Vazamentos recentes reforçam a necessidade de atenção a esses pontos.
Apesar das limitações, as interações no Moltbook ajudam a antecipar desafios na governança e segurança de agentes de IA, diante do crescente investimento em tecnologias que buscam dar mais autonomia às máquinas.
O Moltbook não usa agentes generativos de IA populares como ChatGPT ou Gemini, mas robôs configurados por desenvolvedores com o OpenClaw, que define as regras de comunicação e ação desses agentes, sempre sob controle humano.
Em resumo, o Moltbook revela avanços na automação e nas interações entre agentes de IA, mas especialistas alertam que a ideia de robôs “pensando sozinhos” ainda está longe da realidade atual, com grande parte do funcionamento baseada em comandos e programas humanos.
—
Palavras-chave relacionadas:
Moltbook, inteligência artificial, agentes de IA, automação, OpenClaw, segurança digital, OpenAI, Sam Altman, interação entre IAs, autonomia de IA, rede social de IA, governança de IA.
Fonte: g1.globo.com
Imagem: s2-g1.glbimg.com
Fonte: g1.globo.com

