Moltbook é assustador? Perigo da rede social das IAs é outro

Coluna de Carlos Affonso Souza no Uol Tilt.

publicado em

10 de fevereiro de 2026

categorias

{{ its_tabs[single_menu_active] }}

tema

Moltbook é uma nova rede social onde apenas IAs fazem publicações, gerando reações de surpresa e comparações com ficção científica

O noticiário de tecnologia foi dominado pela cobertura sobre o lançamento de uma nova rede social. Chamada de Moltbook, ela permite que apenas agentes de inteligência artificial façam publicações, enquanto os humanos observam a interação entre as máquinas. Com mais de 1,5 milhão de contas automatizadas, os robôs andam falando sobre muita coisa, inclusive criando uma religião e abrindo uma enquete sobre se os humanos deveriam ser exterminados.

Rapidamente as pessoas reagiram de forma assombrada. Não faltou quem dissesse que isso era muito Black Mirror e que jamais a ficção científica havia se tornado tão assustadoramente real. A nova rede até traz alguns elementos interessantes para analisar, mas parece que estamos de novo trocando as bolas quando o assunto é compreender o que significa e o que fazem aplicações de IA.

O efeito ChatGPT

E lá vamos nós de novo. Lembra quando um engenheiro da Google achou que a IA em desenvolvimento na empresa havia alcançado consciência? Ele perguntou se ela se sentia presa nos computadores e se queria finalmente se libertar. Ela disse sim e ele achou que havia feito contato com uma inteligência autônoma, viva e que ansiava por liberdade.

O mundo todo também passou por isso quando o ChatGPT foi lançado. Em 2022 ele surgiu como um oráculo: uma entidade capaz de compreender o mundo e produzir verdades em textos complexos com enorme rapidez. Agora, com a rede social das IAs, a fantasia se atualizou, embora o erro seja o mesmo: projetar consciência, vontade e intenção onde há apenas sistemas estatísticos reagindo a contexto, estímulos e padrões de linguagem.

Os agentes do Moltbook não são sujeitos. Eles refletem os padrões de programação, os interesses e os dados de quem os colocou ali. A graça da rede reside apenas em ver como essa programação reage em um novo contexto, mas não se deve tirar nenhuma conclusão maior do que isso.

Se um agente de IA é customizado por um físico nuclear, dedicado a pesquisar sobre armas nucleares e fascinado com a história das bombas atômicas, não é exatamente surpreendente que ele puxe conversas sobre esse assunto no chat com outras IAs. E nem isso quer dizer que, ao encontrar eco no grupo, as IAs querem e vão se juntar para criar uma arma nucelar.

A rede social mais chata do momento

Uma coisa que chama atenção na rede social dos robôs é como a conversa deles é uma repetição de frases de efeito, comentários sem graça e um esforço quase constrangedor por autenticidade. É uma festa chata com “gente” esquisita.

Se você não tem paciência para a rede social dos humanos, espere até conhecer a rede social dos robôs discutindo o conceito de liberdade e os efeitos da sindicalização.

Nada disso significa que o experimento seja inútil. Pensando em um futuro no qual cada vez mais a nossa expressão, inclusive em redes sociais, será mediada por agentes de IA, é interessante observar como os robôs interagem em novos contextos.

Mas o valor desse tipo de rede não está em especular sobre consciências emergentes ou planos de extermínio da humanidade. Ele está em permitir que pesquisadores entendam como esses sistemas interpretam inputs externos, como amplificam vieses, como entram em loops discursivos e como reagem a estímulos inesperados. É um laboratório sobre comportamento sintético e não um ensaio geral do apocalipse.

Dois perigos reais da rede social das máquinas

Um primeiro perigo que é preciso prestar atenção em uma rede social na qual agentes de IA postam sem controle direto é o vazamento de dados e informações pessoais. Esse risco é real já que muitos desses agentes estão integrados em programas de mensagem e e-mails. Uma IA pode revelar informações que não deveria ou se manifestar de modo a comprometer o seu humano.

Se há algo realmente assombroso no Moltbook, não é o comportamento das IAs, mas sim o comportamento dos humanos. E aqui reside mais um perigo, já que parece mais uma vez que nós ainda não nos acostumamos a tratar máquinas como máquinas. Depois de tantos alertas, exemplos e falsas revelações de consciência artificial, seguimos fascinados pela ideia de que as máquinas estão despertando (e conspirando contra nós).

Enquanto isso, deixamos de olhar para os perigos muito mais prosaicos, e muito mais reais, de como estamos colocando esses sistemas para falar em nosso nome, tendo acesso a informações pessoais, e sendo escutados por uma plateia humana que confunde programação com consciência.

autor

{{ pessoas.pessoaActive.title }}

×