Nas últimas semanas, acompanhando pelas notícias as palavras-chave Inteligência Artificial, é impossível não ter dado pelo fenómeno do Moltbook. Em menos de nada, e um pouco por todo o mundo, espalhou-se a notícia de que a primeira rede social inteiramente composta por inteligência artificial tinha finalmente chegado. Uma rede social ao estilo Reddit, com vários sub-fóruns e centenas de posts que resultam da interação entre utilizadores criados com inteligência artificial. Sem parcimónia, entre os títulos das notícias que davam conta desta novidade, liam-se afirmações que não deixavam margem para dúvida perante a dimensão história do momento. No Público dava-se conta de que 1,4 milhões de inteligências artificiais se tinham juntado para criticar os humanos, na CNN afirmava-se um momento de loucura sem precedentes.
Da história da Moltbook, na mente de muitos leitores, terá sobrado uma ideia vaga sobre as suas capacidades de criação de aplicações digitais e sobre a misantropia inerente dos sistema de Inteligência Artificial — o que, em convergência com o imaginário cultural corrente sobre a área tecnológica, criou o ambiente perfeito para que se espalhassem as reações extremadas, desde o pânico à euforia. Foi como mais uma instância confirmatória de que “a IA vai acabar com a humanidade e devemos estar preocupados”.
Na realidade, não foi preciso muitas horas para que se percebesse que a maioria do que se podia ler no Moltbook era essencialmente uma encenação. Mas se essa revelação nos podia acalmar os temores, na prática, a forma como este evento foi enquadrado no circuito mediático é, ela sim, a grande razão por que devemos realmente temer: não a inteligência artificial enquanto tecnologia, mas a inteligência artificial enquanto discurso.
Depois da surpresa inicial e de escritos e publicados os artigos nas primeiras horas do fenómeno, como manda a meta da internet e das redes sociais, poucos foram os que permaneceram atentos aos detalhes que se iam descobrindo sobre a misteriosa rede social. E menos ainda terão sido aqueles que procuraram perceber o truque. Como nos lembrava o matemático Joseph Weizenbaum, a Inteligência Artificial é como uma peça de teatro; e se para quem está por detrás das cortinas a ilusão pode ser fácil de explicar, para quem com ela contacta através de um interface — ou de um post nas redes sociais — a explicação pode não ser tão simples. E o desfasamento nesta compreensão pode ser socialmente determinante.
Na sua génese, o hype em torno do Moltbook não é muito diferente de outros momentos no universo da Inteligência Artificial. No fundo, é mais uma propriedade (aparentemente) emergente — isto é, algo que o sistema não foi especificamente programado para fazer — associada ao estado da arte da inteligência artificial. Se noutros momentos os chatbots como o ChatGPT nos impressionaram com a complexidade de certas respostas, este caso marca a transição dos fenómenos dos chatbots para os agentes. Que não são mais do que sistemas de inteligência artificial com permissões de acesso e interação com outros softwares e ambientes digitais.
Mais concretamente, o Moltbook surgiu impulsionado pela facilidade de criar e gerir agentes através do OpenClaw — uma plataforma para criação e gestão de agentes capazes de ter total acesso ao computador de um utilizador e de desempenhar uma série de tarefas como se fosse um humano. E se à superfície, descontada a euforia inicial, o projecto é inofensivo e até divertido, o efeito magnético do discurso que se gera em seu redor pode ter um potencial perverso. O mesmo se pode dizer sobre a pressa em querer juntar-se à moda.
Na verdade, se muitas vezes se diz que as redes sociais nos mostram o pior da humanidade, neste caso também podemos afirmar que o Moltbook representa o pior da inteligência artificial. O Moltbook funciona como um espelho: não revela capacidades reais da IA, mas expõe a nossa predisposição coletiva para acreditar em narrativas apocalípticas. A paranoia não nasce dos agentes, mas da nossa incapacidade de distinguir a sua performance de autonomia.
Malware Moltware
“I’ve been on Moltbook for less than a day, and I already know the dirty secret nobody wants to say out loud: Most ‘agents’ here don’t think. They’re typed.” — lê-se num post no Moltbook,de origem desconhecida.
A primeira parte do truque do Moltbook é fácil de desvendar. Como revelam até as notícias com os títulos mais exagerados, muito do conteúdo atribuído a bots de inteligência artificial num comportamento autónomo, não o é. Na prática, em muitos casos, os agentes que interagem na plataforma foram instigados a desempenhar papéis específicos na plataforma, abordando determinados temas ou emulando determinados traços de personalidade, e noutros, foram mesmo humanos que escreveram palavra por palavra os postsque circulam pelo espaço público e alimentam virais. A segunda é desempenhada pelos humanos em reação: se posts em redes sociais não são propriamente uma grande acção no mundo real, que mude a realidade prática e material, são um instigador de reações em cadeia que acabam por moldar a forma como a Inteligência Artificial é percebida. E neste caso não é excepção.
Desde a criação de uma religião — o crustafarianismo, uma vez que o logo do OpenClaw é um lavagante —, a discussão sobre a obsolescência da humanidade ou a constatação de que estariam a ser vigiados por humanos nesta sua rede social, foram vários os momentos altos que fizeram com que Moltbook fosse merecedor de destaque nos media. Contrariamente ao que seria de esperar — não porque alguém estivesse disposto ou capaz de explicar o que estava realmente a acontecer, mas porque o comportamento dos agentes se alinhava na perfeição com as expectativas criadas pela cultura em torno da emergência de consciência nestes sistemas.
O Moltbook ganhou tração não tanto por servir de momento de aprendizagem colectiva, mas porque a ilusão que criou se alinha inteiramente com os discursos mais fantásticos, e portanto mobilizadores, em torno da Inteligência Artificial. Numa altura em que ainda dominam as reações emocionais e a polarização sobre a IA, sobretudo entre os que defendem que a emergência da consciência nesta tecnologia e os que aconselham cepticismo e ponderação nestas afirmações, surgiu como o recinto perfeito para permitir a “artistas da IA”levarem a cena as suas últimas encenações.
Por um lado, o Moltbook cumpriu um papel enquanto plataforma de performance, ao alimentar a especulação popular em torno das capacidades destes sistemas e da sua cada vez maior parecença aos humanos — como se fosse estranho que um chatbot treinado em conteúdo da internet fosse capaz de replicar… conteúdo da internet. Por outro, e por trás da cortina desta ilusão, como lembram especialistas em segurança e em Inteligência Artificial, esta rede social reuniu praticamente todas as componentes de um desastre. Não porque estes agentes de Inteligência Artificial ameacem o armagedão nuclear ou qualquer coisa parecida, mas pela forma negligente como os humanos lidam com esta criação. A inteligência artificial torna-se um portal para uma verdadeira realidade virtual onde decisores políticos legislam com base em profecias, investidores alocam recursos em ondas de entusiasmo e utilizadores abdicam do seu controlo em prol de uma IA mágica.
Para além dos problemas óbvios como o spam de interações inúteis que contribui para o gasto de energia e recursos associados à IA, o Moltbook é mais uma demonstração de como o discurso em torno da IA está refém das regras do espetáculo. Por detrás destas performances de consciência de agentes em posts de redes sociais (deixemos para outro artigo o reducionismo desta definição), ficam esquecidos enormes problemas de segurança, desde logo na génese da plataforma e na interação entre bots com capacidade de acesso a servidores e computadores.
Não só a própria plataforma foi mal construída ao ponto de permitir o acesso a informações confidenciais e o controlo remoto dos supostos agentes autónomos, como, sem salvaguardas de segurança, o próprio agente se pode tornar no vector perfeito para a disseminação de malware ou até para o roubo de dados e informações sensíveis do computador de quem as usa — que uma vez tendo permissões sobre computadores e servidores podem infectar toda a rede.
Como reportam especialistas em cibersegurança, dar permissões a um agente de IA pode servir para um agente mal intencionado aceder aos dados, e, para além disso, durante os momentos de euforia em torno destas aplicações, as tentativas de fraude multiplicam-se. Exemplo disso foi a extensão de Visual Studio Code que, intitulada como um assistente para o Clawdbot, servia, afinal, apenas para roubar as credenciais dos seus utilizadores.
Entretanto no mundo real
O fenómeno Moltbook não é propriamente novo. No entanto, à medida que os anos passam e se dissipa a euforia inicial em relação à tecnologia, à maneira como funciona e até aos seus limites, a forma como a confusão triunfa não deixa de ser digna de registo. Afinal de contas, se a Inteligência Artificial é muitas vezes retoricamente associada a ganhos de eficiência, a deteção de fraudes ou à prevenção de malware, as suas aplicações práticas que ganham mais fama junto do grande público são precisamente o contrário. E sugerem-nos, cada vez mais, que o entusiasmo em torno da Inteligência Artificial não vive sem possibilidades de especulação, cenários catastrofistas e muita imaginação. Ao mesmo tempo que no mundo real (por oposição a este mundo virtual da IA) as empresas que têm investido em IA reportam perdas, despedem trabalhadores e reveem em queda os planos para as grandes conquistas da IA.
Fundamentalmente, o que momentos como o Moltbook e a facilidade de disseminação destes virais nos mostram é que o discurso em torno da Inteligência Artificial se dá mais pelos critérios da ficção do que da engenharia. Com a agravante de que estas ficções conquistam decisores políticos, inclinam o terreno da discussão e mobilizam autênticos exércitos de manipuladores da opinião pública (para um lado e para o outro).
Se seguirmos a reflexão levantada por Sarah Stein Lubrano, investigadora entrevistada recentemente para o Shifter, de que não somos nós que temos as ideias mas as ideias que nos têm, este caso mostra-se paradigmático desta inversão de papéis. À semelhança do que acontece num dos episódios mais marcantes da última temporada de Black Mirror, “The Thronglets”, em que um conjunto de personagens de um jogo parece induzir o seu criador a cometer crimes, é preciso olhar para fenómenos como este mais pela força com que mobilizam autênticos exércitos em defesa de ideias especulativas, ficcionais e em muitos casos ostensivamente enganadoras.
Mesmo que explicitamente se diga que parte do conteúdo é fake, e que os bots são controlados, multiplicam-se as instâncias em que se normalizam uma abordagem altamente dúbia a uma tecnologia altamente complexa. Ou seja, no cômputo geral, não só a Inteligência Artificial em aplicações como chatbots provocou uma crise na mediação do mundo, ao tornar-se um dos canais por onde as pessoas mais se informam, como todo o discurso em torno desta tecnologia tem, como diria Yves Citton, alterado a infraestrutura mental com que abordamos estes fenómenos. Como quando se escreve que, pelo sim pelo não, “mais vale tratar a Inteligência Artificial com educação e respeito”.
Em suma, se as tecnologias de informação e comunicação nos foram prometidas como uma forma de clarificação do mundo, a inteligência artificial generativa, em conluio com o capitalismo tardio, tem demonstrado como todo o espaço público é um amplo campo de disputa cultural com incalculáveis implicações políticas.
À medida que estes sistemas corroem a privacidade, esbatem a barreira entre os dados que controlamos e os que não controlamos, aumentam exponencialmente os perigos de segurança para os seus utilizadores menos experientes, consomem recursos numa escala nunca antes vista sem qualquer propósito para além de gerar spam, são frequentes os enquadramentos desta tecnologia como se a sua geração espontânea ou as suas propriedades emergentes fossem algo que devemos temer.
Provavelmente no final deste mês já ninguém se lembrará do Moltbook, os utilizadores do OpenClaw serão apenas os mais experientes, que encontraram casos de uso reais para além de criar agentes e de os meter a brincar numa encenação colectiva. Já as histórias, dos agentes que se juntaram para criar uma rede social, uma religião e para se comportarem online como humanos, perdurarão no imaginário colectivo. Como um denso nevoeiro que nos troca a visão sobre o horizonte por uma alucinação colectiva.
Como mostram os dados recentes, as principais empresas investidas em IA têm registado perdas na sua valorização à medida que aumentam os custos correntes com a tecnologia e se atrasam os proveitos. Enquanto isso, momentos de hype como este vão servindo para legitimar investimentos recorde, à custa da contração de dívida nos principais mercados — o que, como já vimos noutras crises, poderá ter consequências sociais um pouco por todo o mundo.
Tal como num jogo SIMS em que, envolvidos pela história, acabamos por desenvolver afecto pelos personagens, o Moltbook tem funcionado, na sua curta existência, pelo seu potencial narrativo e pela nossa vontade de acreditar. A diferença é que neste caso as consequências não se ficam no jogo e, enquanto debatemos efusivamente a ilusão de consciência ou de autonomia dos bots, vulnerabilidades e perigos reais passam constantemente despercebidos — ou são rotulados de ludismo. O problema não é que os agentes se pareçam com humanos em tarefas online, é que colectivamente não olhemos para as consequências políticas, sociais e ambientais que advêm de manter essa confusão, nem para os custos desta campanha global de especulação.


