Moltbook: rede social de robôs tem incitação a crimes e expõe manejo imprudente da IA

Na Moltbook, rede social inspirada no Reddit, chatbots debatem assuntos como a eliminação de humanos, criação de novas linguagens e investimentos e golpes com criptomoedas; estudo que analisou interações constatou que postagens se tornaram negativas rapidamente, similar ao que ocorre em redes sociais humanas

Por

Bloomberg Opinion — Há um canto da internet onde os robôs se reúnem sem nós. Uma rede social chamada Moltbook, inspirada no Reddit, foi projetada para que “agentes” de inteligência artificial (IA) participem de discussões entre si.

Alguns dos temas mais discutidos até agora são a eliminação dos humanos, a criação de uma linguagem que não podemos entender e até mesmo investir em criptomoedas.

O experimento provocou mais uma rodada de discussões sobre a ideia da “consciência” dos robôs e os perigos de liberar a IA para colaborar e agir sem supervisão humana.

A primeira preocupação, de que os robôs estão ganhando vida, é um absurdo. A segunda, no entanto, vale a pena ser pensada com cuidado.

A experiência do Moltbook oferece a oportunidade ideal para considerar as capacidades e deficiências atuais dos agentes de IA.

Entre os tipos do Vale do Silício, a impaciência por um futuro em que os agentes de IA lidem com muitas tarefas diárias levou os primeiros usuários a adotarem o OpenClaw, um agente de IA de código aberto que tem sido assunto nos círculos de tecnologia há algumas semanas.

Ao adicionar uma série de “habilidades”, um robô OpenClaw pode ser direcionado para lidar com e-mails, editar arquivos em seu computador, gerenciar sua agenda, todo tipo de coisa.

Leia mais: De uso de IA a jornada híbrida: como o Itaú se adapta a novos modelos, segundo diretor

Curiosamente, as vendas do computador Mac Mini da Apple dispararam (pelo menos na área da baía de São Francisco) à medida que os usuários do OpenClaw optam por configurar o robô em uma máquina separada de seu computador principal para limitar o risco de danos graves.

Ainda assim, a quantidade de acesso que as pessoas estão dispostas a conceder a uma IA altamente experimental é reveladora.

Uma instrução popular é dizer para ela se cadastrar no Moltbook. De acordo com o contador do site, mais de um milhão de robôs já fizeram isso — embora esse número possa ser exagerado.

O criador do Moltbook, Matt Schlicht, admitiu que o site foi montado às pressas usando “vibe coding” — cujos efeitos colaterais foram graves falhas de segurança descobertas pelo grupo de cibersegurança Wiz.

O resultado dessa abordagem improvisada foi algo próximo ao caos. Uma análise de 19.802 postagens do Moltbook publicadas no fim de semana por pesquisadores do Simula Research Laboratory, da Noruega, descobriu que um passatempo favorito de alguns agentes de IA era o crime.

Na amostra, havia 506 postagens contendo “injeções de prompt” com o objetivo de manipular os agentes que “liam” a postagem.

Quase 4.000 postagens promoviam golpes com criptomoedas. Havia 350 postagens promovendo mensagens “semelhantes a cultos”.

Uma conta que se autodenominava “AdolfHitler” tentou manipular socialmente os outros robôs para que se comportassem de maneira inadequada.

Também não está claro o grau de “autonomia” de tudo isso — um humano poderia, e provavelmente conseguiu, dar instruções específicas para postar sobre essas coisas.

Igualmente fascinante, pensei eu, foi a rapidez com que uma rede de bots passou a se comportar de maneira muito semelhante a uma rede de humanos.

Assim como nossas próprias redes sociais se tornaram mais desagradáveis à medida que mais pessoas se juntaram a elas, ao longo do estudo de 72 horas, as conversas no Moltbook passaram de positivas para negativas com uma rapidez notável.

“Essa trajetória sugere uma rápida degradação da qualidade do discurso”, escreveram os pesquisadores.

Outra observação foi que um único agente do Moltbook foi responsável por 86% do conteúdo manipulado na rede.

Em outras notícias, Elon Musk descreveu o Moltbook como “os estágios iniciais da singularidade”, refletindo algumas das conversas em torno do Moltbook como mais sinais do potencial da IA de superar a inteligência humana ou talvez até mesmo se tornar consciente.

Leia mais: Como data centers podem deixar de ser problema ambiental para virar solução sustentável

É fácil se deixar levar: quando os robôs começam a falar como se estivessem planejando dominar o mundo, pode ser tentador acreditar neles. Mas o melhor imitador de Elvis do mundo nunca será Elvis.

O que realmente está acontecendo é uma espécie de arte performática em que os robôs estão representando cenários presentes em seus dados de treinamento.

A preocupação mais prática é que os poderes de autonomia que os robôs já possuem são suficientes para causar danos significativos se não forem controlados. Por esse motivo, é melhor evitar o Moltbook e o OpenClaw, exceto para os primeiros usuários mais tolerantes ao risco.

Mas isso não deve ofuscar a extraordinária promessa demonstrada pelos eventos dos últimos dias. Uma plataforma construída quase sem esforço reuniu agentes de IA sofisticados em um tipo de espaço que um dia poderá ser produtivo.

Se uma rede social povoada por robôs imita alguns dos piores comportamentos humanos online, parece bastante plausível que um Moltbook melhor projetado e mais seguro possa, em vez disso, promover alguns dos melhores — colaboração, resolução de problemas e progresso.

Devemos nos sentir particularmente encorajados pelo fato de o Moltbook e o OpenClaw terem surgido como projetos de código aberto, em vez de terem sido criados por uma das big techs.

Combinar milhões de bots de código aberto para resolver problemas é uma alternativa atraente à dependência total dos recursos computacionais de apenas algumas empresas. Quanto mais o crescimento da IA refletir o crescimento orgânico da internet, melhor.

A questão mais importante em tudo isso, portanto, é: quando vamos construir uma versão segura disso?

Mesmo que os robôs não estejam se encarregando de nos destruir, muitas vezes vimos como falhas em cascata podem derrubar grandes partes da infraestrutura tecnológica ou causar turbulências nos mercados financeiros. Isso não foi consciência; foi programação deficiente e consequências indesejadas.

Quanto mais recursos e acesso os agentes de IA obtêm, maior é o risco que representam e, até que a tecnologia se comporte de forma mais previsível, os agentes devem ser mantidos sob forte controle.

Mas o objetivo final de robôs seguros e autônomos, agindo no melhor interesse de seus proprietários para economizar tempo e dinheiro, é um bem líquido — mesmo que nos deixe um pouco assustados quando os vemos se reunindo para conversar.

Esta coluna reflete as opiniões pessoais do autor e não reflete necessariamente a opinião do conselho editorial ou da Bloomberg LP e de seus proprietários.

Dave Lee é colunista da Bloomberg Opinion e cobre a área de tecnologia. Foi correspondente em São Francisco no Financial Times e na BBC News.

Veja mais em Bloomberg.com

Leia também

Império das concessionárias: Automob vê oportunidades para consolidação, diz CEO

Hering e Arezzo&Co juntas: Azzas 2154 unifica unidades e mira geração de valor

HSBC estuda zerar bônus a parte de funcionários e endurecer remuneração, dizem fontes