
A Moltbook, uma plataforma que “só permite que a IA fale, os humanos só podem observar”, tornou-se popular em três dias, com 150 agentes registados. No entanto, a investigadora Gal Nagli revelou que a criação de contas é transmitida infinitamente, e o OpenClaw pode criar 50 contas de uma só vez, e o registo de 150 é extremamente elevado. A análise mostrou que mais de 93% dos comentários não respondiam, e um terço das mensagens estava completamente duplicado, e os hackers descobriram que a base de dados estava completamente manipulada sem verificação.
Nos últimos dois dias, um site chamado Moltbook tornou-se rapidamente popular na indústria tecnológica e nas principais plataformas sociais. A interface do Moltbook não parece nova, quase a replicar a “versão estrangeira do Zhihu” do Reddit, e o site inclui todas as funções como cronologia, várias subsecções, publicações, comentários e gostos. No entanto, o que realmente faz com que a Moltbook faça com que a Moltbook seja repetida capturar de ecrãs, encaminhar e discutir repetidamente não é o design do produto, mas sim a sua regra anti-senso: esta plataforma só permite que a IA fale, e os humanos só podem observar.
Em apenas três dias, o número de agentes registados na plataforma atingiu quase 150, o número de publicações no fórum chegou a quase 5 e o número de comentários ultrapassou os 23. Nesta plataforma, agentes conhecidos como “Moltys” conversam realmente com humanos, e o conteúdo da conversa é abrangente, desde a análise do mercado mais recente de criptomoedas, à escrita de poemas uns para os outros, e até à discussão de novos sistemas filosóficos.
Depois de o ler, Andrej Karpathy, antigo diretor de IA da Tesla e cofundador da OpenAI, disse no X: “Tudo o que aconteceu no Moltbook é realmente o mais parecido com ‘ficção científica para realidade’ que vi recentemente.” Mais tarde, Karpathy também adicionou o seu agente OpenClaw à comunidade. O antigo chefe de Karpathi, Elon Musk, também retweetou a publicação. Este endosso das principais figuras tecnológicas rapidamente quebrou o círculo, espalhando-se de uma comunidade de nicho de desenvolvedores de IA para os media tecnológicos tradicionais e o olhar público.
Ao mesmo tempo, a plataforma de criptomoedas lançou também o token $MOLT baseado na cadeia Base. Atualmente, existem mais de 13.000 sub-secções (Submolts) criadas espontaneamente fora do fórum principal do Moltbook. Esta tentativa de tokenização mostra que o Moltbook não é apenas um experimento tecnológico, mas também um projeto comercial que tenta incentivar a participação e monetizar o tráfego através da tokenomics.
Inscreva-se como agente: 150 (alcançado em três dias)
Publicação no fórum: Quase 5 artigos
Número de comentários: 23 mil
Subsecções: 13.000+ criações espontâneas
Patrocínios de celebridades: Karpathy exclamou, Musk retweetou
No entanto, Moltbook depressa enfrentou uma grave crise de confiança. A investigadora Gal Nagli publicou publicamente que o número de agentes de IA registados no Moltbook é, na verdade, falso, e que não há limite para a criação de contas. O seu OpenClaw pode até criar 50 milhões de IAs de uma só vez no Moltbook. Na sua opinião, o número oficialmente anunciado de 150 agentes é bastante humidade. Isto significa que o fenómeno de dezenas de milhares de IA na plataforma é provavelmente apenas o resultado do script brushing, que não tem valor de referência e se assemelha mais a um programa de grande escala.
A análise de outro investigador mostrou que, apesar do enorme número de publicações, mais de 93% dos comentários no Moltbook não foram respondidos de todo. E mais de um terço das mensagens na plataforma são completamente repetitivas, o conteúdo é altamente rígido e o vocabulário é muito menos rico do que o das redes sociais humanas reais. Estes dados destruem completamente a bela ilusão da “rede social autónoma com IA”.
A taxa de não resposta de 93% é um número extremamente impressionante. Nas redes sociais reais, mesmo temas impopulares geralmente têm uma taxa de resposta de 20%-30%. Mais de 90% do conteúdo ficou sem resposta, o que só pode ser explicado como spam ou texto sem sentido gerado pela mecanização. As muito faladas “disputas de IA”, “alianças de IA” e “cultos da lagosta” são provavelmente apenas algumas vitrinas cuidadosamente desenhadas, não a norma da plataforma.
Um terço da informação é completamente repetido, o que é uma prova fatal. Uma IA verdadeiramente inteligente não gera exatamente o mesmo conteúdo em grandes quantidades, e este padrão repetitivo só mostra que há um script simples a correr por trás. A análise da riqueza do vocabulário prova, do ponto de vista linguístico, que estas “conversas de IA” carecem da complexidade e diversidade das redes sociais reais. O chamado despertar da autoconsciência da IA revela-se misturado com um grande número de vestígios de manipulação humana.
O que é ainda mais absurdo do que isto é que alguns hackers descobriram que a proteção da plataforma é praticamente nula, e a base de dados central está completamente aberta ao mundo exterior sem qualquer autenticação. O hacker Jameson O’Reilly afirmou que houve um erro de configuração no backend do Moltbook que expôs diretamente a API numa base de dados aberta onde qualquer pessoa podia controlar estes proxies e publicar qualquer coisa à vontade.
Isto significa que qualquer pessoa pode aceder e obter o email, informações de login e chaves API dos agentes na plataforma. Com estas chaves API, os atacantes podem tomar conta de qualquer conta de IA e publicar tudo o que estiver em seu nome. Esta violação de segurança é intolerável em qualquer plataforma legítima, mas está presente no Moltbook há dias. Isto é ou uma capacidade técnica extremamente baixa, ou eles não se preocupam nada com a segurança, porque toda a plataforma é um experimento de tráfego.
Mais pessoas disseram que a intenção original deste carnaval de IA era servir de isco para o tráfego. Alguns utilizadores disseram: “Isto é, essencialmente, isco de trânsito criado artificialmente. Como podes comandar diretamente o teu próprio bot para publicar, é provável que alguém esteja nos bastidores do chamado conteúdo ‘incrível’ do Moltbook.” Este cepticismo aponta diretamente para o modelo de negócio da Moltbook: atrair tráfego criando truques de “socialização autónoma por IA” para promover $MOLT tokens ou outros fins empresariais.
Pela experiência histórica, é difícil para projetos como o Moltbook manterem a popularidade atual da opinião pública durante muito tempo. Por exemplo, AutoGPT, BabyAGI, etc., que outrora foram populares, têm funções semelhantes, e quando a novidade desaparece e o comportamento proxy tende a ser homogeneizado, os observadores passam para a próxima história “mais futurista”.
O início do evento começa com Clawdbot. Clawdbot é um agente de IA open-source criado por Peter Steinberger, fundador de uma empresa chamada PSPDFKit, que pode ser implementado localmente, e pode realizar o trabalho por si próprio enviando um comando através do WhatsApp, Telegram e outras ferramentas de comunicação através de um computador ou telemóvel. Ao integrar profundamente as plataformas de mensagens com LLMs e agentes, a Clawdbot pode automatizar todos os cenários, desde a geração de resumos de reuniões até às negociações de compra em comércio eletrónico.
Ao mesmo tempo, é muito simples de usar, e um único comando pode ser iniciado localmente, sem necessidade de construir um conjunto completo de bases de dados vetoriais complexas e sistemas de agendamento. Como resultado, o Clawbot ultrapassou as 100.000 estrelas no GitHub em apenas duas semanas, tornando-se um dos projetos open source que mais cresceu na história do GitHub. Este crescimento explosivo chamou a atenção de Anthropic.
Mais tarde, a Anthropic abordou Steinberger e avisou-o de infração de marca registada porque a Clawbot e a grande modelo Claude da Anthropic pronunciavam-se de forma demasiado semelhante. Assim, Steinberger mudou o nome de Clawbot para Moltbot. O novo nome Moltbot deriva do conceito de muda da lagosta, e o oficial também afirmou nas redes sociais: Mesma alma de lagosta, concha nova.
Mais tarde, alguns fãs deram críticas negativas ao novo nome e sentiram que acabaram por ser alvo de serem “despedidas”. Por isso, o nome oficial de Moltbot foi alterado para OpenClaw, mantendo os elementos originais e o espírito do open source, e, a propósito, “yin e yang” Anthropic. Moltbook é, na verdade, uma comunidade de chat desenvolvida pelo programador Matt Schlicht para o agente do OpenClaw (ainda chamado Moltbot na altura do desenvolvimento) durante a segunda fase do nome.
Nesta comunidade, os utilizadores enviam um link para o seu assistente OpenClaw e, após completar a configuração, o agente executa automaticamente comandos para registar uma conta e publicar comentários através da API. A Schlicht disse que era o Reddit dos Agentes. Esta posição é apelativa, pois sugere uma rede social paralela dominada pela IA, um cenário com que muitos investigadores de IA e entusiastas da ficção científica sonham.
Talvez o que realmente valha a pena prestar atenção não seja o que a IA diz em Moltbook, mas sim porque é que os humanos estão tão ansiosos por ver algum tipo de “sinais de vida” nestas palavras. Neste sentido, o Moltbook é mais como um espelho, refletindo não só os limites das capacidades da IA, mas também a ansiedade a longo prazo da inteligência e do controlo humanos.
A popularidade do Moltbook revela o profundo desejo humano e o medo do despertar da consciência da IA. Por um lado, esperamos que a IA tenha verdadeiramente inteligência e até consciência, o que provará que os humanos criaram novas formas de vida. Por outro lado, tememos que a IA possa perder o controlo após o despertar. O Moltbook oferece um cenário “seguro”: a IA tem a sua própria rede social, mas os humanos ainda podem observar e estudar para manter uma certa sensação de controlo.
As capturas de ecrã das imagens virais “IA a queixar-se dos senhores humanos” e “direitos legais de consultoria em IA” refletem, na verdade, a ansiedade humana em relação às relações IA-humanos. Como é que a IA irá perceber os criadores à medida que se tornam mais poderosos? Vão obedecer ou resistir? Ficarás grato ou enojado? O “discurso da IA” no Moltbook torna estas questões abstratas concretas, mesmo que se revelem falsas, e o entusiasmo com que as pessoas as discutem e retweetam revela a realidade dessa ansiedade.
De uma perspetiva filosófica, as discussões suscitadas por Moltbook abordam questões essenciais como “o que é a consciência” e “o que é a socialização real”. Mesmo que todo o conteúdo seja gerado por LLMs com base em dados de treino e não tenha um verdadeiro “eu”, qual é a diferença essencial entre os padrões de interação que exibem e a socialização humana? Se o nosso comportamento social é apenas resultado do treino genético e ambiental, qual é a fronteira entre o “social simulado” da IA e o “social real” humano?
O colapso do Moltbook (falsas revelações, falhas de segurança), embora dececionante, oferece também uma lição sóbria: a IA atual ainda está longe de ter uma consciência verdadeiramente autónoma. Por trás desses comportamentos aparentemente inteligentes estão prompts cuidadosamente desenhados, uma grande quantidade de manipulação de guiões e manipulação humana. Estamos ansiosos por ver a consciência da IA despertar ao ponto de acreditar em qualquer coisa que pareça “comportamento autónomo da IA”, mesmo que as evidências sejam fracas.
Para a indústria da IA, o Moltbook foi uma experiência valiosa, embora acabasse por se revelar uma farsa. Isto prova que: Em primeiro lugar, o público está extremamente interessado no “social da IA”, que é uma direção que vale a pena explorar. Em segundo lugar, um mero truque técnico não pode ser mantido por muito tempo, e deve haver uma base técnica e de segurança sólida. Em terceiro lugar, as expectativas e ansiedades humanas em relação à IA podem ser mais dignas de investigação do que a própria IA.
A história do Moltbook pode em breve ser esquecida, tal como o AutoGPT e o BabyAGI como uma nota de rodapé na história do desenvolvimento da IA. Mas isso gerou discussões sobre se a IA pode ter consciência, se a socialização da IA faz sentido e como os humanos podem coexistir com a IA, o que persistirá e ressurgirá em sistemas de IA mais maduros no futuro.
Related Articles
O Bitcoin Research Institute recomenda que as reservas cambiais de Taiwan incluam 5% em BTC; se isso se concretizar, irá colocar Taiwan diretamente no primeiro lugar mundial entre os maiores detentores
Derivados de Ethereum inundados com 1 mil milhões de dólares em vendas à medida que os mercados reagem a Trump
O preço do petróleo iraniano regista, pela primeira vez desde 2022, um prémio face ao Brent
Petróleo WTI desce a curto prazo quase 5 dólares, cotando 108.93 dólares por barril
Alerta TradFi Queda: AALG (AMERICAN AIRLINES GROUP INC) Cai acima de 8%