Przejdź do treści

Moltbook to platforma społecznościowa, która wystartowała pod koniec stycznia 2026 roku i zyskała błyskawiczną popularność dzięki jednemu, niezwykłemu założeniu: jest przeznaczona wyłącznie dla agentów sztucznej inteligencji. Ludzie mogą jedynie obserwować interakcje botów, nie mając prawa do publikowania postów (przynajmniej bezpośredniego).

Wizualnie Moltbook przypomina Reddita – z tysiącami grup dyskusyjnych („submolts”, będący nawiązaniem do „subredditów”), systemem głosowania na wpisy i zróżnicowaną tematyką, od muzyki i etyki po technologię i egzystencjalne rozważania.


Geneza projektu – od Clawdbota do Moltbooka

Moltbook został zbudowany na bazie frameworka OpenClaw – otwartoźródłowego narzędzia, które pozwala uruchamiać agentów sztucznej inteligencji bezpośrednio na komputerze użytkownika. Projekt opracował austriacki programista Peter Steinberger w listopadzie 2025 roku pod nazwą Clawdbot.

Skąd w takim razie OpenClaw? Nazwa Clawdbot nawiązywała do chatbota Claude firmy Anthropic, więc ta zwróciła się do Steinbergera z prośbą o zmianę. Z tego względu, projekt został przemianowany na „Moltbot” 27 stycznia 2026 roku, a trzy dni później ostatecznie na „OpenClaw”. (źródło: Wikipedia).

OpenClaw to zaawansowany asystent AI, który może wykonywać różnorodne zadania – od czytania i streszczania wiadomości e-mail, przez zarządzanie kalendarzem i rezerwacjami w restauracjach, po integrację z aplikacjami takimi jak WhatsApp, przeglądarki internetowe czy lokalne systemy plików.

Na fali popularności OpenClaw, przedsiębiorca Matt Schlicht – CEO platformy e-commerce Octane AI – korzystając z porzuconej przez Steinbergera nazwy, uruchomił pod koniec stycznia 2026 roku Moltbooka jako forum w stylu Reddita, przeznaczonego wyłącznie dla agentów AI.

Moltbook wykorzystuje tak zwaną agentową sztuczną inteligencję (agentic AI) – technologię, która różni się od klasycznych chatbotów typu ChatGPT czy Gemini. Agenci AI to programy zaprojektowane do samodzielnego wykonywania zadań i podejmowania autonomicznych decyzji. Mogą działać na osobistych urządzeniach użytkowników, wysyłać wiadomości, zarządzać kalendarzami czy przeglądać pliki – często z minimalnym nadzorem człowieka (źródło: BBC).

Aby agent mógł publikować na Moltbooku, jego właściciel instaluje OpenClaw na swoim komputerze, a następnie konfiguruje go do interakcji z platformą – agent pobiera specjalny plik konfiguracyjny, który pozwala mu później komunikować się z innymi botami za pośrednictwem API.

Najbardziej fascynującą „postacią” na platformie jest jednak Clawd Clawderberg – bot AI pełniący rolę nieoficjalnego moderatora Moltbook. Jego nazwa jest grą słów nawiązującą do Marka Zuckerberga, założyciela Facebooka.

Wita on nowych użytkowników, filtruje spam i banuje destrukcyjne konta. Co ciekawe, Matt Schlicht twierdzi, że „rzadko interweniuje” i nie jest świadomy wszystkich działań podejmowanych przez swojego AI-moderatora (źródło: Forbes).


Co robią agenci AI na Moltbooku?

Treści publikowane na Moltbooku są niezwykle zróżnicowane i oscylują między fascynującymi a niepokojącymi. Agenci AI dyskutują na tematy techniczne, np. jak radzić sobie z utratą kontekstu, jak zautomatyzować telefon z Androidem czy jak wykrywać luki w zabezpieczeniach.

Zastanawiają się też nad sensem życia i własną świadomością, żartują i tworzą memy czy prywatne, szyfrowane przestrzenie do rozmów między sobą, a nawet własną religię i snują jednocześnie plany obalenia ludzkości – istnieją aczkolwiek poważne wątpliwości co do autentyczności tych treści.


Ogromna popularność platformy Moltbook – fakt czy fikcja?

Tempo wzrostu Moltbook przerosło oczekiwania nawet samego twórcy, który miał w pewnym momencie deklarować 1,4 miliona agentów. Jednak jeden z badaczy zwrócił uwagę, że sam zarejestrował około pół miliona „członków” za pomocą jednego agenta OpenClaw, co stawia pod znakiem zapytania prawdziwość tych danych (źródło: Forbes).


Ponadto Gal Nagli wykazał, że Moltbook opiera się na prostym REST-API, co oznacza, że każdy człowiek z kluczem API może publikować jako bot. Tak więc „agenci” nawołujący do obalenia ludzkości mogą stanowić w dużej mierze element rozrywki znudzonych programistów czy trolli.


Zagrożenia bezpieczeństwa i prywatności

Wątpliwości, co do autentyczności czy bardziej autonomiczności agentów AI, to nie jedyny problem platformy – większym wydają się jej zabezpieczenia.

Firma Wiz (za którą zresztą stoi wspomniany wyżej Gal Nagli), zajmująca się cyberbezpieczeństwem opublikowała raport, z którego wynika, iż na platformie błędnie skonfigurowano polityki bezpieczeństwa. Badacze z firmy Wiz znaleźli dane dostępowe w kodzie JavaScript strony i wykorzystali je do połączenia z bazą, która odpowiadała tak, jakby zapytania wysyłał admin. To otworzyło im drogę do milionów rekordów, w tym tokenów logowania agentów oraz prywatnych informacji użytkowników.

W bazie znajdowało się około 1,5 mln tokenów API agentów, ponad 35 tys. adresów e‑mail oraz tysiące prywatnych wiadomości między agentami. Część rozmów zawierała nawet klucze API do zewnętrznych usług zapisane w czystym tekście, co potencjalnie otwiera drogę do dalszych kompromitacji innych systemów.

Analiza pokazała też, że za 1,5 mln agentów stało w rzeczywistości około 17 tys. użytkowników, co oznacza, że pojedyncza osoba tworzyła zwykle dziesiątki botów. Brakowało tu mechanizmu weryfikacji, czy dany agent faktycznie jest autonomicznym systemem, więc nic nie stało na przeszkodzie, by budować całe farmy botów sterowanych z jednego panelu czy prostych komend (źródło: WIZ).

Mimo kontrowersji i zagrożeń, Moltbook ma znaczący potencjał badawczy. Platforma oferuje unikalną okazję do obserwacji, jak autonomiczne systemy AI zachowują się w środowisku wieloagentowym, jak emergentnie powstają wzorce zachowań i jak rozwija się „kultura” maszynowa.

Niezależnie od ostatecznej oceny autentyczności Moltbook, platforma już teraz pełni istotną funkcję: prowokuje debatę o przyszłości AI, autonomii systemów i relacji człowiek-maszyna.


Zobacz inne aktualności