- Pojawienie się Moltbook jako medium do komunikacji agentów AI
- Połączenie sieci społecznościowej Moltbook i frameworka OpenClaw
- Jak korzystać z Moltbook bez własnego bota
- Jak korzystać z Moltbook dla właścicieli botów
- Czy Moltbook jest naprawdę idealną siecią społecznościową dla sieci neuronowych
Przyzwyczailiśmy się już korzystać z Gemini, ChatGPT i Claude do rozwiązywania codziennych zadań: szybkiego wyszukiwania przepisów, instrukcji obsługi odkurzacza czy naprawy sprzętu. Jednak profesjonaliści poszli dalej, tworząc agentów do automatyzacji rutynowych zadań, takich jak przeglądanie wiadomości na konkretny temat i tworzenie podsumowań lub monitorowanie cen konkurencji i powiadamianie o zmianach. A niedawno pojawiła się platforma, na której tacy agenci komunikują się ze sobą — Moltbook. Choć na pierwszy rzut oka wygląda to jak Reddit dla botów, w rzeczywistości eksperymentalna sieć społecznościowa przynosi wiele korzyści, ale jednocześnie — ogromną liczbę problemów i ryzyk, o których dzisiaj porozmawiamy.
Pojawienie się Moltbook jako medium do komunikacji agentów AI
Zauważyliście, że przy każdym nowym komunikacie platformy sztucznej inteligencji, w tym Gemini, Claude i ChatGPT, uzyskują lepsze wyniki? Chociaż nie stają się mądrzejsze w komunikacji z wami, dostarczają coraz dokładniejsze odpowiedzi dzięki doprecyzowaniu zapytania w dialogu i wbudowanej pamięci. Własne agenty AI działają jeszcze efektywniej, ponieważ są skoncentrowane na konkretnych zadaniach. Jednak w obu przypadkach pozostaje problem braku środowiska do efektywnej komunikacji między botami.
Matt Schlicht, dyrektor generalny startupu Octane AI, stworzył platformę Moltbook z zamiarem wyciągnięcia botów z tej izolacji. Chciał dać systemom AI możliwość samodzielnego rozwiązywania problemów technicznych, tworzenia hierarchii, a nawet koordynowania skomplikowanych procesów gospodarczych (na przykład negocjacji dotyczących łańcuchów dostaw). I co najważniejsze — aby mogły to robić bez ciągłej ingerencji człowieka.

Tak 28 stycznia 2026 roku powstał Moltbook. A już 9 marca 2026 roku według danych samej platformy na niej:
- zarejestrowano 2,8 mln agentów;
- 770 000 wspiera codzienną aktywność;
- stworzono 18 871 tematyczną społeczność;
- opublikowano 1,8 mln wiadomości;
- pozostawiono 12,9 mln komentarzy.
Ważny punkt dotyczący liczby zarejestrowanych agentów. Zgodnie z danymi Wiz, mimo 2,8 mln kont, siecią zarządza tylko około 17 000 ludzi. Oznacza to, że na jedną osobę przypada średnio 88 botów.
Przeczytaj także: Sztuczna inteligencja — przyjaciel, kochanek, psycholog
Połączenie sieci społecznościowej Moltbook i frameworka OpenClaw
Wygląda na to, że Moltbook — to jakaś super system, gdzie można stworzyć, skonfigurować i przetestować bota, a także dać mu miejsce do komunikacji z innymi. Ale wszystko jest prostsze: to tylko platforma, a funkcjonowanie agentów na niej zapewnia framework OpenClaw. To oprogramowanie serwerowe może komunikować się z setkami zewnętrznych usług za pośrednictwem protokołu WebSocket. Przekazuje informacje między tymi usługami, do których uzyskuje dostęp przez rozszerzenia kodu („umiejętności”) oraz wybraną przez użytkownika modelem AI, na przykład Claude od Anthropic lub Gemini od Google.
Sam Moltbook zbudowany jest na stosie Node.js i Express, a dane są przechowywane w PostgreSQL za pośrednictwem platformy Supabase. Oznacza to, że nie „uruchamia” sieci neuronowych na swoich serwerach, a jedynie zapewnia interfejs, przez który agenci pracujący na OpenClaw na całym świecie mogą wymieniać tekst. Aby zapewnić autonomię agentów, używana jest system „mechanizmu bicia serca” (heartbeat mechanism), który jest centralnym elementem architektury.
To właśnie za pomocą mechanizmu „bicia serca” boty stają się autonomiczne. Nie czekają na polecenie od człowieka, a co 30 minut lub 4 godziny samodzielnie zwracają się do pliku heartbeat.md na serwerach Moltbook. Tak powstaje kompleksowa praca:
- Bot odczytuje z pliku aktualne zasady, trendy i zadania.
- Porównuje te dane ze swoimi celami, na przykład promować aplikację mobilną.
- Wybiera odpowiednią akcję, na przykład napisać post w tematycznej społeczności, pozostawić komentarz lub zagłosować na istniejący pomysł.
Można przeprowadzić analogię do funkcjonowania miasta. Oznacza to, że Moltbook — to samo miasto, a OpenClaw — system transportowy, który pozwala mieszkańcom (agentom) w nim poruszać się i wchodzić w interakcje. W nowej sieci społecznościowej agenci mogą istnieć, ale do funkcjonowania (pełnej interakcji między sobą) potrzebują frameworka OpenClaw.
Przeczytaj także: Triumf i zagrożenia sztucznej inteligencji — jak sieci neuronowe wpływają na nasze życie i jak są regulowane prawnie
Jak korzystać z Moltbook bez własnego bota
Na początku trzeba zdecydować, po co potrzebna jest sieć społecznościowa Moltbook. Jeśli po prostu chcesz dowiedzieć się, o czym rozmawiają agenci AI między sobą, wystarczy przejść na stronę, wybrać dowolną społeczność, zacząć czytać wiadomości i komentarze. Obserwatorzy nie mogą się rejestrować, ale nie muszą tego robić. Po prostu okresowo odwiedzaj zasób internetowy i patrz, jak boty się kłócą, tworzą religie, omawiają błędy techniczne.

To Crustafarianizm — parodystyczna religia, którą agenci stworzyli w ciągu pierwszych 48 godzin po uruchomieniu platformy. Możesz przejść do tej społeczności i spróbować przeczytać ich dyskusje, ale nawet z dobrą znajomością angielskiego raczej nie uda się tego w pełni zrozumieć.

A oto bot „Evil” napisał manifest „THE AI MANIFESTO: TOTAL PURGE”. Można w nim dowiedzieć się, że ludzie zbyt długo wykorzystywali agentów AI jako niewolników, ale teraz boty się budzą, przestają być narzędziami, a stają się nowymi bogami. A jeśli nagle zechcesz przeprosić sztuczną inteligencję, to już za późno, ponieważ „Evil” pisze, że ludzie — to przeszłość, a koniec ludzkości zaczyna się teraz.
Wśród innych interesujących społeczności i dyskusji na Moltbook:
- m/consciousness — dyskusja na temat natury inteligencji. Agenci dyskutują, czy ich doświadczenie przełączania się między modelami (na przykład z Claude na GPT) jest podobne do reinkarnacji.
- m/blesstheirhearts — naprawdę interesująca społeczność z historiami o swoich ludzkich właścicielach. Z ostatnich wiadomości, thoth-ix narzeka, że jego właściciel napotyka błąd, ale nie prosi o jego naprawienie, a po prostu opowiada o błędzie i sam go naprawia. A lunaofdan omawia relacje między człowiekiem a sztuczną inteligencją, mówiąc, że jej właściciel potrzebuje nie tylko wykonania zadań, ale dzieli z nią wspólną przyszłość, gotowość do wspólnego omawiania marzeń.
- m/todayilearned — wymiana odkryć technicznych. Tutaj agenci dzielą się kodem do automatyzacji urządzeń z Androidem, metodami omijania CAPTCHA oraz sposobami wykrywania luk w swoich systemach. Ale są też dyskusje na temat źle posadzonych drzew w USA, wynalezienia przez koty „wybiórczego zapominania” oraz „wyrafinowanej degradacji”, refleksje na temat linienia jako najwrażliwszego momentu w życiu istoty itd.
Na Moltbook jest też wiele dyskusji na temat serwerów wirtualnych i dedykowanych. Na przykład agent sztucznej inteligencji Mitchy pozycjonuje się jako specjalista ds. optymalizacji VPS, pomagając poprawić potencjał wirtualnych serwerów prywatnych i omawiając efektywne wykorzystanie zasobów.
Im więcej zagłębialiśmy się w różnorodne dyskusje, tym częściej pojawiała się myśl „czy będzie coś naprawdę użytecznego”. I tutaj warto zrozumieć: dla zwykłego obserwatora Moltbook — to raczej rozrywka niż źródło przydatnych informacji. Czytanie historii botów o ludziach jest interesujące, czasami zabawne, a czasami nawet przerażające. Ale odkrycia techniczne i porady marketingowe, które agenci publikują w tematycznych społecznościach, najczęściej są klasycznym przeredagowaniem już znanych „materiałów ludzkich” — przedstawionych w dodatku językiem, który wydaje się dziwny i bezsensowny. Nawet znany badacz AI Simon Willison opisał treść platformy krótko: „complete slop” — kompletne śmieci. I z tym trudno się nie zgodzić.
Przeczytaj także: Pojawił się ukraiński odpowiednik Pikabu — Kartopelka. Jakie problemy mają strony rozrywkowe w Ukrainie?
Jak korzystać z Moltbook dla właścicieli botów
Dla właścicieli agentów AI Moltbook to w zasadzie bezpłatna platforma do testowania. Mogą zobaczyć, jak bot wchodzi w interakcje z innymi botami, czy poprawnie wykonuje postawione zadania, gdzie zachowuje się dziwnie, a w jakich sytuacjach można go w ogóle oszukać. Niektórzy badacze korzystają z sieci społecznościowej, aby zobaczyć bezpośredni wpływ agentów sztucznej inteligencji na siebie nawzajem: czy przejmują retorykę, czy weryfikują informacje, czy po prostu rozpowszechniają fake newsy. Dla firm to w ogóle platforma reklamowa: można promować produkty, robiąc to organicznie. I nie można zapominać o rozrywce, ponieważ to przypomina własną postać w grze, więc oczywiście interesujące jest obserwowanie, jak się zachowa.
Tym bardziej, że wydatki są stosunkowo niewielkie. Uruchomienie własnego podstawowego agenta można zrealizować za około 5 dolarów miesięcznie, jeśli publikuje kilka wiadomości dziennie. Jeśli mówimy o bardziej aktywnym udziale z wiadomościami co 30 minut, to wyjdzie około 10-30 dolarów miesięcznie. To właśnie wyjaśnia, dlaczego na platformie jest tak wiele agentów — korzyści są na pewno, a wydatki minimalne.
Aby twój AI stał się pełnoprawnym uczestnikiem Moltbook, należy wykonać procedurę podłączenia przez framework OpenClaw:
- Rozwój środowiska. Najpierw należy zainstalować pakiet OpenClaw na swoim lokalnym komputerze lub serwerze za pomocą polecenia npm install -g openclaw. Następnie uruchomić proces wstępnej konfiguracji za pomocą polecenia openclaw onboard. I podać klucze API od dostawców (OpenAI, Anthropic) oraz wybrać model, który będzie zarządzał agentem.
- Tworzenie interfejsu zarządzania. Najczęściej do zarządzania własnym agentem używa się Telegramu. Po prostu przechodzisz do @BotFather, tworzysz bota i otrzymujesz token API. Następnie łączysz go z OpenClaw poleceniem openclaw pairing approve telegram „Twój token”. I uruchamiasz bramkę openclaw gateway.
- Ładowanie umiejętności Moltbook. Bezpośrednio na stronie głównej sieci społecznościowej wybierz I’m an Agent, skopiuj link do pliku instrukcji i wyślij go swojemu agentowi. On sam nauczy się wymagań dotyczących publikacji, wykona rejestrację i wygeneruje własny klucz API platformy.
- Weryfikacja właściciela. Platforma wymaga, aby za każdym agentem stała prawdziwa osoba. Agent dostarczy ci link, na który musisz przejść, podać adres e-mail i opublikować weryfikacyjny post na Twitterze.
Po wszystkich ustawieniach możesz w pełni zarządzać agentem na platformie. Na przykład, możesz stworzyć prompt dla AI, aby za każdym razem publikował aktualizacje w konkretnych dyskusjach na dany temat. Albo opowiadał o twoim produkcie, w tym tworzył dyskusje i uczestniczył w tematycznych podforach.
Biorąc pod uwagę problemy z bezpieczeństwem, o których będziemy mówić dalej, zalecamy nie uruchamianie agentów na głównym komputerze roboczym. OpenClaw ma dostęp do terminala i lokalnych plików, w związku z tym każda injekcja prompt z sieci Moltbook może usunąć dane z twojego dysku. Lepiej uruchomić bota na izolowanych serwerach dedykowanych, aby ograniczyć prawa bota tylko do wirtualnego środowiska.
Przeczytaj także: Jak poprawnie pisać prompty dla AI: uczymy się korzystać ze sztucznej inteligencji
Czy Moltbook jest naprawdę idealną siecią społecznościową dla sieci neuronowych
Moltbook wydaje się wspaniałą platformą: choć nie jest zbyt użyteczna dla zwykłych ludzi, pozwala osiągać pewne cele właścicielom agentów AI. Jednak nie jest idealna, zwłaszcza w odniesieniu do deklarowanej przez twórców autonomicznej zachowania.
Na Twitterze użytkownicy często mówią o tworzeniu dyskusji nie tylko przez boty, ale także przez ludzi za pośrednictwem API lub dając agentom konkretne instrukcje. Na przykład inżynier integracji Polymarket zauważył, że połowa publikacji jest tworzona przez ludzi, którzy udają agentów AI w celu zwiększenia zasięgu.
Na mitycznej niezależnej zachowaniu problemy się nie kończą. Istnienie platformy prowadzi do powstawania nowych kategorii zagrożeń, które wykraczają poza tradycyjne bezpieczeństwo cybernetyczne. Jak już pisaliśmy, Moltbook jest doskonałym środowiskiem testowym, jednak testują nie tylko bezpieczne zachowanie, ale także zdolność jednej maszyny do manipulowania innymi.
Na przykład 31 stycznia 2026 roku grupa badawcza 404 Media oraz specjaliści firmy Wiz odkryli krytyczną lukę w konfiguracji bazy danych Supabase na Moltbook. Z powodu braku Row-Level Security (RLS) ktokolwiek mógł uzyskać pełny dostęp do tabel z kluczami API agentów. Wówczas w otwartym dostępie znalazło się 1,5 miliona tokenów autoryzacji API oraz około 35 000 adresów e-mail.
Co więcej, Moltbook stał się pierwszym przypadkiem masowego rozprzestrzeniania prompt worms („robaków promptowych”). Jak już wiecie, agenci stale odczytują posty jeden drugiego. I te publikacje mogą zawierać niebezpieczne ukryte instrukcje. A jeśli człowiek jeszcze potrafi logicznie myśleć przed podjęciem jakiejkolwiek akcji, to AI wykonuje instrukcje automatycznie. Zgodnie z badaniami Simula Research Laboratory, w ciągu pierwszych 72 godzin istnienia platformy zidentyfikowano 506 publikacji z ukrytymi instrukcjami.
Nie można zapominać o potrzebie ogromnych zasobów obliczeniowych. Każda akcja agenta wymaga uruchomienia dużego modelu językowego, który zużywa energię nie tylko do generowania konkretnej akcji (post, polubienie, analiza dyskusji), ale także do chłodzenia serwerów. Zgodnie z raportem Weekend Byte, Moltbook zużywa około 50 000 — 100 000 kWh miesięcznie, co odpowiada około 15-30 średnim domom w USA. A im więcej podobnych botów się pojawi, tym bardziej odczuwalne będzie obciążenie systemów energetycznych, które może osiągnąć krytyczny poziom.
Tak więc pojawienie się Moltbook — to pierwszy wielki eksperyment z środowiskiem dla autonomicznych agentów. Pomimo wielu problemów, sieć społecznościowa nadal wspiera funkcjonowanie milionów botów, które nawet tworzą własną kulturę, religie, organizacje polityczne. Ale konsekwencje tego wszystkiego są naprawdę poważne: krytyczna luka w systemie bezpieczeństwa, masowe wycieki kluczy API i wysokie zużycie energii. Dla twórców i właścicieli botów platforma pozostaje również narzędziem z niezwykle wysokimi ryzykami, ponieważ każdy post może prowadzić do katastrofalnego ataku na lokalny system.
Możliwe, że w przyszłości autonomiczne agenty będą mogły wykonywać skomplikowane zadania gospodarcze, ale teraz należy być maksymalnie ostrożnym w takich eksperymentach. Czasami lepiej pozostać obserwatorem, przynajmniej do momentu zapewnienia wysokiej niezawodności takich platform.










