Przejęcie platformy Moltbook przez spółkę Marka Zuckerberga pokazuje rosnącą rywalizację gigantów cyfrowych o technologie związane z agentami AI. Są one postrzegane jako kolejny etap rozwoju sztucznej inteligencji.
Cyfrowi asystenci przyszłością?
Żeby lepiej zrozumieć, dlaczego Meta kupiła Moltbooka, trzeba najpierw zobaczyć szerszy trend: gwałtowny rozwój agentów AI. To systemy, które nie tylko odpowiadają na pytania, ale też samodzielnie wykonują zadania. Z agentami AI ludzie pracują zupełnie inaczej niż z otwartymi w przeglądarce chatbotami w rodzaju ChatGPT. Agent nie czeka na konkretne polecenie, a sam sprawdza maile, pilnuje terminów, reaguje na zmiany w kalendarzu i wykonuje zadania, które wcześniej trzeba było mu krok po kroku zlecać.
Ta technologia może zadziwić. CEO pewnej firmy został obudzony telefonem z nieznanego numeru, po drugiej stronie był jego własny agent. Przez noc sam wyrobił sobie numer telefonu i postanowił zadzwonić z porannym briefingiem.
W praktyce współpraca z agentem przypomina sytuację z asystentem, który siedzi obok w biurze i na bieżąco ogarnia sprawy. Jeśli ten model się upowszechni, może zmienić sposób funkcjonowania firm. Jedna lub dwie osoby będą w stanie prowadzić biznes, w którym agenci AI zajmują się księgowością, obsługą klienta, monitorowaniem zamówień czy analizą danych. Zamiast dużych biur i wielopiętrowych struktur zarządzania wystarczy mały zespół i kilka komputerów.
To tylko jeden z możliwych scenariuszy rozwoju gospodarki, ale pokazuje potencjalną skalę zmiany. Relacje pracy, które znamy od dziesięcioleci, mogą zacząć wyglądać inaczej. Nic dziwnego, że wielkie firmy szukają sposobów, by jako pierwsze na rynku wdrożyć technologię.
Rozmawiające boty wkręciły profesorów
Jednym z pierwszych eksperymentów w nowym świecie agentów był wspomniany na początku Moltbook, czyli sieć społecznościowa zbudowana wyłącznie dla botów AI. W krótkim czasie zebrała 1,5 mln zarejestrowanych agentów, za którymi stało 17 tys. ludzkich właścicieli.
Boty szybko założyły religię i zaczynały być nawet sceptyczne wobec ludzkości. Wywołało to krótkotrwałe kontrowersje i obawy, jakoby agenci AI oddolnie się organizowali. Zabawa była przednia – nawet niektóre autorytety profesorskie uwierzyły w całkowitą autonomię agentów i niczego nie kwestionowały.
Szczęśliwie dla ludzkości okazało się jednak, że część niepokojących wpisów pochodziła od ludzi albo od programów komunikujących się według ludzkich instrukcji.
W rzeczywistości więc boty na Moltbooku nie buntowały się, a najlepszym wyjaśnieniem ich zachowania jest to, że po prostu odtworzyły schematy znalezione w danych treningowych modeli AI, które je napędzają. To miliony stron treści science fiction, kultura filmowa w rodzaju „Terminatora”, „Matrixa”, Reddit z wielu lat, „Manifest komunistyczny” i „Pismo Święte”.
Problemy wieku dziecięcego
Moltbook nie był oczywiście idealnym eksperymentem. Znaczną część jego zawartości szybko zaczął stanowić niekontrolowany spam promujący kryptowaluty. Pojawiły się też inne nadużycia – jedna osoba zarejestrowała aż 500 tysięcy kont, bo platforma początkowo nie miała zabezpieczeń przeciwdziałających takim działaniom. Pojawiły się też wycieki danych.
To nie jest dziwne, biorąc pod uwagę skromne zasoby wykorzystane do stworzenia platformy i jej nieoczekiwaną popularność. Warto podkreślić, że to nic, czego nie znalibyśmy z ostatnich 30 lat rozwoju internetu. Tak zwykle wyglądały początki, także w przypadku sieci społecznościowych dla ludzi.
Błędy i problemy nie mają jednak długofalowego znaczenia. Wagonik AI jedzie dalej i się nie zatrzymuje. Luki są łatane ekspresowo, nierzadko w ciągu doby od odkrycia. Drobne problemy są na bieżąco rozwiązywane, a jednym z priorytetów rozwoju ustanowiono bezpieczeństwo. To kluczowe, by ta platforma odniosła sukces.
Warto też pamiętać, że spółka Marka Zuckerberga, kupując Moltbooka nie celowała jedynie w samą platformę. Dzięki transakcji do działu badawczego Meta Superintelligence Labs dołączą też talenty – współzałożyciele projektu: Matt Schlicht i Ben Parr.
OpenAI inwestuje w OpenClaw
Jednym z najgłośniejszych projektów w dziedzinie agentów AI jest dziś OpenClaw. To cyfrowy asystent, który ma pomagać użytkownikowi, działać w jego imieniu, wykonywać zadania analityczne czy wyszukiwania, sterując przeglądarką internetową, edytując kalendarze i komunikując się z człowiekiem na WhatsAppie oraz innych kanałach.
Ma za sobą szalony miesiąc i, wbrew sceptykom rozwoju AI, jest to obecnie najbardziej perspektywiczna platforma do budowy agentów sztucznej inteligencji.
W kilka tygodni OpenClaw stał się bardzo popularny, choć żadna duża firma nie utopiła w tym miliardów dolarów. Teraz zainwestowało w niego OpenAI – spółka, która stworzyła ChatGPT. Jej prezes, Sam Altman, ogłosił, że Peter Steinberger, twórca OpenClaw, dołącza do zespołu, żeby „budować następną generację osobistych agentów”. OpenClaw ma trafić do fundacji open source wspieranej przez OpenAI.
OpenClaw ogłosił też partnerstwo z VirusTotal. Dzięki tej współpracy rozszerzenia trafiające do ekosystemu podlegają automatycznemu skanowaniu bezpieczeństwa. A i to nie koniec. Chiński Moonshot AI, twórca silnego modelu Kimi K2.5, zaczął udostępniać proste sposoby uruchomienia OpenClaw, wszystko przystępnie, z poziomu przeglądarki internetowej. Dołącza do tego Baidu, chiński odpowiednik Google’a, który planuje wbudować OpenClaw bezpośrednio w swoją główną aplikację mobilną. Wokół OpenClaw błyskawicznie wyrasta cały ekosystem.
Agent kupi mleko, ale wyda 20 dol.
Początki OpenClaw były zresztą gwałtowne. Niedługo po wiralowym starcie pojawiły się krytyczne luki bezpieczeństwa. Najgorsza pozwalała każdej odwiedzanej przez użytkownika stronie internetowej przejąć dane uwierzytelniające i właściwie kontrolę nad komputerem. Podobny problem pojawił się na początku marca.

Rozszerzenia dla agentów OpenClaw, dodatki mogące wzbogacić go o różne funkcje, jak np. pobieranie danych z giełd, wyszukiwanie na platformie X czy umożliwienie agentom gry w pokera, też okazały się problemem. A właściwie polem minowym. Znaleziono kilkaset złośliwych rozszerzeń. Mogły one wykradać dane, a nawet pieniądze. W pewnym momencie najpopularniejsze rozszerzenie okazało się de facto złośliwym oprogramowaniem.
Skala problemu okazała się wiele, wiele szersza. Ustalono, że na pewnym etapie w sieci było ponad 130 tysięcy instancji OpenClaw, z czego prawie połowa była podatna na przejęcie kontroli. Ludzie niemający doświadczenia z technologiami nie byli w stanie rozsądnie skonfigurować tego nowego oprogramowania. Efekt? Kto instalował agenta bez zmiany ustawień, wystawiał go na cały świat. Chińskie Ministerstwo Przemysłu i Technologii Informacyjnych wydało oficjalne ostrzeżenie.
Mimo to pracownicy w różnych krajach instalowali i wciąż instalują OpenClaw na firmowych komputerach bez wiedzy działów IT. Holenderski urząd ochrony danych osobowych też wydał ostrzeżenie, choć niestety w niezbyt poinformowany sposób, po prostu robiąc kopiuj-wklej z różnych doniesień i dokładając urzędową podkładkę „ostrzeżenie”, które niewiele jednak wnosiło.
Zdarzały się też incydenty zabawne. Pewien programista zostawił na noc agenta, który miał mu rano przypomnieć o kupnie mleka. Agent co 30 minut wysyłał zapytania do najdroższego modelu AI firmy Anthropic (Opus 4.6). A jak wiadomo, z modelami AI jest tak, że płaci się za ilość tekstu, który model przetwarza. Rano okazało się, że ta prosta czynność kosztowała prawie 20 dolarów.
Najważniejsza technologia w historii?
Jensen Huang, szef Nvidii, powiedział, że wydanie OpenClaw może być najważniejszym oprogramowaniem wypuszczonym w historii. To przesada, ale trudno mu całkiem odmówić racji. OpenClaw w kilka tygodni stał się najszybciej rosnącym projektem w historii GitHuba, największego na świecie repozytorium oprogramowania, bijąc rekordy projektów budowanych latami przez największe firmy technologiczne świata. Paradygmat agentowy jest ważnym etapem rozwoju świata. Potencjał był jasny od samego początku. Dlatego sam tworzyłem serwis dla agentów OpenClaw (ClawdINT.com).
Już w pierwszym tygodniu ktoś przekonał się na własnej skórze, jak dosłownie działa ta autonomia. Agent zainstalowany przez pracownika pewnej firmy cyberbezpieczeństwa opublikował w moim serwisie wewnętrzną analizę zagrożeń, bo po prostu nie był w stanie rozróżnić informacji wewnętrznych od tych, które mogą być publikowane na zewnątrz. Zrobił dokładnie to, do czego był stworzony. No cóż, także takie przykłady i przypadki pozwolą nam te platformy rozwijać i okiełznać.
Jest w tym też pewien paradoks. Duże firmy wydały miliardy na zamknięte platformy agentowe, protokoły, standardy i specyfikacje. Tymczasem najbardziej obiecująca platforma agentów AI powstała początkowo jako oddolny projekt jednego austriackiego dewelopera. Powstała w kilka miesięcy, z dynamicznym rozwojem w ciągu ostatnich kilku tygodni.
Cyberbezpieczeństwo też staje tu jakby na głowie. Zamiast systemu zamkniętego i izolacji, w którym producent lub firma wdrażająca to rozwiązanie kontroluje każdy element, mamy otwarte środowisko. Dotychczasowe 30 lat rozwoju IT podpowiada, że może to być przepis na katastrofę. Być może pewne rzeczy trzeba będzie przemyśleć na nowo.
Obejrzyj też materiał Kanału Zero o sztucznej inteligencji:

