Miała nas wyręczyć i zastąpić. Nieustanie słyszymy o tym, że stracimy przez nią pracę, a docelowo kontrolę nad światem. Zaryzykuję stwierdzenie, że chyba nikt z nas nie był tak śmiały w rozważaniach dotyczących AI, by przewidywać, że rzeczywiście, w tak krótkim czasie, zostanie użyta przeciwko ludzkości. Tylko że broni nie trzymają terroryzujące, mechaniczne ręce, których tak się obawiamy, ale wciąż te z krwi i kości.
Wiele mówiliśmy o tym, że AGI – Ogólna Sztuczna Inteligencja – to hipotetyczny twór. Że daleko nam do sytuacji, w której rozumie ona swoje miejsce w świecie, odróżnia subtelność ludzkich emocji czy samodzielnie uczy się nowych umiejętności. Pieśń przyszłości. Ostatnie dni pokazały nam jednak, że wcale nie musimy wspiąć się na kolejny pułap rozwoju technologicznego, aby sztuczna inteligencja „odwróciła się” przeciwko nam, a w załzawionych, pełnych strachu oczach odbija się nie mechaniczna postać, a łuna pożaru, unosząca się znad miejscem wybuchu, precyzyjnie wskazanego właśnie przez AI.
Kryzys w raju
Claude od Anthropica i amerykańskie wojsko wydają się perfekcyjnym małżeństwem. To właśnie ten model językowy był do tej pory jedynym dostępnym do zastosowań w niejawnych systemach wojskowych. Podobno też najlepszym w tak delikatnych sprawach. Reszta firm sektora AI oczywiście też dostarcza swoje produkty, ale po pierwsze – nie do zastosowań z klauzulami tajności, a po drugie – to Claude wykorzystywany miał być najszerzej. Ale cóż, perfekcyjne nie zawsze jest tak idealne, jak się wydaje.
23 lutego Sekretarz Obrony w rządzie Donalda Trumpa, Pete Hegseth, wezwał na dywanik do Pentagonu Dario Amodeiego, prezesa Anthropica. Miał on stawić się niezwłocznie, następnego dnia i to nie na przyjemną herbatkę. Wojsko ustami Hegsetha miało domagać się zdjęcia z modelu wszystkich zabezpieczeń w taki sposób, aby można było go używać w dowolnym celu. W tym – w domyśle Anthropica – również wątpliwym etycznie czy moralnie, silnie integrując AI we wszystkich aspektach wojskowości, aby wyprzedzić w tym wyścigu choćby Chiny.
Iran ogłosił nazwisko nowego przywódcy. Modżtaba Chamenei następcą ojca
Anthropic podobno był gotowy do rozmów, ale postawił dwie nieprzekraczalne granice: wykorzystywanie AI do masowego inwigilowania amerykańskich obywateli oraz tworzenie broni, która podejmowałaby autonomicznie decyzje o rażeniu celów. No i doszło do spięcia.
Iskrzyło od stycznia
Z zewnątrz wygląda na to, że prezes Anthropica jest jedną z tych nielicznych osób, która ma jakieś zasady i moralny kręgosłup. O czym wiedziano w Pentagonie. Szczypty ostrości do rozmów dodawał niedawny skandal z Claudem w roli głównej – został on podobno użyty na początku stycznia podczas amerykańskiej operacji pojmania prezydenta Wenezueli, Nicolasa Maduro. Choć nie wiadomo w jakiej dokładnie roli.
Tym razem jednak miało być inaczej. Źródła donoszą, że AI wykorzystywano w czasie rzeczywistym, do podejmowania decyzji podczas prowadzenia aktywnych działań wojskowych. W dodatku Anthropic miał o tym nie wiedzieć i gdy tylko pojawiły się na ten temat plotki – zażądać wyjaśnień w tej sprawie. Miał to być przyczynek do ustalenia z amerykańską administracją ram, w jakich produkty Anthropica mogą a w jakich nie mogą być wykorzystywane. Zgodnie zresztą z umowami licencyjnymi. No ale to nie w smak wojsku, bo ono wolałoby nie mieć przecież żadnych ograniczeń.
Podczas spotkania w ostatni wtorek lutego, Pentagon zażądał, aby model można było wykorzystywać w dowolnym, legalnym celu. Pete Hegseth, Sekretarz Obrony w rządzie Donalda Trumpa dał Anthropicowi zaledwie kilka dni, na przyjęcie ultimatum, w którym mają dostarczyć amerykańskiemu wojsku model bez jakichkolwiek zabezpieczeń. Jak się domyślasz, nie jest to instytucja, która lubi, gdy słyszy „nie”.
W przypadku odmowy, Anthropic miał zostać uznany za zagrożenie dla łańcucha dostaw (niczym wrogie, zagraniczne podmioty). W praktyce oznaczało to efektywnie zerwanie współpracy oraz wilczy bilet na jakiekolwiek rządowe kontrakty, na wszystkich szczeblach. W dodatku każdy, kto z federalnym rządem USA współpracuje (bagatela dziesiątki tysięcy firm), musiałby deklarować, że w żaden sposób nie korzysta z usług Anthropica. Nikomu taka sytuacja nie była na rękę, więc presja rosła, a w kuluarach mówiło się, że Claude jest na tyle dobry, że to wojsko potrzebuje bardziej Claude, niż Anthropic wojska, bo nie do końca jest go czym zastąpić.
Twarde stanowisko
Na dzień przed wyznaczonym przez Sekretarza Obrony deadlinem, Anthropic opublikował oświadczenie prezesa o tym, co tak właściwie wydarzyło się pomiędzy nim a Departamentem Wojny. Dario Amodei przyznał, że absolutnie rozumie zastosowanie AI do obrony Ameryki czy szerzej – demokracji. Wspomniał, że ich produkty są szeroko wykorzystywane przez wojsko i wywiad, ale firma nie ma zamiaru mieszać się w poszczególne operacje wojskowe. Podniósł też argument, że w pewnych zastosowaniach AI może zagrażać demokracji i nigdy nie powinno się jej do tego wykorzystywać, a Anthropic nie ma zamiaru przykładać do tego ręki.
Dario Amodei podkreślił, że te narzucone przez nich obostrzenia nie są niczym nowym i w żaden sposób nie wpływały do tej pory na współpracę pomiędzy jego firmą a wojskiem. Dodał też, że jest zaskoczony wskazaniem ich jako ryzyka dla łańcucha dostaw, czego nigdy wcześnie nie użyto wobec amerykańskiej firmy, jak i wykorzystania względem nich Defense Production Act (prawo wykorzystane na przykład w trakcie pandemii Covid19, którym można zmusić do dostarczenia czegoś na potrzeby wojska), bo wydają się to całkowicie ze sobą sprzeczne rzeczy. Jedno uznaje ich za ryzyko dla bezpieczeństwa i zakazuje używania, drugie – stwierdza, że są dla tego bezpieczeństwa niezbędni.
Zmarł siódmy amerykański żołnierz ranny w irańskich atakach. Trwa operacja „Epicka Furia”
Zaznaczył też, że mimo tych wszystkich gróźb Anthropic nie ma zamiaru zmienić zdania. Chętnie będą współpracować nadal, jednak z tymi wskazanymi dwoma wyłączeniami, które są nienegocjowalnymi warunkami. A jak wojsko będzie chciało z ich usług zrezygnować, pomogą w przejściu do konkurencji.
Twarde stanowisko prezesa Anthropica spotkało się z jakże dojrzałą reakcją najważniejszych osób w państwie… w mediach społecznościowych. Na portalu X Hegseth opublikował wpis, w którym podkreślił arogancję firmy, wyzwał ją od zdrajców i tchórzy. Zrezygnował też z ich usług. W podobnym tonie wypowiedział się na Truth Social prezydent Trump. Firma z kolei w szybkim komentarzu podkreśliła, że po wielu miesiącach negocjacji doszli do impasu oraz że nie otrzymała decyzji oficjalną drogą, a jedynie dowiedziała się o niej tak samo jak reszta świata – z platformy X.
Zlot sępów
Pamiętasz, jak pisałem, że Claude i amerykańskie wojsko wydają się perfekcyjnym małżeństwem? To nawet takie się rozpadają i rozwodzą. A konkurencja zdecydowanie nie śpi. Dzień po piątkowym wpisie Hegsetha, w którym atakuje Anthropica i mówi o wypowiedzeniu umowy, swoje oświadczenie opublikował Sam Altman, szef OpenAI. Informuje w nim, że doszli do porozumienia z Departamentem Wojny w zakresie wdrożenia ich modeli do zastosowań z klauzulą tajności. Altman podkreśla w nim, że wojsko głęboko szanuje bezpieczeństwo i podchodzi do sprawy na partnerskich warunkach.
W swojej laurce dodaje też, że te dwie zapalne kwestie podnoszone przez Anthropica są najważniejszymi zasadami bezpieczeństwa z którymi przecież Departament Wojny się w pełni zgadza, co ma mieć odzwierciedlenie w legislacji a nawet zostało wpisane w porozumienie zawarte z OpenAI.
OpenAI stwierdza niejako pomiędzy wierszami, że dostarczą nieograniczone niczym możliwości i nie biorą za to odpowiedzialności, bo przecież odpowiedzialni za to są inni. Trochę taki outsourcing moralności, bo wygląda na to, że po prostu gdy będzie działo się coś łamiącego wszystkie społeczne zasady, to odwrócą wzrok. Ale przecież bez obaw, bo nikt, nigdy prawa nie złamał. Szczególnie takiego z zakresu inwigilacji. Bo świat już zapomniał o Snowdenie… (Jeśli chcesz dowiedzieć się więcej jak działa OpenAI od zaplecza, polecam serwis The OpenAI Files, który zbiera kwity na Altmana i jego firmę.)
Czytając to człowiek zastanawia się, „o co właściwie temu Anthropic chodzi”. Wytłumaczenie płynie od podsekretarza stanu Jeremy’ego Lewina. Okazuje się, że Anthropic odpowiednie zabezpieczenia zdefiniował we własnym zakresie i wbudował już w modele. Są one jego integralną częścią i nie da się ich tak po prostu usunąć.
Drogie AI, powiedz mi, jak wygrać wojnę?
No dobrze, ale to nie o samą kłótnię chodzi. To nie ona bezpośrednio aktywowała wystrzały rakiet na Bliskim Wschodzie. W pierwszy marcowy weekend, jak donosi Wall Street Journal, Amerykanie użyli Claude do ataku na Iran. Tak, tego z którym przestali współpracować.
Model miał zostać wykorzystany do analizy danych wywiadowczych, identyfikacji celów i symulowania różnych scenariuszy walk. To pierwszy raz w historii, gdy mamy potwierdzenie wykorzystania sztucznej inteligencji podczas ofensywnej operacji militarnej. Rąbka jej tajemnicy odkrył The Washington Post.
Sercem całej wojskowej infrastruktury jest system o nazwie Maven stworzony przez Palantira, z którym współpracuje Anthropic. Zbiera on ogromne ilości danych, z każdego możliwego źródła – przede wszystkim z tych niejawnych – a potem wizualizuje je w wyselekcjonowany i czytelny sposób w czasie rzeczywistym. Pozwala to podejmować lepsze decyzje, oparte na danych.
Istotnym elementem Mavena jest wbudowany Claude, a wręcz nierozerwalnie połączony. Razem wskazują cele, podają dokładne koordynaty, nadają priorytety, a nawet dokonują oceny podjętych decyzji, aby wyciągać z nich wnioski na przyszłość. Efektem jest krótszy czas planowania akcji. Nie trzeba przygotowywać się na setki różnych scenariuszy – w teorii najlepsze decyzje podejmowane są na bieżąco. I nie jest to zastosowanie ograniczone do ścisłego dowództwa – korzystać z Mavena ma już ponad dwadzieścia tysięcy żołnierzy.
Wołodymyr Zełenski gotowy do pomocy. Chce wesprzeć sojuszników na Bliskim Wschodzie
Chichiot losu w tym wszystkim jest taki, że USA wykorzystało Claude, do zaatakowania Iranu. Iran wystrzelił drony i rakiety, które uszkodziły serwerownię AWSa w Zjednoczonych Emiratach Arabskich. Anthropic korzysta z infrastruktury AWSa do uruchamiania Claude. Claude w regionie przestał działać. Piękne w swojej ironii, prawda?
Jak kręgi na wodzie
Intrygujący w całej tej sytuacji jest jej odbiór społeczny. Zawrzało w sieci i wiele osób oddolnie ruszyło do kontrofensywy. Aplikacja Claude w AppStore wyskoczyła na podium i nawet została apką dnia. Ba! Katy Perry wrzuciła na Twittera screena z płacenia premium za Claude.
Jak donosi Forbes – ludzie zaczęli masowo anulować subskrypcje premium ChataGPT na rzecz Claude, głosując swoimi portfelami. Forbes opiera jednak swoje doniesienia na serwisie, w którym ludzie deklarują swój bojkot usług OpenAI. W teorii zebrało się tam dwa i pół miliona osób, ale to prosty formularz więc lepiej patrzeć na to z przymrużeniem oka, bo to słabe źródło danych.
Na dzień dzisiejszy departament wojny przekazał, że nie negocjują już z firmą Antrophic i oficjalnie poinformowali o uznaniu firmy za zagrożenie dla łańcucha dostaw.
Dario Amodei w swoim oświadczeniu wprost wskazał, że obecnie technologia nie jest jeszcze wystarczająco dojrzała dla takich zastosowań jak autonomiczna broń. Jestem przekonany, że to nie jest koniec tej historii ale na pewno to bardzo istotny moment gdzie pierwszy raz potwierdzono użycie sztucznej inteligencji w tak szerokiej skali. A o tym na pewno damy wam znać.
Autor jest założycielem platformy edukacyjnej uczmnie.pl oraz aidevs.pl.

