W książce „AI Eksploracja” Andrzej Zybertowicz, znany socjolog, uznany ekspert w dziedzinie nowych technologii, mierzy się nie tylko z takimi pytaniami. Przestrzega przed bezkrytycznym techno-entuzjazmem. Szuka jak najtrafniejszych ram interpretacyjnych do uchwycenia fenomenu AI – zjawiska, które dotąd ludzkości się nie przydarzyło. Zjawiska, które jednocześnie fascynuje i uwodzi, ale także niepokoi, a niektórych może i przeraża.
AI: szansa, zagrożenie, partner?
Niniejszy tekst to fragment książki Katarzyny Zybertowicz i Andrzeja Zybertowicza pt. „AI Eksploracja”, wyd. Zona Zero
Katarzyna Zybertowicz: Tym razem mamy dwa motta. Pokazują pułapkę, w jaką zabrnęła ludzkość. Ale po kolei. W dziejach konkurowały ze sobą miecz i tarcza, pocisk i pancerz, samolot i radar, rakiety i antyrakiety, drony i narzędzia do ich zwalczania etc. Co tak unikatowego ma w sobie cyfrowy wyścig zbrojeń, że różni się od tych wcześniejszych? Tamte ludzkości jednak nie zabiły.
Andrzej Zybertowicz: Tak, rewolucja cyfrowa poza wszystkim innym przyniosła ze sobą także cyfrowy wyścig zbrojeń. Już odpowiadam na Twoje pytanie, ale najpierw uwaga skierowana do zwolenników ideologii postępu. Na czym polega postęp ludzkości przynoszony przez kolejne technologie, skoro z wyścigiem zbrojeń nie potrafimy skończyć? Przecież przechodzimy z jednej fazy tego wyścigu do kolejnej, w dodatku, jak pokażę, pod pewnymi względami bardziej intensywnej. Wygląda na to, że mamy raczej jakąś ułudę, mistyfikację postępu.
A oto odpowiedź na Twoje pytanie: wszystkie z wcześniejszych broni były wprawdzie mnożnikami siły, ale żadna z nich nie niosła ze sobą takiego potencjału mocy, jaki może przynieść sztuczna inteligencja.
K: Z czego to ma wynikać? Czym wyścig zbrojeń między różnymi systemami AI różni się od wcześniejszych wyścigów zbrojeń, takich jak te, które wymieniłam?
A: Różnica ta jest pochodną wobec omawianych przez nas wcześniej odmienności między technologiami analogowymi i cyfrowymi.
Przyjmuję, że każda broń to narzędzie destrukcyjnego oddziaływania na jakiś aspekt funkcjonowania przeciwnika. A wyścig zbrojeń prowadzony na polu cyfrowym obejmuje oddziaływania na wszystkie, dosłownie wszystkie sfery życia ludzkiego. Rozumianego szeroko!
K: Szeroko rozumiane życie?
A: Życie ludzkie rozumiane szeroko to (1) materialne warunki naszego funkcjonowania, np. budynki, (2) relacje społeczne, np. wzajemne zaufanie, (3) wewnętrzne życie człowieka, w tym jego podświadomość, ale także (4) możliwości manipulacji genetycznych. Wyścig zbrojeń między systemami AI może być przeniesiony na każdą, dowolną, dostępną dla manipulacji ze strony AI domenę istnienia człowieczego. Trudno wyobrazić sobie jakiś obszar ludzkiego życia, który byłby odporny na oddziaływanie broni budowanych na bazie AI. Taka broń jest w stanie objąć wszystkie aspekty ludzkiego życia. Wygląda na to, że to tylko kwestia czasu.
K: Jakimi przykładami byś to zobrazował?
A: Przykładowo, AGI rozpoznaje takie „podatności” ludzkich mózgów, których jeszcze nauka nie zna i wypracowuje wydajną pod względem nakładu środków i uzyskiwanych efektów teorię wywoływania trwogi. Mówi ona, jak za pomocą pozornie niezwiązanych ze sobą bodźców, np. dźwiękowych, obrazowych, konfiguracji pewnych słów wywoływać stany skrajnego przerażenia. (…)
A: (…) Wrócę do motywu trwogi. Wyobraźmy sobie zbudowaną dzięki AI broń, która potrafi przeniknąć mózg osoby, przeciwko której jest skierowana, tam odnaleźć pamięć najskrajniejszych, najgorszych, traumatycznych przeżyć tej osoby i aktywować lub nawet wzmocnić ich ponowne przeżywanie w taki sposób, że osoba zaatakowana byłaby całkowicie sparaliżowana. Kto może zapewnić, że taka technologia kiedyś nie powstanie lub że ktoś nad nią w ukryciu już nie pracuje?
K: Pewnie pracuje, ludzie od wieków w ukryciu zgłębiali tajemne siły – myślę, że tu nic się nie zmieniło.
Czy za pomocą tego dość szczególnego przykładu chcesz dać do zrozumienia, że cyfrowy wyścig zbrojeń może doprowadzić do powstania broni, których okrucieństwo przekroczy wszystko to, co dotąd ludzkość wymyśliła?
A: Tak. By to zobaczyć, wystarczy może przez chwilę zatrzymać się nad koncepcją AGI – ogólnej sztucznej inteligencji. Trzymam się definicji, która mówi, że AGI to taki system komputerowy, który potrafi zautomatyzować ogromną większość zadań intelektualnych, jakie potrafi wykonać człowiek. To dość typowe ujęcie, ale zbyt rzadko bierze się pod uwagę, co znaczyłoby zbudowanie takiego modelu. Wśród zadań, jakie potrafi wykonywać człowiek, są przecież także takie ludzkie, czy raczej nie-ludzkie zadania, jak: wprowadzanie w błąd, kłamanie, prowokowanie, namawianie kogoś do złego, przechytrzanie, unikanie odpowiedzialności za swoje czyny, planowanie zabójstw i innych zbrodni czy niewinne, zdawałoby się, psocenie. No i jest też zdolność do uczenia się, wyciągania wniosków z własnych błędów.
K: Sugerujesz, że nawet ci badacze, którzy są szczerymi pacyfistami, którzy w dobrej wierze, by pomóc ludzkości rozwiązać najtrudniejsze problemy, angażują się w jak najszybsze zbudowanie AGI, w istocie – nieświadomie – budują jakąś potężną maszynę wojenną?
A: Tak to wygląda, gdy analizuję, co wynika z tej definicji AGI. W rozdziale 5, Emergencja, czyli niespodzianki przywołałem artykuł Gebru i Torres, które dokumentują w nim tezę, że ideologiczne tło Doliny Krzemowej obejmuje też myślenie rasistowskie. Jednak autorzy ci odnoszą się też do inżynierskich aspektów bezpieczeństwa AI. Krytykując pogoń za AGI, piszą oni: „systemy, które są budowane w celu wykonania dowolnego zadania w dowolnych warunkach są fundamentalnie niebezpieczne: nie da się ich zaprojektować ani testować pod kątem bezpieczeństwa przy użyciu podstawowych zasad inżynierii”.
Rozumiem to tak: nie da się zagwarantować, że broń cyfrowa bazująca na AGI będzie wykonywała tylko te zadania, które jej zlecimy.
K: Ja bym jeszcze tu dodała coś, na co zwraca uwagę Kate Crawford w wydanej także po polsku książce Atlas sztucznej inteligencji. Chodzi o wadliwość, niekompletność danych, na których są trenowane modele AI oraz o logikę wojskową, według której te systemy działają. Zwłaszcza to drugie wydaje się bardzo ważne.
A: Zgadza się, ale co chcesz powiedzieć?
K: Posłużę się cytatem: „W ogólną logikę sztucznej inteligencji wpisany jest pewien typ myślenia klasyfikacyjnego – od zorientowanych wyraźnie na pole bitwy pojęć, takich jak obiekt, strategia i wykrywanie nietypowej aktywności, po subtelne kategorie wysokiego, średniego i niskiego ryzyka. Koncepcja stałej świadomości sytuacyjnej i wskazywania celów przez dziesięciolecia napędzała badania nad AI, przyczyniając się do powstania ram epistemologicznych, które miały i mają wpływ zarówno na przemysł, jak i na świat naukowy.
Z punktu widzenia państwa zwrot ku wielkim zbiorom danych i uczeniu maszynowemu zwiększył liczbę metod pozyskiwania informacji i ukształtował teorię społeczną dotyczącą możliwości śledzenia i rozumienia jednostek: po metadanych ich poznacie”.
A: Co chcesz przez to dodać?
K: Chcę wskazać, że AI wcale nie jest obiektywnym wsparciem technologicznym ani w zarządzaniu społecznymi zasobami ludzkimi, ani w zwalczaniu przestępczości, ani w walce z terroryzmem czy wreszcie w prowadzeniu wojen. Mnóstwo decyzji o losie ludzkim, np. o aresztowaniu kogoś, o zatrzymaniu na granicy, ale także zabiciu, służby podejmują przy wsparciu AI. Coraz częściej o losie ludzkim decyduje jakiś algorytm – „schemat zachowania”, który z gruntu może być wadliwy. Autorka, przywołując przykład Projektu Maven podkreśla, że na pole walki wprowadza się systemy algorytmiczne, nawet gdy nie są one w stu procentach ukończone. Zastanawiam się, ile AI-owych półproduktów występuje w roli wyroczni i niestety się myli.
To chyba dobry moment, by podjąć kwestię roli człowieka na polu walki prowadzonej między systemami AI.
A: Na konferencjach na temat AI na akademiach wojskowych widziałem niebezpieczną beztroskę wojskowych, którzy solennie zapewniali, że przecież w razie użycia cyfrowych systemów broni ostateczna decyzja zawsze pozostaje w rękach człowieka. Tymczasem etycy i gremia międzynarodowe od lat próbują zdefiniować, czym byłaby „znacząca ludzka kontrola nad śmiercionośnymi systemami autonomicznymi” (meaningfull human control). W tle toczy się gra między różnymi państwami z różnym potencjałem i np. USA zazwyczaj się krygują, że ich AI będzie przecież znakomite i wszechstronnie zabezpieczone, więc zakazy nie powinny ich dotyczyć.
K: Założenie, że człowiek zawsze powinien być w pętli decyzyjnej wydaje się rozsądne.
A: Tyle że w pewnych sytuacjach może to być niemożliwe, a w innych szkodliwe. Układem odniesienia jest tu tzw. pętla decyzyjna pola walki. Po angielsku to OODA Loop: Observation-Orientation-Decision-Action, czyli cztery powtarzające się w tej samej sekwencji fazy: obserwacja, orientacja, decyzja, działanie.
Wspomniani wojskowi byli przekonani, że wszystko jest w porządku, jeśli tylko w ogniwie decyzyjnym umieścimy człowieka, który na podstawie wiedzy uzyskanej przez systemy automatyczne decyduje, jak działać. Jednak takie myślenie wynika z błędnego rozumienia samego trendu automatyzacji oraz autonomizacji systemów uzbrojenia. Zakłada się tu oczywiście, że automatycznie działające sensory pola walki przyswoją i przetworzą więcej informacji niż jest w stanie to zrobić człowiek. Że szybciej uzyskają właściwą świadomość sytuacyjną. Dalej, że tzw. efektory pola walki (np. artyleria) dzięki zautomatyzowaniu będą skuteczniejsze oraz szybsze. Jednak jeśli przeciwnik także fazę decyzji odda w ręce działającej sprawnie i błyskawicznie AI, to ta strona, która zachowa człowieka w pętli decyzyjnej, zareaguje za późno i przegra, marnując przy tym korzyści uzyskane dzięki automatyzacji pozostałych faz pętli decyzyjnej. (…)
Automatyzacja powoduje przyśpieszenie działania pętli i jeśli obie strony konfliktu korzystają z AI, to obecność człowieka w pętli, a nawet tylko w roli nadzorcy pętli może na tyle opóźnić działanie, że przeciwnik wygra już na starcie. Automatyzacja wymusza zatem autonomizację, czyli odsunięcie człowieka od decydowania. Jak daleko takie odsunięcie będzie musiało nastąpić? Czy z poziomu taktycznego (konkretne działania bojowe) wystarczy przenieść dowodzenie na poziom operacyjny (przedsięwzięcia szerszej skali), czy jeszcze wyżej – z operacyjnego na strategiczny? A może AI będzie w stanie zaopiekować się już nie tylko całą wojną, ale także polityką, która do niej prowadzi?
Dobrze byłoby, gdyby technoentuzjaści w mundurach uzyskali trochę szersze spojrzenie na swoje zabawki.
K: Zaproponuję teraz eksperyment myślowy. Jak wiesz, często porządkuję świat intuicyjnie, ale ty lubisz powtarzać, że rozumowanie, jeśli nie ma dryfować po jakichś zakamarkach naszych umysłów, to powinno bazować na konkretnych założeniach.
A: Czasem myślisz tak „gęsto” intuicyjnie, że z trudem za tobą nadążam. Jednak faktycznie uważam, że dobrze dobrane założenia to duży krok do przodu.
K: Proponuję, by ów eksperyment wychodził od następującego przypuszczenia. Skoro LLM-y „zachodnie” – przynajmniej te, o których publicznie wiadomo – są trenowane w zgodzie z wartościami demokracji liberalnej, to można by założyć, że z kolei te wielkie modele generatywnej AI, które powstają w Rosji i Chinach, budowane są na bazie wartości typowych dla tamtych społeczeństw.
Zatem, czy wychodząc od tego, co wiemy na temat różnych autorytaryzmów, można by wyobrazić sobie, na jakim materiale trenowany, jak dostrajany, testowany etc. byłby model AI, który tworzono by z zamiarem utworzenia narzędzia służącego autorytarnej władzy?
A: Bardzo inspirujący pomysł. Odpuszczę Chiny. Zbyt mało o nich wiem. By do tego eksperymentu się przygotować, specjalnie przeczytałem wydaną po polsku książkę Zrozumieć putinizm. Obsesja potęgi autorstwa wybitnej francuskiej badaczki Françoise Thom. Napisana została już po inwazji Federacji Rosyjskiej na Ukrainę. Swoje zadanie rozumiem tak. Skoro znając zasady kulturowe liberalnego Zachodu, możemy wywieść z nich co nieco, jak działają wielkie modele językowe budowane po naszej stronie rzeki Bug, to gdy zrekonstruujemy sobie zasady kulturowe typowe dla aktualnego moskiewskiego systemu władzy, to będziemy mogli się domyślić, jak „szkolona” jest rosyjska AI.
K: Tak. I jaka jest twoja odpowiedź?
A: Podczas lektury książki Thom zrobiłem sobie pod tym kątem notatki. Tezy autorki dam w cudzysłowach, odnośniki do stron pominę. Książka mówi, „jak rosyjscy przywódcy postrzegają świat i ludzi”. Bowiem „Musimy przyjrzeć się Rosji, aby zrozumieć, czym ryzykujemy”. Celem przywódców Kremla „jest przekształcenie sceny międzynarodowej w chaos, ponieważ jest to jedyne środowisko, w którym, ich zdaniem, mogą zwyciężyć”.
K: Jak jej zdaniem wygląda dzisiejsza Rosja?
A: Thom podkreśla, że jest to społeczeństwo, w którym „praktycznie niemożliwe jest rozdzielenie przestępczości zorganizowanej i struktur siłowych reżimu”. Wiąże się to z tym, że „Rosja doświadczyła bezprecedensowej w historii ludzkości degradacji moralnej. (…) Degradację tę zorganizowali odgórnie przywódcy. Dokonali oni świadomego wyboru uczynienia swoich współobywateli gorszymi ludźmi, aby poprzez manipulowanie ich nikczemnymi namiętnościami, trwale ich zdominować”.
Obecna u przywódców Rosji „chęć szerzenia chaosu” jest „wyrazem rewolucyjnego nihilizmu, który od momentu pojawienia się w połowie wieku XIX nigdy w Rosji nie wygasł”. Thom twierdzi, że „Kreml nie pragnie zwiększenia swoich wpływów, lecz destrukcji”, gdyż Rosję trawi nienawiść do Zachodu.
K: A czy osobie Putina poświęca osobną uwagę?
A: Tak. Chcę wiernie oddać to, co ona mówi, dlatego będę używał dokładnych cytatów. Według niej Putin „Nie odczuwa potrzeby prawdy (…), nie jest w stanie postrzegać świata w kategoriach innych niż walka o władzę, a swoich relacji z innymi jako czegoś innego niż operacje manipulacji, zwodzenia, kontroli, podporządkowania i poniżania”. I „widzi w człowieku tylko podłość, wady i ułomności”. A „Jednym z najbardziej przerażających aspektów systemu Putina jest jego absolutna wiara w manipulację”. „Jego pierwsza zasada postępowania to: nigdy nie grać w otwarte karty. Putin, jak niegdyś Stalin, jest mistrzem utrzymywania w niepewności”. Dlatego też „traktuje politykę jak serię operacji specjalnych”. Jednak jego „nacjonalizm ma charakter religijny i mesjanistyczny”.
Co więcej „Putin i jego ludzie zawsze byli gotowi poświęcić prawdziwe interesy swojego kraju, dobre stosunki z obcymi mocarstwami, dla zaspokojenia nienasyconego pragnienia upokorzenia swoich rozmówców i wytknięcia im słabości”. „Putin nie jest przyzwyczajony do przegrywania. (…) żyje tylko jedną ideą: odegrać się na Ukrainie i ludziach Zachodu pociągających, według niego, za sznurki w Kijowie”. Będąc „niezdolny do empatii, Putin potrafi żywić nieustępliwą nienawiść”. A „Jako doświadczony człowiek KGB, zachowuje się jak kameleon, dostosowując się do upodobań swoich rozmówców”.
K: Widać wyraźnie irracjonalne motywy i skłonności w polityce rosyjskiej. Specjalnie wybrałeś takie fragmenty, które to pokazują?
A: Tak, ale nie musiałem bardzo ich wyszukiwać. Uważam, że pewna irracjonalność może okazać się jednym z kluczowych motywów, który, świadomie lub nie, zostanie zaszczepiony moskiewskiej AI podczas karmienia jej danymi treningowymi, jak i w czasie późniejszego dostrajania systemu.
Ta irracjonalność wcale nie kłóci się z tym, że zdaniem Thom obecne, nowe pokolenie ludzi KGB przecenia manipulację i nie rozumie, jak naprawdę działają społeczeństwa demokratycznego Zachodu.
„KGB żywiło upodobanie do stosowania strategii chaosu, prowokacji i wykorzystywania wewnętrznej niezgody. (…) Pod rządami Putina spadkobiercy KGB przejęli całą politykę zagraniczną, wprowadzając do niej swoje «środki aktywne», paranoję, teorie spiskowe i zasadniczą niezdolność do pojmowania rzeczywistości taką, jaką jest”.
Niniejszy tekst to fragment książki Katarzyny Zybertowicz i Andrzeja Zybertowicza pt. „AI Eksploracja”, wyd. Zona Zero
Czytaj też:
W sieci deepfake’ówCzytaj też:
Rząd bierze się za AI. Jest projekt aktu prawnego
Dalsze rozpowszechnianie artykułu tylko za zgodą wydawcy tygodnika Do Rzeczy.
Regulamin i warunki licencjonowania materiałów prasowych.