Ian Bremmer i Mustafa Suleyman rozpatrują problem, który dziś interesuje niemal wyłącznie tych którzy fascynują się nowymi technologiami, ale już wkrótce, nie później niż w 2035 roku jak prognozują, stanie się głównym, w skali świata wyzwaniem. Chodzi o to jak regulować rozwój sztucznej inteligencji.
Zanim opiszę tok rozumowania Autorów i główne propozycje jakie formułują warto nieco uwagi poświęcić przybliżeniu ich sylwetek. Bremmer jest znanym politologiem, autorem wielu książek, ale jego pozycję w amerykańskim establishmencie określa dziś Eurasia Group, założona przezeń jeszcze pod koniec ubiegłego stulecia firma konsultingowa zajmująca się analizowaniem ryzyka w skali świata i budowaniem prognoz. To on kilka miesięcy temu ujawnił informację o rozmowie Putina i Elona Muska, a dwa tygodnie temu jego firma, co świadczy o jej pozycji, zatrudniła Ricka Watersa, głównego do tej pory specjalistę Departamentu Stanu ds. chińskich. Z kolei Suleyman jest współzałożycielem Inflection AI, jednego z kilku podmiotów, które przodują w zakresie sztucznej inteligencji. Ta powstała w zeszłym roku jako start-up firma przed miesiącem pozyskała 1,3 mld dolarów w ramach zamkniętej emisji swoich akcji, które kupili m.in. Bill Gates, Microsoft i Nvidia. O jego pozycji świadczy też to, że przed miesiącem jego i liderów siedmiu innych firm z tej branży poprosił o rozmowę Joe Biden.
Głównym przesłaniem formułowanym przez Bremmera i Suleymana jest to, że w zakresie regulacji dotyczących przyszłości sztucznej inteligencji (AI) trzeba zacząć działać już teraz, bo w umownym 2035 roku będzie już zbyt późno. Dlaczego? Do tej pory dla określenia tempa rozwoju technologicznego posługiwano się tzw. prawem Moore’a. Jego nazwa pochodzi od nazwiska nieżyjącego już prezesa Intela, światowego lidera w produkcji mikroprocesorów. Gordon Moore prawidłowo przewidział, że światowa moc przeliczeniowa będzie podwajała się co 24 miesiące. Tempo tych zmian, co dostrzegamy na co dzień, przyczyniło się do rewolucyjnych przekształceń naszego świata. Wejście na scenę sztucznej inteligencji (AI) powoduje, jeszcze większe przyspieszenie, tak jakbyśmy przesiedli się z bryczki do odrzutowca. Jak piszą Bremmer i Suleyman „liczba obliczeń używanych do trenowania najpotężniejszych modeli sztucznej inteligencji wzrastała dziesięciokrotnie każdego roku przez ostatnie dziesięć lat. Innymi słowy, dzisiejsze najbardziej zaawansowane modele sztucznej inteligencji — znane również jako modele „graniczne” — wykorzystują moc obliczeniową pięć miliardów razy większą niż najnowocześniejsze modele sprzed dekady. Przetwarzanie danych, które kiedyś zajmowało tygodnie, teraz trwa kilka sekund.” Zbliżamy się do momentu, kiedy najbardziej zaawansowane modele będą w stanie uzyskać potencjał odpowiadający mózgowi ludzkiemu mającemu ok. 100 - 125 trylionów synaps. Ta przełomowa chwila zdarzy się, w opinii Autorów, w ciągu najbliższych 5 lat i nie będzie to ostatnia faza rozwoju sztucznej inteligencji.
Szersze możliwości militarne
Ale to nie jedyny problem. Niemal wszystkie zastosowania sztucznej inteligencji można uznać za „podwójne”, czyli takie, które zwielokrotniają możliwości militarne, a przez to wpływają na globalną relację sił. Przy użyciu sztucznej inteligencji można zorganizować system kierowania bezzałogowym transportem publicznym, ale można też rozwiązania te aplikować do pilotowania dronów czy autonomicznych pojazdów bojowych. Możliwe będzie tworzenie indywidualnych, po analizie dostępnych danych medycznych, leków, ale tym bardziej nowoczesnej broni wykorzystującej sztuczną inteligencję do stworzenia substancji zabijających w sposób adresowany czy indywidualny, a nieszkodliwych dla nikogo innego. Takich możliwości są tysiące, niektórych nie jesteśmy dziś nawet w stanie przewidzieć, ale już obecnie wielu ekspertów porównuje sztuczną inteligencję do broni jądrowej i zastanawia się nad globalnym, obejmującym cały świat systemem regulacyjnym.
Nad sztuczną inteligencją, jej rozwojem i zastosowaniem, nie będzie można zapanować realizując politykę w jednym kraju czy nawet w grupie krajów. Jak piszą „Podobnie jak w przypadku każdego oprogramowania lub kodu, algorytmy sztucznej inteligencji są znacznie łatwiejsze i tańsze w kopiowaniu i udostępnianiu (lub kradzieży) niż zasoby fizyczne. Ryzyko proliferacji jest oczywiste. Na przykład potężny model dużego języka Meta-1 Llama-1 wyciekł do Internetu w ciągu kilku dni od jego debiutu w marcu tego roku. Chociaż najpotężniejsze modele nadal wymagają zaawansowanego sprzętu do działania, wersje ze średniej półki mogą działać na komputerach, które można wypożyczyć za kilka dolarów za godzinę. Wkrótce takie modele będą działać na smartfonach. Żadna technologia o tak potężnych możliwościach nie stała się tak dostępna, tak szeroko i tak szybko.” Mamy też do czynienia z relatywnie tanią technologią, oczywiście nie chodzi o najbardziej zaawansowane rozwiązania będące w awangardzie rozwoju, ale systemy już obecne w ramach open – source. Za kilka lat ich możliwości będą znacznie większe, co oznacza, że terroryści, organizacje przestępcze czy zamierzające walczyć z porządkiem publicznym aby realizować swe założenie ideowe, uzyskają bardzo niebezpieczne narzędzie. Tak samo będzie w przypadku państw rewizjonistycznych, autorytarnych czy zainteresowanych destabilizowaniem sytuacji. Obecnie, kiedy mamy do czynienia z dużą wojną lądową w Europie i zaostrzającą się rywalizacją między mocarstwami perspektywa wykorzystania sztucznej inteligencji w celach wojskowych znacznie rośnie.
Wreszcie zmianie ulega zakres suwerenności, a nawet charakter współczesnego państwa. W Chinach, jak zauważyli Bremmer i Suleyman mamy do czynienia z „przenikaniem się” samego państwa i największych korporacji zaangażowanych w rozwój sztucznej inteligencji. Na Zachodzie, w państwach demokratycznych, sytuacja jest bardziej złożona, ale nie ulega wątpliwości, że najwięksi gracze (korporacje) w tym obszarze mogą z czasem uzyskać taką pozycję i wpływy, mogą również być w stanie manipulować procesem demokratycznym i legislacyjnym, że siła państwa rozumianego jako wspólnota polityczna będzie słabła. Czekają nas też negatywne, choć ich skala trudna jest do przewidzenia, procesy o charakterze społecznym. Tylko, że teraz pracę będą tracić „białe kołnierzyki”, ludzie stojący wyżej na drabinie społecznej, politycznie bardziej aktywni. Może to wyzwolić niebezpieczne tendencje. Paradoksem jest też to, że w państwach demokratycznych, zwłaszcza w obliczu rywalizacji z przeciwnikiem autorytarnym, władze nie mogą sobie pozwolić na nadmierne ograniczenie swobody rozwoju firm pracujących nad sztuczną inteligencją, powodować to bowiem może ryzyko przegranej. Co więcej, legislatywy, nie są przygotowane do radzenia sobie z nową sytuacją. Deputowani nie tylko zwyczajnie „nie wiedzą co się dzieje”, ale nie są też w stanie pracować tak szybko jak zmienia się środowisko kształtowane przez sztuczną inteligencję. Tradycyjna biurokracja jest tworem epoki przemysłowej i już obecnie ma problemy z radzeniem sobie w nowych czasach. Wejście do gry sztucznej inteligencji tylko te ograniczenia obnaży, co będzie odbierane przez obywateli w kategoriach bezsilności państwa, niezdolności do reagowania na trendy zmieniające nasze codzienne życie. Silni i potężni (zarówno państwa jak i korporacje) wzmocnią swoją pozycję, słabi i biedni znajdą się w sytuacji kiedy będą musieli gonić coraz szybciej oddalający się peleton. Stoimy w obliczu rozkręcającej się w coraz większym tempie sprężyny, bo jak piszą Autorzy wystąpienia „Gdy ich ogromne korzyści staną się oczywiste, systemy sztucznej inteligencji będą coraz większe, lepsze, tańsze i bardziej wszechobecne. Staną się nawet zdolne do quasi-autonomii — osiągania konkretnych celów przy minimalnym nadzorze ze strony człowieka — i potencjalnie do samodoskonalenia. Każda z tych cech stanowiłaby wyzwanie dla tradycyjnych modeli rządzenia; wszystkie razem czynią te modele beznadziejnie nieadekwatnymi”.
AI jak broń jądrowa?
Rozwiązanie regulacyjne, po to aby uchronić społeczeństwa przed negatywnymi skutkami rozwoju sztucznej inteligencji porównywane są często do porozumień w zakresie nierozprzestrzeniania broni jądrowej. Tylko, że jak zauważają Bremmer i Suleyman „systemy sztucznej inteligencji są nie tylko nieskończenie łatwiejsze do opracowania, kradzieży i skopiowania niż broń jądrowa; są kontrolowane przez prywatne firmy, a nie rządy. Ponieważ nowa generacja modeli sztucznej inteligencji rozprzestrzenia się szybciej niż kiedykolwiek, porównanie nuklearne wydaje się coraz bardziej nieaktualne.”
Ich zdaniem niezbędne kroki należy podjąć już teraz. Muszą one mieć charakter powszechny, obejmować wszystkie państwa, nawet i te walczące ze sobą, które powinny zacząć uprawiać politykę samoograniczania. Po drugie w ciałach regulacyjnych, a proponują oni stworzenie trójdzielnego systemu, muszą znaleźć się przedstawiciele największych korporacji, bo one już obecnie mają więcej do powiedzenia niż niektóre rządy. W sposób oczywisty tego rodzaju zmiana doprowadzi do redefinicji pojęcia suwerenności państwowej, zmieni proces polityczny i doprowadzi do rozwarstwienia odpowiedzialności a przez to pozycji i wpływów. Tak jak dziś uważa się, że bankierzy w wymiarze globalnym odpowiadający za stabilizację finansową mają nadmierną władzę, tak nowe gremia, regulujące dostępność i kierunki rozwoju najpotężniejszej i kształtującej życie każdego człowieka na ziemi technologii, będą miały nieporównywalnie większą władzę. Tę władzę trudno będzie ograniczyć bo czynnik merytokracji odegra w tym wypadku decydująca rolę. Nie można też dążyć do regulowania wszystkiego, tak się po prostu nie da funkcjonować. Autorzy wystąpienia proponują wdrożenie zasady, którą nazwali oni „technoroztropnością” (technoprudentalism), czyli rezygnację z dążenia do omnipotencji administracyjnej a jedynie próbę kontroli obszarów ryzyka, które musza najpierw zostać zdiagnozowane i zdefiniowane. Prócz tego, jak piszą „Oprócz objęcia całego globu zarządzanie sztuczną inteligencją system ten musi obejmować cały łańcuch dostaw — od produkcji sprzętu, oprogramowania, po usługi i od dostawców po użytkowników.”
Mają oni nadzieję, że skala wyzwań i zagrożeń w związku ze sztuczną inteligencją doprowadzi do opamiętania i podjęcia próby wyłączenia tej domeny z obszaru, na którym toczy się globalna rywalizacja o prymat. Ten optymizm Autorów wart jest dostrzeżenia, choć dziś nie wydaje się abyśmy mogli liczyć na przełom, który na dodatek musi się dokonać w ciągu najbliższych 12 lat. Wydaje się, że racjonalniej jest spodziewać się dalszego wyścigu, co oznacza, że zagrożenia opisywane przez Bremmera i Suleymana raczej na pewno ujawnią się w nadchodzących latach. Trzeba się zacząć przygotowywać do walki z nimi już teraz, tym bardziej że nie do końca zdajemy sobie sprawę z tego, jaki one będą mieć charakter.
Publikacja dostępna na stronie: https://wpolityce.pl/swiat/659211-sztuczna-inteligencja-w-globalnej-rywalizacji-mocarstw