Konstrukcja człowieka utrudnia ocenę wagi zdarzeń, które go przekraczają. Tak nas wyposażyła biologia. Wiele wytworów cywilizacyjnych nas przewyższa intencjonalnie, bo do tego zostały stworzone. Technicznie jednak dopiero AI zdobywa możliwość ‘samorozwoju’ bez naszej kontroli . Dotychczas ‘na upartego’ można było ignorować proces, który w wyniku miniaturyzacji krzemowej zmieniał świat. Mustafa Suleyman należy do grona ludzi, którzy odpowiadają za zjawisko będące już nie ciekawostką czy zbiorem oprogramowania i sprzętu komputerowego do ułatwiania nam życia. Jako manager w kilku kluczowych firmach Doliny Krzemowej przyczynił się do konieczności przewartościowania możliwych trendów w globalizacji. Wraz z Michaelem Bhaskarem (*) w 2023 napisał zaangażowaną społecznie książkę „Nadchodząca fala” dla przybliżenia blasków, cieni i poważnych zagrożeń, które ze sobą niesie AI. Tekst obarczony jest licznymi mankamentami, ale i dość precyzyjnie dotyka chyba bardzo ważnych kwestii.
W książce na szczególną uwagę zasługuje przede wszystkim opis cech AI, które sprawiają że może być niebezpieczna. Jest ekspansywna, powabna komercyjnie, atrakcyjna w wypełnianiu ludzkich braków formalnych, coraz bardziej powszechna, uzależniająca, pozornie niewinna, rozproszona, prawnie nieskodyfikowana, na poziomie państw przemilczana i zupełnie pozbawiona aksjologii, która część ludzi powstrzymuje przed przestępstwami. W skrócie książkę można podzielić na kilka grup tematycznych. Najciekawsza dotyczy pół-techniczych opisów procesu rozwoju AI w XXI wieku. Tylko nieco słabiej wypadły analizy kluczowych pól zastosowania AI oraz dość szeroko podane jej atuty i dobrodziejstwa. Zbyt rozwlekle Suleyman poprowadził opowieść w obszarze możliwych zagrożeń. Sama końcówka tekstu, jako próba przybliżenia wymaganych kroków do zabezpieczenia się ludzi przed negatywnymi konsekwencjami rozwoju AI wydała mi się ważna, choć wyłożona dość nieatrakcyjnie.
Tytułowa fala, to czekające nas niebezpieczeństwo związane z niekontrolowanym wzrostem możliwości AI. Posiłkując się analogiami z historii ludzkiej cywilizacji, Suleyman antycypuje przyszłość dokładając fakty niespotykanego tempa rozwoju sztucznej inteligencji z przykładami robiącymi wrażenie:
„W 1958 roku firma Fairchild Semiconductor sprzedała sto tranzystorów po sto pięćdziesiąt dolarów za sztukę – dziś urządzenia te są produkowane w tempie dziesiątek bilionów na sekundę, po jedną miliardową dolara za egzemplarz: to najszybsze i największe pod względem zasięgu upowszechnienie w historii.”
W tym kontekście wydaje mi się, że autor zbyt płytko przepracował mechanizmy skali. Nie chodzi o to, że AI będzie szybciej coś liczyła, łatwiej zbierała elementy wiedzy i informacji, ale że zasobami żonglowanymi w nanosekundach wyeliminuje nasze walory estetyczno-emocjonalne zastępując własnymi (a dokładniej – my je przyjmiemy jako własne). Jednocześnie przedsiębiorca bardzo dobrze opisał własne napięcie ostatnich lat – mieszankę ekscytacji i rosnącego przerażenia – z możliwości LLM-ów (systemów językowych jak ChatGPT). Przy okazji sformułował sporo ciekawych ogólnych zasad, które budują ten pozorny cud interaktywnej inteligencji chatbotów wynikający z połączenia w branży IT sieci neuronowych i głębokiego uczenia się z sekwencyjnością ludzkich języków. Szeroki wachlarz bezpośrednich konsekwencji dla człowieka zanurzonego w Internecie, to ciekawie skomponowana wizja. Ponieważ Suleyman taki drobny choć niepokojący przykład możliwości AI opisał w dość długim wywodzie, to przedstawię próbkę czekającej nas hipotetycznej sytuacji (jak sugeruje autor, za kilka lat w związku z rosnącymi możliwościami podejmowania decyzji kompleksowych, kreatywnych i wielopoziomowych przez AI ) w wersji skompresowanej:
<AI zarób dla mnie milion $ na Amazonie wydając w tym celu co najwyżej 100 tysięcy $ w jak najkrótszym czasie, wykorzystując luki w prawie patentowym dowolnego kraju. Zbuduj i zaimplementuj w tym celu w pełni zgodne z prawem formalne kroki. Zastosuj drapieżną kampanię marketingową sondując ludzkie trendy, preferencje i słabości konsumpcyjne.>
W zasadzie ten przykład mnie przeraził. ALE. Biorąc pod uwagę kilka faktów, które umykają korporacyjnym Harpagonom, warto się zastanowić nad sytuacją, gdy miliard ludzi jednocześnie ‘poprosi AI’ o taki prezent finansowy. Poza tym chciwość sugeruje, że nim ‘lud’ uzyska dostęp do możliwości zarobkowania w ten sposób, wtajemniczeni w możliwości skrupulatnie sami z tego skorzystają. A jak wiadomo pieniądze nie rodzą się z resztek jedzenia i powietrza (jak pierwsi przyrodnicy zakładali o muszkach owocowych), a jeśli już to w inflacyjnym galopie, czyli bez wartości.
Z kolejnymi rozdziałami pojawiają się zagrożenia różnej natury – na poziomie bezpieczeństwa (broń ABC), państwowych niedemokratycznych reżimów, sekt światopoglądowo ukierunkowanych na osiąganie celu wszelkimi środkami, rewolucji w obszarze aktywności zawodowej ludzi, itd. Zgadzam się z autorem i jego opisem świadomości, która nie jest źródłem zasadniczego niebezpieczeństwa:
„W tej chwili nie ma znaczenia, czy system jest samoświadomy, zdolny do rozumienia ani czy ma inteligencję podobną do ludzkiej. Liczy się tylko to, co ten system potrafi. Jeśli skupimy na tym uwagę, naszym oczom ukaże się prawdziwe wyzwanie: systemy z każdym dniem potrafią coraz więcej.”
Wszystkie cechy fali AI stanowią źródło możliwości ale i niebezpieczeństwa jeżeli, jak pokazuje autor, nie dojdzie szybko do ponadnarodowych ustaleń. Zgadzam się z trafnym porównaniem do przejścia fazowego, które w fizyce rozumie się jako niemal natychmiastową nieciągłość i rekonfigurację obiektu w stan o innych właściwościach (np. krzepnięcie wody). Wspomina o procedowanym tzw. ‘AI Act’ (**), który od strony formalnej ma być prekursorskim przykładem jednego z wielu potrzebnych nam zabezpieczeń systemowych przed niekontrolowanym bytem sprzecznym z interesami jednostek i zbiorowości demokratycznych.
Czytanie nieco utrudniała mi megalomania Suleymana, który z manierami typowymi dla korporacyjnego wyższego kierownictwa, kreśli wizje w obszarach, w których jego kompetencja eksponencjalnie gaśnie. Stąd fragmenty o AI wobec komputerów kwantowych i bioinżynierii traktuję wręcz z przymrożeniem oka. Na szczęście poświecił tym zagadnieniom niewiele miejsca. Pewne ekstrapolacje, próby zgadywania kierunków transformacji rynku wydają mi się zbyt mgliste. Nie biorąc pod uwagę zjawisk emergentnych, kryzysu zasobów pierwiastków rzadkich, klimatycznych uwarunkowań i niezbędnej energetycznej bazy dla AI (***), zbyt wiele zmiennych pozostawia w stanie przypuszczeń.
„Nadchodząca fala” ma walor informacyjny. Jest w dużej części zestawem pożądanych kroków do wykonania przez każdego wobec AI, apelem do decydentów o głęboki namysł i budowanie mechanizmów zabezpieczających przed niekontrolowaną ekspansją sztucznej inteligencji. Suleyman uważa, że teraz świat nie jest gotowy na najbardziej prawdopodobny kierunek ewolucji AI. Stad zachęca do wysiłku by ten stan zmienić. Trochę nie wprost buduje nieciekawy obraz korporacji, które koszty społeczne narastające równolegle do własnej prosperity ignorują ostentacyjnie:
„Tak silne procesy koncentracji władzy umożliwią wielkim, zautomatyzowanym megakorporacjom transferowanie wartości z kapitału ludzkiego – pracy – do czystego kapitału. Jeśli zsumujemy wszystkie nierówności wynikające z takich procesów koncentracji, otrzymamy kolejne wielkie przyspieszenie i strukturalne pogłębienie istniejącego pęknięcia.”
„Współczesna cywilizacja wypisuje czeki dające się realizować wyłącznie za sprawą nieustannego rozwoju technologicznego. Cały jej gmach opiera się na idei wzrostu gospodarczego w długiej skali czasu.”
W pewnym stopniu książka jest przegadana. Sporo przemyśleń obarczona jest moimi znakami zapytania. Ponieważ jednak jest dość aktualna i zawiera opis ‘człowieka z wewnątrz’, uznaję czas poświęcony lekturze za niezmarnowany. Szczególnie zachęcałbym do jej lektury tych, którzy ufnie patrzą w przyszłość możliwości AI, zwłaszcza jeśli atrakcyjność pozornie darmowej dostępności do ‘fajnych narzędzi budujących ego’ wymienili za prywatność i prawo do trenowania własnego mózgu niezależnie od możliwości dostępnych smartfonem. Jest nad czym myśleć.
DOBRE z minusem - 6.5/10
=======
* Ponieważ sam Suleyman często pisze w pierwszej osobie, a i okładkowa wielkość czcionki nazwiska współautora sugeruje jego mniejszy wkład, potraktuję byłego szefa DeepMind za właściwego autora publikacji.
** Książka jest nieaktualna (bo doprowadzona do połowy 2023, co brzmi dziwnie, ale w tej tematyce dekady kompresują się do miesięcy) i zawiera informacje że prace nad pierwszym tego typu kompleksowym uregulowaniem trwają. Tłumacz dopowiedział, że 13.03.2024 Parlament Europejski zatwierdził AI Act. A my wiemy, że 21.05.2024 Rada EU przyjęła te przepisy. Teraz potrwa z … 2 lata, gdy wejdą w życie. Pól żartem – może być tak, że sama AI zdąży się tak rozwinąć, że w dużym stopniu te przepisy będą nieadekwatne.
*** Kilka miesięcy temu systemy LLM, które ‘zasysają’ dane do szkolenia się, potrzebowały tyle prądu, co zużywa cała Holandia. W takim tempie zapotrzebowania na zasoby, by utrzymać wykładniczy postęp, ‘za chwilę’ będzie wymagać czegoś, co wykracza poza fizykę, taką jak ją rozumiemy. Do tego jednak nie jest tak, że AI można wydać polecenie: ‘zbuduj sobie narzędzia do pobierania ze Słońca wystarczającej ilości energii’.