Sztuczna inteligencja (AI) jest jak wszędobylski mem. Ktoś ją widział, inny się jej boi, wielu na niej zarabia. W zasadzie nie ma przed tym odwrotu. Można to oswoić, wręcz wypada zrozumieć procesy społeczne z AI związane. Jednak jej pełne ujarzmienie techniczne, to już dla wybranych i to we fragmentach, bo ‘czarna skrzynka’ zasad jej działania to domena noblistów (*). Trójka profesorów – socjolożka Jana Schaich Borg, informatyk Vincent Conitzer i etyk Walter Sinnott-Armstrong – w swojej książce spojrzała na AI krytycznie i z nadzieją. Skupili się akademicy na opisaniu zadań dla człowieka, który powinien ją formować dla własnych potrzeb. „Moralna AI. Czy bać się sztucznej inteligencji” jest niekonwencjonalnym sposobem podejścia do tematu. Z reguły autorzy na poziomie popularnym skupiają się na kilku aspektach. Przybliżają para-informatycznie jej zasady. Inni opisują konkretne dobrodziejstwa czy wpadki. Jeszcze inni pokazują ludzką naiwność w interakcji z AI. Tu jest po trochu wszystko. Celem jest jednak pokazanie pewnego trudnego zagadnienia, dość nowatorskiego – jak sprawić, by AI była nam przyjazna, czyli realizowała etyczne cele pożądane przez człowieka? Autorzy sprawnie przedstawili ten trudny temat. Pokusili się o garść pogłębionych obserwacji. Nieco zbagatelizowali kilka haseł absorbujących kognitywistów, jak ‘cel’ i ‘rozumienie’. Jednocześnie pokazali konkretne techniki potrzebnej pracy z AI – biznesowi, władzom czy jednostkom w prywatnym kontakcie z maszynami – by pilnować jej ewolucji.
Doceniając trud w zmierzeniu się ze zgrzytem w haśle ‘aksjologizacja AI’, zacznę od kilku minusów po lekturze. Autorzy czerpią nadzieję z faktu, że AI nie myśli, nie jest kreatywna, nie ma celu i nie rozumie (np. str. 50-51, 58-59). Mnie martwi za to takie ich stanowisko, z którego wynika, że brak im wyobraźni wyjścia poza antropocentryzm. AI może posiadać umysłowe przymioty podobne do naszych, może mieć inne, albo wcale. Z jednej strony, nasza ‘złożoność poznawcza’ jest jednak redukowalna do prostych zasad dyskretnego procesu, który może być nieosiągalny dla AI. Z drugiej, to jednak nie musi mieć znaczenia. Wystarczy, że mamy ludzi zawistnych, zachłannych, socjopatycznych, dostatecznie wpływowych i majętnych, by nam wyrządzić krzywdę taką wersja AI, która ‘nawet nie stała obok świadomości’. Tak ująłbym hasłowo całą klasę zagadnień, które w książce mają swoje dyskusyjne konsekwencje w różnych konfiguracjach tematycznych. Na szczęście próby formułowania remediów na negatywne konsekwencje istnienia AI w obszarze etyki, podane zostały interesująco.
Przepracowując kilka haseł – ‘bezpieczeństwo’, ‘prywatność’, ’sprawiedliwość’, ’odpowiedzialność’ – grono profesorskie poszukało kilku węzłowych alternatyw, które mogą nas w interakcji z AI zaprowadzić w dobrym lub złym kierunku. Zaprezentowane szczegółowo sfery życia, w których AI się ‘rozsiadła’ – medycyna, wojskowość, sadownictwo – stanowią punkt wyjścia do rekapitulacji ludzkiej etyki uwzględniającej AI, jako czynnika zaburzającego klasyczne dylematy. W zasadzie całe dwa rozdziały – o kontrowersjach związanych z autonomicznymi pojazdami (i faktem pojawienia się wypadków śmiertelnych na drogach z ich udziałem), o subtelnościach medycznych i decydowaniu o biorcach narządów, którzy w pierwszej kolejności powinni się doczekać przeszczepu – to prowokacje intelektualne do dyskusji o moralności z udziałem AI. Przy okazji dostajemy ciekawe opisy biznesowych etapów wdrażania AI (str. 298-305) i bardzo przydatny, nie tylko dla kierownictwa korporacji, opis oswajania się w banalnej prozie życia z maszynami, takimi ‘zdecydowanie bystrymi’. Przy okazji autorzy bardzo trafnie zdiagnozowali permanentny problem twórców AI, którzy niekompatybilnie pracują tylko nad sobie znanymi fragmentami ‘życia AI’ (z tymi głównymi – algorytmy, systemy uczące, programy oferowane użytkownikom) – i ignorują kolejne poziomy produktu. W efekcie komplikuje się problem odpowiedzialności etycznej i prawnej za szkody z udziałem AI. Za wszystkim, co negatywne, stoi zysk i ludzkie lenistwo. Autorzy pokazują dobitnie, że AI nie może być lepsze w etyce, niż nieetyczni ludzie, którzy ją rozwijali.
W krótkim podsumowaniu zagrożeń różnej natury, w szczególności wynikających z dezinformacji, z problemów subiektywnego doboru danych na których AI się uczy, z niemożliwości pełnego przetestowania funkcjonalności, okazuje się, że nieuchronnie skazani jesteśmy na inżynierie społeczne. „Moralna AI” jest w tym zakresie zestawem dobrych rad do wdrożenia przed, w trakcie i po ‘rozlaniu się mleka’. Sporo optymizmu wiąże jej przesłanie z naszą sprawczością (str. 366):
„Nawet jeśli w przyszłości jakaś sztuczna inteligencja przejmie ostatecznie kontrolę nad światem, to my będziemy musieli najpierw ją stworzyć. Zatem dalszy przebieg tej historii będzie zależał w równym stopniu od decyzji etycznych podejmowanych przez ludzi i naszej inteligencji moralnej, jak i od decyzji podejmowanych przez systemy komputerowe i sztuczną inteligencję.”
Widać, że autorzy pomijają wizje nieciągłości możliwości AI i ‘skoku jakościowego’, którego prawdopodobieństwo zaistnienia w postaci hasła ‘osobliwość’ wieszczą niektórzy. Zapewne chodziło im, w głównym wątku pracy, o pokazanie praktycznych rozwiązań i możliwych do wdrażania procesów w galopującym postępie, by zwiększyć szansę na kontrolę świata AI. To chyba najciekawsza lekcja z lektury. Słusznie zakładają profesorowie, że czas na teoretyzowanie już minął, szczególnie dla ‘zwykłych ludzi’, których AI testuje w ich banalnej zabieganej codzienności.
„Moralna AI” jest humanistycznym spojrzeniem na niemożliwy do pełnego określenia świat sztucznej inteligencji. Ten humanizm nie tylko wynika z dyskusji nad moralnością definiującą człowieka, ale z karkołomnego zadania dla cywilizacji, by rozszerzyć etykę ujętą w zasadach budowanych przed erą cyfryzacji. Język autorów jest równy (co w przypadku kilku twórców nie jest łatwe). Unika technicznych detali i skupia się na praktycznych konsekwencjach zarówno zaniechań w aplikowaniu AI jak i w pędzie do jej zaprzęgania w różne sfery życia. Do lektury wypada zachęcać każdego, bo wszyscy bezpośrednio i pośrednio używamy AI.
DOBRE – 7/10
=======
* 8.10.2024 Nobla z fizyki dostało dwóch badaczy sieci neuronowych, czyli jednego z najważniejszych składników uczenia maszynowego na którym AI uzyskuje rację bytu. Tylko czemu nagroda z fizyki?