HENRY A. KISSINGER -
pokojowa Nagroda Nobla
Trzy lata temu w
programie konferencji poświęconej kwestiom transatlantyckim
pojawił się temat sztucznej inteligencji. Poważnie rozważałem, czy
nie pominąć tej sesji, gdyż wykraczała poza obszar moich
zainteresowań, jednak początek prezentacji przyciągnął moją uwagę.
Mówca opisywał funkcjonowanie programu komputerowego, który
wkrótce miał zmierzyć się z międzynarodowymi mistrzami gry go.
Zdumiało mnie, że komputer w ogóle potrafi opanować jej zasady
-
to jest bardziej skomplikowane od szachów. Dwaj zawodnicy na
przemian kładą na pustej początkowo planszy kamienie
(każdy ma ich
180 lub 181, zależnie od wybranego koloru). Wygrywa ten, kto
podejmuje lepsze decyzje strategiczne i dzięki skuteczniejszemu
panowaniu nad terytorium odbiera rywalowi możliwość ruchu.
Prelegent utrzymywał, że owej zdolności nie dałoby
się zaprogramować. Jak twierdził, maszyna nauczyła się gry w go
samodzielnie, poprzez doświadczenie. Rozegrała olbrzymią liczbę
partii sama ze sobą, wyciągała wnioski z pomyłek i odpowiednio
ulepszała algorytmy. Z czasem przerosła swych mistrzów
- ludzi.
Kilka miesięcy po konferencji wykorzystujący sztuczną inteligencję
program AlphaGo odniósł miażdżące zwycięstwo nad najwybitniejszymi
światowymi graczami.
Gdy słuchałem prelegenta opiewającego postęp
technologiczny, zebrało mi się na rozważania. Jako historyk i
człowiek od czasu do czasu parający się polityką zastanawiałem
się, jaką rolę w dziejach odegrają maszyny zdolne do samouczenia,
pozyskujące wiedzę w szczególny, sobie tylko właściwy sposób i
wykorzystujące ją w celach, których ludzie być może nigdy nie
zdołają zrozumieć. Czy owe maszyny zaczną komunikować się między
sobą? W jaki sposób będą podejmowały decyzje? Czy to możliwe, że
ludzkość skończy jak Inkowie, którzy nie potrafili pojąć kultury
hiszpańskich kolonizatorów? Czy stoimy u progu nowej epoki?
Zdając sobie sprawę z moich ograniczonych
kompetencji w tym zakresie, zorganizowałem cykl nieformalnych
debat i spotkań. Korzystałem z wiedzy i pomocy znajomych, zarówno
humanistów, jak i osób zajmujących się nowymi technologiami. W
efekcie moje obawy tylko się nasiliły.
Do tej pory wynalazkiem, który w największym
stopniu odmienił bieg nowożytnej historii, była powstała w XV
wieku prasa drukarska. Dzięki niej poszukiwania wiedzy empirycznej
zastąpiły doktrynę liturgiczną, a Wiek Religii musiał stopniowo
ustąpić Wiekowi Rozumu. Nauka, indywidualne dociekania oraz
odkrycia zajęły miejsce wiary, stając się dla ludzkiej świadomości
głównym kryterium poznania. W coraz szybciej rozrastających się
bibliotekach zaczęto gromadzić i systematyzować informacje. To
właśnie Wiek Rozumu zrodził idee i trendy, które ukształtowały
obecny globalny porządek.
Nowa rewolucja technologiczna ten porządek
zachwiała, nie potrafimy się zmierzyć z jej skutkami. W efekcie
pewnego dnia możemy obudzić się w świecie maszyn
- napędzanych
danymi i algorytmami, obojętnych na normy etyczne czy
filozoficzne.
żyjąc w epoce internetu,
mierzymy się z problemami, które wraz z rozwojem sztucznej
inteligencji tylko się pogłębią. Oświecenie chciało poddać
tradycyjne reguły osądowi wyzwolonego, analitycznego umysłu, w
internecie natomiast wiedza zostaje usankcjonowana poprzez
gromadzenie nieustannie przyrastających informacji i manipulowanie
nimi. Ludzkie poznanie traci wymiar osobisty. Człowiek jest
redukowany do danych, a dane zyskują władzę.
Użytkownicy internetu przedkładają pozyskiwanie
i przetwarzanie informacji ponad ich kontekstualizację czy też
namysł nad ich znaczeniem. Rzadko kiedy
oddają się dociekaniom historycznym lub filozoficznym - z reguły
pożądają informacji istotnych z punktu widzenia swoich bieżących,
praktycznych potrzeb. W ramach owego procesu algorytmy
wyszukiwarek zyskują zdolność przewidywania preferencji
poszczególnych osób i personalizowania wyników, które następnie
udostępniane są innym podmiotom w celach politycznych albo
komercyjnych. Prawda staje się kwestią
względną, informacja zyskuje prymat nad mądrością.
Media społecznościowe zalewają użytkowników masą
opinii, zniechęcając tym samym do introspekcji. Tak naprawdę
wielu entuzjastów nowych technologii wykorzystuje sieć, by
uniknąć budzącej trwogę samotności.
Wskutek tego wszystkiego słabnie hart ducha
niezbędny, by podążać własną, osobną drogą, co wszak stanowi
istotę kreatywności.
Technologia internetowa wywiera też szczególny
wpływ na politykę. Jej zdolność docierania do społecznych
mikrogrup zniszczyła dotychczasowy konsensus w kwestii tego, co
ważne, bo pozwoliła na przekierowanie uwagi na konkretne,
partykularne interesy. Przywódcy
polityczni, zasypywani roszczeniami dotyczącymi niszowych
problemów, nie mają czasu na odpowiedni namysł, dostrzeżenie
szerszego kontekstu, na wypracowanie własnej wizji.
Obecność w świecie cyfrowym wymaga szybkich
reakcji i utrudnia refleksję. Jego reguły sprzyjają
radykalizmowi, nie zaś roztropności; jego wartości kształtują
się pod wpływem konsensusu małych grup, a nie na drodze namysłu.
Świat cyfrowy ma wiele dobrych stron, lecz może stać się
zagrożeniem dla samego siebie, logika jego działania może wziąć
górę nad jego zaletami.
internet i przyrost mocy
obliczeniowej pozwalają na gromadzenie i analizowanie ogromnych
ilości danych, co otworzyło zupełnie nowe perspektywy dla
ludzkiego poznania. Bodaj najważniejsza z nich wiąże się z
projektem stworzenia sztucznej inteligencji, czyli technologii
zdolnej opracowywać i rozwiązywać złożone, abstrakcyjne problemy
poprzez naśladowanie działania ludzkiego umysłu.
Nie sprowadza się to wyłącznie do automatyzacji,
ta bowiem dotyczy środków: pozwala skuteczniej osiągać określone
rezultaty dzięki usprawnieniom lub mechanizacji. Natomiast
sztuczna inteligencja zajmuje się efektami, sama wyznacza sobie
cele. Jest przy tym z natury niestabilna, gdyż logika jej
systemów polega na nieustannej zmienności, ciągłym pozyskiwaniu
nowych danych, błyskawicznym ich analizowaniu i
samoulepszaniu na tej podstawie. W owym procesie sztuczna
inteligencja zyskuje zdolności, które dotąd uważano za właściwe
wyłącznie człowiekowi. Podejmuje strategiczne decyzje, czasem na
podstawie danych otrzymanych w postaci kodu (na przykład reguł
gry), czasem na podstawie danych pozyskanych samodzielnie (na
przykład dzięki rozegraniu miliona partii go).
Dobrym przykładem różnicy między działaniem
sztucznej inteligencji a działaniem tradycyjnych komputerów,
kontrolowanych przez człowieka i software, są pojazdy
autonomiczne. Kierowanie samochodem wymaga podejmowania decyzji
w niezliczonych sytuacjach, których nie da się z góry
przewidzieć ani zaprogramować. Użyję tu dobrze znanego
hipotetycznego przykładu - co by się stało, gdyby samochód
musiał wybrać, czy zabije dziecko, czy też starszą osobę?
Kto poniósłby śmierć? Dlaczego akurat ta osoba? Jakie czynniki
zostałyby uwzględnione w dokonywaniu optymalnego wyboru? Czy
samochód potrafiłby uzasadnić swą decyzję? Gdyby umiał się
komunikować, powiedziałby pewnie: "Nie wiem, dlaczego dokonałem
takiego wyboru (bo kieruję się regułami matematycznymi, a nie
ludzkimi)" albo "I tak byście nie zrozumieli (bo nauczono mnie
działać w określony sposób, ale nie nauczono mnie tłumaczyć
dlaczego)". Mimo to najprawdopodobniej w ciągu następnej
dekady pojazdy autonomiczne rozpowszechnią się na drogach.
Badania nad sztuczną inteligencją, dotychczas
ograniczone do konkretnych obszarów działania, teraz
zaczynają koncentrować się na systemach "ogólnie
inteligentnych", zdolnych do działania na rozmaitych polach.
W niedalekiej przyszłości coraz większy odsetek ludzkiej
aktywności będzie sterowany przez algorytmy sztucznej
inteligencji. Jednak algorytm to jedynie matematyczna
interpretacja zaobserwowanych danych. Nie wyjaśnia
rzeczywistości, w której owe dane powstają. Paradoksalnie
świat będzie się stawał zarazem coraz bardziej transparentny i
coraz bardziej tajemniczy. Czym będzie się różnił od tego,
który znamy? Jak będzie wyglądało nasze życie? W jaki sposób
zapanujemy nad sztuczną inteligencją, usprawnimy ją lub
przynajmniej zadbamy, by nie wyrządzała szkód? A przede
wszystkim: jak unikniemy najgorszego, czyli sytuacji, w której
sztuczna inteligencja opanuje pewne umiejętności szybciej i
lepiej niż człowiek, co sprawi, że stracimy na znaczeniu i
zostaniemy zredukowani do zbiorów danych?
sztuczna inteligencja przyczyni
się do rozwoju medycyny, będzie niesłychanie użyteczna w
dostarczaniu czystej energii, ochronie środowiska i na wielu
innych obszarach. Ponieważ jednak dokonuje osądów dotyczących
zmiennej, nieprzesądzonej jeszcze przyszłości, nieusuwalnym jej
elementem są niepewność i niejednoznaczność. Wynikają stąd trzy
szczególne obawy.
Po pierwsze: zastosowanie sztucznej
inteligencji może mieć nieprzewidziane skutki. W utworach z gatunku
science fiction od dawna kreślono scenariusze, w których AI zwraca
się przeciwko swym twórcom. Bardziej jednak prawdopodobne jest, że
po prostu błędnie zinterpretuje ludzkie polecenia, gdyż z samej
swej natury nie zna ich kontekstu. Słynny przykład z niedalekiej
przeszłości to chatbot Tay. Miał on generować sympatyczną
konwersację, wykorzystując wzory charakterystyczne dla języka
dziewiętnastoletniej dziewczyny. Maszyna nie potrafiła jednak
zrozumieć reguł "przyjaznego" i "akceptowalnego" języka
zainstalowanego przez programistów - zamiast tego jej odpowiedzi i
reakcje stały się rasistowskie, seksistowskie i skandaliczne.
Niektórzy znawcy twierdzą, że eksperyment został niewłaściwie
przeprowadzony. Mimo to dobrze ilustruje on zasadniczą kwestię:
do jakiego stopnia da się sprawić, by sztuczna inteligencja
rozumiała kontekst wydawanych jej poleceń? Jak można było pomóc
Tay, by sama nauczyła się definiować, co jest "obraźliwe", skoro
ludzie również nie są przecież zgodni co do definicji tego pojęcia?
Czy da się na odpowiednio wczesnym etapie poprawić program sztucznej
inteligencji, którego działanie nie spełnia naszych oczekiwań? A
może sztuczna inteligencja pozostawiona sama sobie nieuchronnie
zacznie dokonywać pewnych drobnych odstępstw, te zaś z czasem
skumulują się i dadzą katastrofalny rezultat?
Po drugie: niewykluczone, że nawet
jeśli sztuczna inteligencja osiągnie wyłącznie zamierzone cele,
doprowadzi przy okazji do zmiany ludzkich procesów myślowych oraz
ludzkich wartości. AlphaGo pokonała wybitnych graczy, stosując
nieznane dotąd strategie. Podejmowała decyzje, jakie nikomu
wcześniej nie przychodziły do głowy. Obecnie zawodnicy nie potrafią
się przed nimi bronić. Czy wyzwanie to wykracza poza możliwości
ludzkiego mózgu? A może z czasem człowiek zrozumie strategie
zademonstrowane mu przez nowego mistrza?
Zanim sztuczna inteligencja zaczęła
grać w go, zawodnicy stawiali sobie różne cele. Gracz pragnął nie
tylko zwyciężyć, ale też opanować nowe strategie, mające potencjalne
zastosowanie w innych sferach życia. Natomiast sztuczna inteligencja
chce jedynie wygrywać. "Uczy się" w sposób nie konceptualny, lecz
matematyczny, poprzez nieustanne korygowanie swoich algorytmów.
Zwycięża w go, bo gra inaczej niż ludzie, a przy tym zmienia
zarówno istotę gry, jak i jej oddziaływanie. Czy tego rodzaju
jednotorowe myślenie zawsze będzie charakteryzowało sztuczną
inteligencję?
Inne systemy sztucznej inteligencji
wpływają na zmiany w ludzkim myśleniu dzięki generowaniu określonych
odpowiedzi na pytania. Oprócz pytań dotyczących faktów (na przykład
"Jaka dziś temperatura na dworze?") istnieją też głębsze pytania
- o naturę rzeczywistości albo sens życia. Czy chcemy, aby
dzieci poznawały wartości za pośrednictwem nieposkromionych
algorytmów? Czy powinniśmy chronić naszą prywatność,
uniemożliwiając sztucznej inteligencji uczenie się zbyt wiele na
temat osoby stawiającej pytanie? A jeśli tak, to jak to osiągnąć?
Skoro sztuczna inteligencja uczy się
wykładniczo szybciej niż człowiek, musimy oczekiwać, że również
w postępie geometrycznym będzie u niej przebiegał charakterystyczny
dla ludzkiego poznania proces nauki metodą prób i błędów. W związku
z tym będzie też znacznie szybciej popełniała błędy
- i to błędy
o poważnych konsekwencjach. Możliwe że - wbrew zapewnieniom
badaczy - nie da się temu zapobiec przez wprowadzanie ograniczeń
programowych, dopuszczających wyłącznie "etyczne" lub
"rozsądne"
wyniki. Wiele dyscyplin akademickich powstało wszak na skutek sporów
o to, czym w ogóle jest "etyczność" lub "rozsądek". Czy sztuczna
inteligencja powinna stać się arbitrem w tej kwestii?
Po trzecie: nawet jeśli sztuczna
inteligencja osiągnie zamierzone cele, być może nie będzie
potrafiła uzasadnić swych działań. W pewnych obszarach jej zdolności
już teraz przekraczają możliwości człowieka. Wkrótce, w miarę
przyrostu mocy obliczeniowej, będzie mogła przeprowadzać
optymalizacje w inny sposób niż ludzie - prawdopodobnie znacząco
inny. Czy zdoła nam wówczas wytłumaczyć, dlaczego te akurat
działania są optymalne, czy też jej procesy decyzyjne będą dla
nas zbyt skomplikowane i niedające się opisać ludzkim językiem?
Wszystkie ludzkie cywilizacje istniejące w ciągu wieków tworzyły
własne sposoby objaśniania świata. W Średniowieczu rolę tę odgrywała
religia, w Oświeceniu rozum, w XIX wieku
historia, w wieku XX zaś - ideologia. Najtrudniejsze, a zarazem
najważniejsze pytanie na temat przyszłości, ku której zmierzamy,
brzmi następująco: jaki los czeka ludzką świadomość, jeśli
sztuczna inteligencja zyska większą zdolność tłumaczenia
rzeczywistości i społeczeństwa nie będą już mogły interpretować
otaczającego ich świata w dostępnych dla człowieka kategoriach?
Jak w ogóle definiować świadomość w świecie maszyn, które
sprowadzają ludzkie doświadczenie do interpretowanych poprzez ludzką
pamięć danych matematycznych? Kto odpowiada za działania
sztucznej inteligencji? Kogo obarczyć odpowiedzialnością
za jej błędy? Czy stworzony przez ludzi system prawny zdoła
dotrzymać kroku sztucznej inteligencji, czy też zostanie przez nią
prześcignięty?
termin "sztuczna inteligencja" może ostatecznie okazać się
nietrafny. Owszem, mówimy o maszynach zdolnych rozwiązywać złożone,
na pozór abstrakcyjne problemy, dostępne dotąd wyłącznie ludzkiemu
umysłowi. Niemniej maszyny owe nie "myślą" w żadnym z
dotychczasowych sposobów rozumienia tego wyrazu - raczej dokonują
obliczeń i zapamiętują na niespotkaną wcześniej skalę. Skoro w
oczywisty sposób radzą sobie z tym lepiej, wygrają każdą grę, do
której z nimi zasiądziemy. Jednak dla człowieka gry nie
sprowadzają się wyłącznie do zwycięstw i porażek. Chodzi w nich o
myślenie. Jeżeli potraktujemy proces matematyczny jak proces
myślowy i będziemy starali się także zacząć myśleć matematycznie,
grozi nam utrata zdolności będącej istotą ludzkiego poznania.
Skutki tej ewolucji ilustruje
zaprojektowany niedawno program komputerowy AlphaZero. Gra on w
szachy lepiej niż arcymistrzowie, i to w sposób, jakiego dotąd nie
widziano. Potrzebował zaledwie paru godzin rozgrywek z samym sobą,
by wejść na poziom, który człowiek osiągałby przez tysiąc pięćset
lat. Twórcy przekazali AlphaZero wyłącznie podstawowe reguły, poza
tym ludzie - ani żadne wygenerowane przez ludzi dane - nie brali
udziału w procesie uczenia. Skoro AlphaZero w tak krótkim czasie
nabrał tak wielkiej wprawy, to jakie możliwości sztuczna
inteligencja osiągnie w przeciągu najbliższych pięciu lat? Jak
wpłynie na ludzką zdolność poznania? Jaką rolę w tym procesie,
który sprowadza się wszak do przyspieszenia procesów decyzyjnych, ma
odegrać etyka?
Pytania te z reguły pozostawia się
technologom i ekspertom w zakresie odpowiednich nauk ścisłych.
Filozofowie i humaniści, którzy niegdyś pomagali kształtować wizje
świata, są dziś na gorszej pozycji, gdyż brak im wiedzy o działaniu
sztucznej inteligencji lub też są przytłoczeni i zaniepokojeni jej
możliwościami. Tymczasem środowisko naukowe jest zmuszone zgłębiać
techniczne możliwości sztucznej inteligencji, zaś środowisko
technologiczne zajmuje się głównie perspektywą zastosowań
komercyjnych na niesłychaną skalę. W obu przypadkach opłaca się
dokonywanie coraz to nowych odkryć, a nie refleksja nad ich
znaczeniem. Wreszcie - rządy, zamiast analizować dalsze kierunki
transformacji kondycji ludzkiej, skupią się prawdopodobnie przede
wszystkim na wykorzystaniu sztucznej inteligencji w celach
wywiadowczych i służących zapewnianiu bezpieczeństwa.
Epoka Oświecenia rozpoczęła się od
upowszechnienia refleksji filozoficznej za pomocą nowych
technologii. Obecnie zmierzamy w zupełnie przeciwnym kierunku.
Stworzyliśmy technologię, która może nad nami zapanować, lecz u
podstaw której nie leży żadna filozofia. Inne kraje sztuczną
inteligencję traktują jak projekt narodowy pierwszej wagi, natomiast
w Stanach Zjednoczonych nie zaczęto nawet uczyć się o jej
podstawach. Tymczasem zagadnienia te - zwłaszcza spojrzenie na
sztuczną inteligencję w świetle tradycji humanistycznej
- powinny
stanowić kwestię priorytetową.
Twórcy sztucznej inteligencji są
równie niedoświadczeni w dziedzinie polityki i filozofii, jak ja w
dziedzinie technologii. Warto więc, by zadali sobie
przedstawione powyżej pytania i spróbowali wypracować odpowiedzi,
które mogłyby ukierunkowywać ich dalszą pracę. Jedno nie ulega
wątpliwości: jeśli będziemy zwlekać, wkrótce przekonamy się, że jest
już za późno.
Henry A. Kissinger - (ur. 1923), amerykański polityk i
dyplomata. Podczas prezydentury Richarda Nixona i Geralda Forda
był sekretarzem stanu i doradcą ds. bezpieczeństwa narodowego. W
1973 roku otrzymał Pokojową Nagrodę Nobla za wkład w negocjacje
pokojowe w trakcie konfliktu w Wietnamie.
Esej ukazał się w ósmym numerze
miesięcznika "Pismo. Magazyn opinii" pod tytułem "Jak kończy się
Oświecenie".
-------------------------------------------------------------- |