Nauka

Bajki o robotach

Niektórzy futurolodzy wieszczą, że w niedalekiej przyszłości powstaną myślące maszyny o inteligencji znacznie przewyższającej ludzką, a człowiek przestanie być dominującym podmiotem historii. Czy to w ogóle możliwe?

W słynnym Oxford University istnieje od 2005 r. Instytut Przyszłości Ludzkości (Future of Humanity Institute – FHI). Brakuje tu miejsca na opisanie jego pełnego dorobku. Ograniczmy się zatem do ogólnych trendów. Najłatwiej je wykryć przyglądając się sylwetce pierwszego i dotąd jedynego dyrektora FHI Nicka Bostroma. Ten młody (ur. w 1973 r.) szwedzki filozof dał się poznać jako badacz ryzyka egzystencjalnego i zasady antropicznej, zaś do jego nominacji na obecne stanowisko przyczynił się zapewne fakt, że w 1998 r. był współzałożycielem Światowego Stowarzyszenia Transhumanistycznego.

Przedrostek trans- oznacza poza lub ponad, lecz pojęcie transhumanizmu (zwiastującego erę udoskonalonego człowieka) okazało się kontrowersyjne, więc nazwę stowarzyszenia zmieniono na bardziej neutralną – Humanity+. Jak się przekonamy, na plus prof. Bostromowi zapisać można, że – jak na transhumanistę – reprezentuje stanowisko umiarkowane. Mówiąc ogólnie, uważa, że świadoma korekta ludzkiego genomu poprzez chemiczną modyfikację komórek rozrodczych jest możliwością godną rozważenia i nie należy jej z góry wykluczać. Jak pogląd ten ma się do stanowiska innych transhumanistów?

Jeden z amerykańskich entuzjastów transformacyjnego aktywizmu dziennikarz Ronald Bailey uważa, że przedsięwzięcie takie „symbolizuje najśmielsze, najbardziej wybiegające w przyszłość i idealistyczne aspiracje ludzkości”. Sam Bailey zalicza się do libertariańskiego skrzydła ruchu transhumanistycznego, które podkreśla wolność ludzkiej jednostki, obejmującą także swobodę w samodoskonaleniu – również przez ingerencję w proces biologicznej ewolucji. Można od razu zauważyć, że efekty takiej swobody nie byłyby jedynie dziedzictwem jednostki, lecz bagażem przekazywanym potomkom.

Libertarianie są jednak tylko jednym z odłamów ruchu poprawy. Po umiarkowanej stronie są abolicjoniści głoszący, że pełne wykorzystanie postępu nauki i techniki dla wyeliminowania niedobrowolnych cierpień wszelkich czujących istot jest naszym etycznym obowiązkiem. Dalej wymienić należy immortalistów (czyli nieśmiertelników), którzy za cel genetycznego udoskonalenia człowieka uważają zapewnienia mu wiecznego życia na Ziemi (oczywiście, dobrowolnego). Postgenderyści, czyli filozofowie społeczni dążący do (ochotniczego) wyeliminowania podziału naszego gatunku na płcie – także wielkie nadzieje wiążą z inżynierią genetyczną, która pozwoli nam się w przyszłości rozmnażać w sposób nie rażący niczyjego poczucia przyzwoitości i sprawiedliwości. Za najbardziej radykalnych transhumanistów można chyba uznać singulatystów, wśród których największą sławę zyskali dwaj amerykańscy naukowcy i wynalazcy – Raymond Kurzweil i Hans Moravec. Jako najbardziej medialni ideolodzy transhumanizmu (który w ich przypadku należałoby raczej nazwać posthumanizmem) zasługują na nieco więcej uwagi.

 

O Kurzweilu, który zasłynął skonstruowaniem maszyny umożliwiającej niewidomym czytanie, „Polityka” pisała wielokrotnie – w 2007 r. znalazł się nawet wśród wybranych przez nas 30 Ludzi Roku. W ostatnich latach wielką popularność zdobyła seria jego futurologicznych książek, w których przewiduje bliskie nadejście ery inteligentnych, a nawet uduchowionych maszyn, które przejmą od ludzkości status najbardziej zaawansowanych umysłowo istot spełniających w naszym świecie dominującą rolę. W swych prognozach odwołuje się do pojęcia technologicznej osobliwości (singularity) – momentu, w którym wykładniczy postęp techniki komputerowej stanie się tak szybki, że nastąpi natychmiastowa eksplozja innowacji, tworząca nową posthumanistyczną cywilizację. Jak pisał w 1993 r. twórca tej koncepcji, amerykański matematyk i pisarz Vernor Vinge, „w ciągu 30 lat osiągniemy technologiczną zdolność stworzenia ponadludzkiej inteligencji. Wkrótce potem ludzka era się zakończy”. Tę właśnie ideę przyszłego triumfu sztucznej inteligencji rozwijają w swych książkach, artykułach i wypowiedziach zarówno Kurzweil, jak i Moravec. Ten ostatni jest wybitnym specjalistą w dziedzinie robotyki i profesorem w Carnegie Mellon University. Jego zdaniem wszechstronne człekokształtne roboty osiągną i przekroczą poziom ludzkiej inteligencji za ok. 30 lat, a potem będą nami bardzo inteligentnie rządzić.

Kiedy technologia informatyczna dotrze do owej osobliwości, komputery nie będą potrzebowały ludzkiej pomocy, aby się nadal doskonalić – superinteligentne maszyny projektować będą i konstruować jeszcze inteligentniejszych potomków, których intelektualny potencjał przekraczać będzie wszystko, co możemy sobie, z naszym skromnym rozumem, wyobrazić. Wielu transhumanistów, wśród nich Kurzweil i Bailey, oczekuje osobliwości z radosną niecierpliwością. Wyzwolona od konieczności pracy, zarówno fizycznej jak umysłowej, ludzkość delektować się będzie luksusową emeryturą, oddając się mało męczącym przyjemnościom (np. kibicowaniu robotom na sportowych arenach), rozwijać się duchowo i pogłębiać samopoznanie. Postęp medycyny spowoduje przedłużenie naszego życia, a może nawet zapewni nam nieśmiertelność. Jeśli wieczne życie w ludzkim niedoskonałym ciele nie okaże się rozwiązaniem praktycznym, to i tak będziemy mogli osiągnąć duchową nieśmiertelność poprzez uploading, czyli przetransferowanie wszystkich naszych myśli i procesów nerwowych do komputera, któremu w ten sposób przekażemy naszą osobowość.

Transhumaniści muszą wybaczyć to karykaturalne wręcz uproszczenie ich wizji, lecz szczegóły nie są zbyt istotne. Należy raczej zakwestionować podstawowe założenia ich rozumowania. Czy rzeczywiście technologiczna osobliwość, prognozowana przez Kurzweila, jest możliwa i nieuchronna? Teza jego opiera się na ekstrapolacji historycznego trendu, polegającego na wykładniczym wzroście mocy obliczeniowej komputerów, lecz – jeśli uwzględnić dotychczasowe doświadczenia ludzkości – typową krzywą wzrostu jest tzw. krzywa logistyczna przypominająca kształtem literę S. Ma ona początkowo kształt wykładniczy, lecz przed osiągnięciem osobliwości (ucieczką w nieskończoność) szybkość wzrostu zaczyna maleć i wreszcie dalszy postęp wyhamowuje. Oczywiście trudno przewidzieć, kiedy to nastąpi, i już wcześniej stanąć możemy w obliczu osobliwości o moralnym raczej i politycznym, a nie technologicznym, charakterze. Takim przełomowym punktem byłby moment, w którym komputery same zaczęłyby się udoskonalać i ludzie straciliby kontrolę nad ich ewolucją.

 

Załóżmy, że jest to możliwe. Czy jednak nieuchronne? Bynajmniej. Dopóki kontrolujemy środki niezbędne dla dalszego postępu techniki obliczeniowej – a kontrola ta ma w dużej mierze społeczny i polityczny charakter – sami odpowiedzialni jesteśmy za końcowy efekt. Stworzenie autonomicznych maszyn, zdolnych do ewolucji i mających swobodny dostęp do niezbędnych zasobów, byłby aktem szaleństwa, któremu trzeba i można zapobiec. W przeciwnym razie rzeczywiście ludzkość przestałaby być podmiotem historii.

Nick Bostrom, choć wierzy, że transhumanizm przyczynić się może do wzrostu powszechnej szczęśliwości, zdaje sobie sprawę z faktu, że sztuczne intelekty nie muszą mieć ludzkich motywacji i nie będą, być może, obdarzone psychiką podobną do ludzkiej. Dlatego – jego zdaniem – aby uniknąć przykrych dla ludzkości konsekwencji, należałoby od początku wyposażyć je w filantropijne wartości i zakodować w nich trwale przyjazne człowiekowi uczucia. Wydaje się, że przekracza on w tym momencie granice zdrowego rozsądku. Czy bowiem pojęcie „dobro ludzkości” da się racjonalnie zdefiniować i zalgorytmizować? Sądzić raczej należy, że superinteligentna, zdolna do ewolucji istota w pierwszej kolejności pozbyłaby się poczucia lojalności wobec nieprzewidywalnych i nieodpowiedzialnych ludzi. Nie wiadomo, jak wyglądałby urządzony przez nią „inteligentnie” przyszły świat, lecz na pewno nie miałoby się ochoty w nim żyć. Urok człowieka polega w dużej mierze na jego braku rozsądku.

Mówiąc o rozsądku, zastanowić się trzeba nad samym pojęciem inteligencji. Czy w ogóle potrafimy zgodzić się co do jej definicji? Wielu technokratów, w rodzaju Kurzweila i Moravca, zdaje się posługiwać tym słowem w sensie, w jakim definiowali je XVIII-wieczni myśliciele europejskiego Oświecenia. Inteligencja taka, którą dziś nazwalibyśmy matematyczną lub analityczną, uważana była tradycyjnie za przeciwieństwo emocji. Ludzki umysł oświeceniowy był świadomy i wyrachowany, miał pełną zdolność samopoznania. Dziś wiemy o sobie nieco więcej. Że, na przykład, bez udziału emocji – sprowadzających się do pierwotnych instynktów prokreacji i walki o społeczny status – nie bylibyśmy w stanie podjąć jakiejkolwiek decyzji.

Kurzweil uważa, że emocjonalność czy duchowość są właściwościami związanymi ze złożonością systemów i komputery posiądą te atrybuty z chwilą, kiedy ich szybkość operacji przekroczy pewną granicę. Wydaje się to przypuszczeniem całkowicie nieuzasadnionym. Podstawą naszej emocjonalnej konstrukcji jest fakt, że jesteśmy zwierzętami rozmnażającymi się drogą płciową, które ukształtowały się drogą ewolucji biologicznej trwającej miliardy lat. Uważamy się za istoty inteligentne, lecz inteligencja komputerów pozbawionych popędu płciowego i konieczności walki o byt w niczym nie przypominałaby naszej.

 

Czy można ludzką inteligencję skopiować i przenieść do procesora „myślącej” maszyny? Wątpliwe. Nasza świadomość, według oszacowań współczesnych neurologów, jest jedynie marginalnym aspektem funkcji naszego mózgu – ok. 98 proc. procesów myślowych odbywa się poza zasięgiem świadomości i samo poznanie ich fizycznego charakteru przekraczać będzie długo (jeśli nie zawsze) możliwości naszej nauki. Skonstruowanie sztucznego mózgu, który myślałby tak jak człowiek, wymagałoby skopiowania człowieka w całości, wraz z jego mózgiem, ciałem, hormonami, zdolnością do odczuwania bólu i nienawiści, miłości, pożądania i zawiści.

Bostrom jest człowiekiem inteligentnym i zdaje też sobie sprawę z niebezpieczeństw ze strony sztucznej superinteligencji. „Jednym z niebezpieczeństw – pisze w książce „Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and Artificial Intelligence” – przed którymi musimy się ustrzec, jest to, że ludzie, którzy stworzą superinteligentne maszyny, nie wyposażą ich w imperatyw uniwersalnej filantropii, lecz zamiast tego zakodują w nich bardziej ograniczone zadanie służenia jedynie pewnej małej grupie, takiej jak sami ich twórcy lub ci, którzy finansowali to przedsięwzięcie”. Ograniczone samopoznanie, jakim dziś dysponujemy, każe nam raczej sądzić, że przyszłe inteligentne maszyny będą jedynie narzędziami w rękach ich konstruktorów. I niechaj tak pozostanie.

Krzysztof Szymborski

Polityka 9.2010 (2745) z dnia 27.02.2010; Nauka; s. 77
Więcej na ten temat
Reklama

Czytaj także

null
Kraj

Interesy Mastalerka: film porażka i układy z Solorzem. „Szykuje ewakuację przed kłopotami”

Marcin Mastalerek, zwany wiceprezydentem, jest także scenarzystą i producentem filmowym. Te filmy nie zarobiły pieniędzy w kinach, ale u państwowych sponsorów. Teraz Masta pisze dla siebie kolejny scenariusz biznesowy i polityczny.

Anna Dąbrowska
15.11.2024
Reklama

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną