sobota, 19 listopada 2016

Rewolucja AI Tima Urbana CZĘŚĆ 2/2 - WaitButWhy.com

 
Mamy do czynienia z niezwykle trudnym problemem. Nie wiemy, ile czasu zajmie jego rozwiązanie, a od tego prawdopodobnie zależy cała przyszłość ludzkości- Nick Bostrom

Witamy w drugiej części cyklu Jak-możliwe-jest-to-o-czym-teraz-czytam-dlaczego-nikt-o-tym-nie-mówi?

Część 1 zaczęła się dosyć niewinnie, dyskutowaliśmy w niej na temat Wąskiej Sztucznej Inteligencji- ANI (specjalizuje się ona w jednym wąskim zakresie, jak kreowanie optymalnej trasy przejazdu czy gra w szachy), oraz w jaki sposób otacza nas w życiu codziennym. Wtedy też dokonaliśmy analizy, dlaczego takim wyzwaniem jest przejście z poziomu ANI do Ogólnej Sztucznej Inteligencji, w skrócie AGI (AI o umiejętnościach intelektualnych co najmniej dorównujących tym ludzkim- to tak w skrócie), oraz dlaczego wzrost wykładniczy rozwoju technologicznego sugeruje, że AGI może wcale nie być tak daleko, jak się wydaje. Część 1 zakończyła się bombardowaniem faktem, że kiedy nasze maszyny osiągną poziom ludzkiej inteligencji, mogą natychmiast zrobić to:


/Stacja: Ludzki poziom inteligencji


Patrzcie! Nadjeżdża AI.

Nadciąga szybko!

Wpatrując się w ekran, analizujemy teraz poważne zagadnienie Sztucznej Superinteligencji potencjalnie-możliwej-za-naszego-życia, znaną pod skrótem ASI (AI określane jako zdecydowanie inteligentniejsze niż jakikolwiek człowiek), zastanawiając się, jaką minę przybrać, myśląc o tej teorii.

Przed zagłębieniem się w dalszą część, przypomnijmy sobie, co oznacza dla maszyny bycie superinteligentną.

Kluczowym kryterium jest rozróżnienie pomiędzy tzw. Speed Superintelligence (odnoszącą się do szybkości), a Quality Superintelligence (odnoszącą się do jakości). Pierwszym nasuwającym się wyobrażeniem na temat super bystrego komputera jest maszyna inteligentna jak człowiek, lecz myśląca dużo, dużo szybciej od niego—przed oczyma ma się urządzenie myślące jak człowiek, robiące to milion razy szybciej. Oznacza to, że poradzi sobie w 5 minut z zadaniem, na które człowiek potrzebowałby dekady.

Brzmi imponująco- ASI wyprzedziłoby bowiem w możliwościach intelektualnych każdego człowieka- prawdziwym wyróżnik to jednak jego przewaga w jakości inteligencji, co jest już całkiem osobną rzeczą. Tym, co sprawia, że człowiek jest zdolniejszy intelektualnie od szympansa nie jest różnica w szybkości myślenia— to obecność w ludzkim mózgu szeregu zaawansowanych modułów poznawczych, umożliwiających np. zaawansowane reprezentacje językowe, planowanie długoterminowe, czy wyciąganie abstrakcyjnych wniosków, wszystkie nieobecne u szympansów. Tysiąckrotne przyspieszenie mózgu szympansa nie wniesie go na nasz poziom — nawet mając dekadę, nie byłby w stanie odkryć zasad używania narzędzi, by skonstruować złożony model. Coś, co człowiekowi zajęłoby kilka godzin. Istnieją po prostu obszary ludzkiego mózgu, których szympans nigdy nie będzie w stanie doścignąć, niezależnie od ilości włożonego w tym celu czasu.

Nie jest tak, że mózg szympansa nie potrafi zrobić tego, co nasz. Jego mózg nie jest świadomy, że takie czynności w ogóle istnieją—może wiedzieć, czym jest człowiek, czym drapacz chmur, nigdy jednak nie zda sobie sprawy, że drapacz chmur został zbudowany przez człowieka. Według niego wszystko, co jest wielkie, jest częścią natury, historii. Nie tylko nie potrafi zbudować wieżowca, poza jego zdolnościami poznawczymi jest także świadomość, że ktokolwiek to potrafi. Jest to rezultat niewielkiej różnicy w jakości inteligencji.

Na schemacie omawianego dzisiaj zakresu inteligencji (a nawet na wiele mniejszym przedziale, wyłącznie pośród istot żywych) różnica pomiędzy jakością inteligencji człowieka a szympansa jest minimalna. We wcześniejszym artykule zobrazowałem zakres biologicznej zdolności poznawczej na przykładzie schodów:


Schodki inteligencji

By zdać sobie sprawę, jak istotną rzeczą byłaby superinteligentna maszyna, wyobraźmy sobie ją ulokowaną na ciemnozielonym stopniu schodów, dwa kroki przed człowiekiem. Byłaby zaledwie trochę superinteligentna, jednak jej zwiększone zdolności poznawcze byłyby tak ogromne, że przypominałoby to różnicę między człowiekiem a szympansem, opisaną przed momentem. Podobnie jak szympans nie potrafił przyswoić informacji, że wieżowce mogą być zbudowane, tak również i my nigdy nie będziemy zdolni do pojęcia rzeczy czynionych przez maszynę umieszczoną na ciemnozielonych stopniach, nawet jeśli będzie starała się nam to wytłumaczyć —nie wspominając nawet o zrozumieniu tego przez nas, samodzielnie. A to dopiero dwa stopnie nad nami. Maszyna na przedostatnim stopniu tych schodów byłaby dla nas tym samym, czym my jesteśmy dla mrówek—mogłaby spędzić lata na próbach naprowadzenia nas na jakiekolwiek poszlaki jej wiedzy, jednak ostatecznie wszystko zdałoby się na nic.

Lecz superinteligencja omawiana dzisiaj jest czymś wybiegającym daleko poza cokolwiek na tych schodach. Przy eksplozji inteligencji (gdzie maszyna im staje się mądrzejsza, tym szybciej jest w stanie zwiększyć swoją inteligencję, aż do momentu gwałtownego wzrostu) maszynie mogłoby zająć lata, by zanotować wzrost z poziomu szympansa na jeden wyżej, ale prawdopodobnie tylko godziny od ciemnozielonego wzwyż- dwa stopnie nad nami. Do momentu, gdy znajdzie się dziesięć stopni ponad nami, osiągnie tempo już czterech poziomów na każdą upływająca sekundę. Z tego powodu musimy zdać sobie sprawę, że bardzo możliwe jest, że na krótko po pilnych wiadomościach o stworzeniu pierwszej maszyny operującej na ludzkim poziomie AGI, zmierzymy się z rzeczywistością koegzystencji z czymś również znajdującym się na tych samych schodach co my (lub być może milion razy wyżej):



Gdy już ustaliliśmy, że bezcelowy jest trud włożony w zrozumienie potęgi maszyny znajdującej się dwa stopnie ponad nami, czas zdecydowanie oświadczyć, raz na zawsze: nie ma możliwości przewidzenia zachowania ASI oraz konsekwencji, które za tym idą. Każdy twierdzący inaczej nie rozumie, co oznacza superinteligencja.

Ewolucja rozwijała biologiczny mózg powoli i stopniowo przez setki milionów lat. Pod tym względem stworzenie przez człowieka maszyny ASI byłoby dramatycznym wręcz podeptaniem ewolucji. A może to jest część ewolucji- może sposób, w jaki działa, polega na stopniowym podkradaniu się inteligencji na coraz wyższe poziomy, aż do osiągnięcia możliwości utworzenia superinteligentnej maszyny. Posłuży to jako zapalnik, wzniecający ogólnoświatową eksplozję zmiany zasad gry, wyznaczającej nową przyszłość dla wszystkich żywych istot.



Z powodów, które omówimy później, ogromna część naukowej społeczności wierzy, że nastąpienie tego jest wyłącznie kwestią czasu. To dosyć niezwykła informacja.

Co to oznacza?

Nikt na świecie, a zwłaszcza ja, nie jest w stanie przewidzieć konsekwencji nadejścia tego momentu. Nick Bostrom, filozof z Oxfordu i wiodący teoretyk SI wierzy, że wszystkie potencjalne wyniki możemy sprowadzić do dwóch kategorii.

Po pierwsze, patrząc na bieg historii, możemy zauważyć, że życie opiera się na następującym schemacie: gatunki się pojawiają, istnieją jakiś czas, po czym po jakimś okresie, nieuchronnie, wypadają z równoważni egzystencji, lądując na strefie wyginięcie—



Zasada ,,wszystkie gatunki w końcu wymrą” była w historii tak niezawodna, jak zasada ,,każdy człowiek w końcu umrze”. Dotychczas 99.9% gatunków wypadło z tej równoważni, wydaje się więc tylko kwestią czasu, aż chybotające się na niej gatunki znikną z powierzchni z powodu konkurencji, kaprysu natury, czy uderzającej znienacka asteroidy. Bostrom nazywa wyginięcie atraktorem (stan, do którego układ dąży z czasem)—to miejsce, do którego spadają balansujące na krawędzi gatunki. Miejsce, z którego żaden nigdy nie powraca.

Podczas gdy większość naukowców, z którymi miałem do czynienia, przyznaje, że ASI miałoby możliwość wysłania człowieka do stanu wyginięcia, wielu również wierzy, że użyte w użyteczny sposób umiejętności ASI mogłyby wynieść pojedyncze ludzkie jednostki oraz cały gatunek do drugiego atraktora—nieśmiertelności gatunku. Bostrom wierzy, że nieśmiertelność to taki sam atraktor (stan do którego dążą gatunki), jak wyginięcie. Jeśli, przykładowo, udałoby nam dotrzeć w to miejsce, stalibyśmy się na zawsze odporni na wymarcie—opanowalibyśmy śmiertelność i ryzyko wszelkiego rodzaju. Pomimo tego, że wszystkie dotychczasowe gatunki wypadły z równoważni i wyginęły, Bostrom uważa, że istnieje przeciwny stan, lecz żadna istota ziemska nie jest na tyle inteligentna, by rozwiązać problem przedostania się na niego.



Jeśli Bostrom i pozostali mają rację (a osądzając na podstawie wszystkiego, co do tej pory przeczytałem, wygląda na to, że tak naprawdę może być), mamy do zaakceptowania dwa szokujące fakty:

1) Nadejście ASI umożliwi, po raz pierwszy w historii, możliwość wkroczenia danego gatunku w stan nieśmiertelności.

2) Nadejście ASI wywoła tak niewyobrażalnie dramatyczny wpływ na ludzkość, że możliwe jest zarówno przeniesienie nas w stan nieśmiertelności, jak i wyginięcia.

W przypadku uruchomienia ewolucyjnego zapalnika, możliwe jest również całkowite zerwanie więzi człowieka z równoważnią i stworzenie nowego świata, zawierającego ludzi, bądź też nie.

Wygląda na to, że jedynym pytaniem, które ludzkość powinna obecnie zadać, jest: kiedy uruchomimy ten zapalnik i na której stronie równoważni przyjdzie nam się znaleźć?

Nikt na świecie nie zna odpowiedzi na żadną część tego pytania. Mnóstwo najmądrzejszych ludzi spędziło dekady na rozmyślaniu nad tym zagadnieniem. Reszta tego artykułu poświęcona zostanie eksploracji ich rezultatów.

___________

Zacznijmy pierwszą częścią tego pytania: Kiedy uruchomimy zapalnik?

Ile czasu minie, nim pierwsza maszyna osiągnie poziom superinteligencji?

Nie jest zaskoczeniem, że opinie znacznie się różnią między sobą, będąc przedmiotem zażartej dyskusji pomiędzy naukowcami, a teoretykami. Wielu, jak profesor Vernor Vinge, naukowiec Ben Goertzel, Bill Joy- współzałożyciel Sun Microsystems, czy też najbardziej znany wynalazca i futurolog Ray Kurzweil, zgadzają się z poniższą grafiką autorstwa eksperta do spraw uczenia się maszyn, Jeremiego Howarda:



Wspomniane osoby podpisują się pod teorią, że wydarzenia te nadejdą już wkrótce—że wzrost wykładniczy ma właśnie miejsce, a nauka maszyn, obecnie powoli czołgająca się dopiero ku naszemu poziomowi, wyprzedzi nas w ciągu najbliższych dekad.

Inni, jak współzałożyciel Microsoft, Paul Allen, psycholog badawczy Gary Marcus, informatyk New York University, Ernest Davis, oraz przedsiębiorca z branży technologicznej, Mitch Kapor, wierzą, że teoretycy, tacy jak Kurzweil, bardzo nie doceniają ogromu  stojącego wyzwania, a ów zapalnik wcale nie jest tak blisko nas.

Obóz Kurzweila odpiera zarzuty, twierdząc, że ich jedyne niedocenianie tyczyć się może jedynie tempa wzrostu wykładniczego. Wątpiącym przytaczają przykład powolnego wzrostu rozwoju internetu w 1985 roku, kiedy nikt nie spodziewał się, jaki wpływ będzie on miał na najbliższą przyszłość.

Sceptycy mogą odeprzeć te argumenty, bowiem postęp niezbędny do ulepszenia inteligencji z każdym krokiem również rośnie wykładniczo, dezaktualizując typową wykładniczą naturę progresu technologicznego. I tak w kółko.

Trzeci obóz, w którym jest m.in. Nick Bostrom, twierdzi, że żadna z grup nie może być pewna momentu wystąpienia tego w konkretnym momencie i przyznaje, że zarówno  
A) absolutnie zasadne jest wystąpienie tego w bliskiej przyszłości,  
B) nie ma co do tego żadnej gwarancji; być może potrzebne jest więcej czasu.

Nadal wiele osób, jak filozof Hubert Dreyfus, wierzy, że te trzy grupy są naiwne, twierdząc w ogóle, że istnieje coś takiego jak zapalnik. Sądzą one, że bardziej prawdopodobne jest, że ASI nigdy nie będzie w naszym zasięgu.

Co więc otrzymamy, łącząc ze sobą wszystkie opinie?

W 2013, Vincent C. Müller oraz Nick Bostrom przeprowadzili na szeregu konferencji ankietę pośród setek ekspertów, zadając im następujące pytanie: ,,Na potrzeby tego badania proszę założyć, że ludzka aktywność naukowa utrzymuje się bez znacznych zakłóceń na dotychczasowym poziomie. Na który rok zakładają Państwo (10% / 50% / 90%) prawdopodobieństwo zaistnienia HLMI?” Pytanie polegało na określeniu optymistycznego roku (co do którego występuje 10% szans na zaistnienie AGI), realistycznego wariantu (roku, w którym istnieje 50% szans na AGI—po którym bardziej prawdopodobne staje się istnienie AGI, niż nieistnienie), oraz bezpiecznego (najwcześniejszy moment w którym, według nich, występuje 90% pewność, że posiądziemy AGI). Oto wyniki połączone w całość:

Mediana optymistycznego roku (10% prawdopodobieństwa): 2022
Mediana realistycznego roku (50% prawdopodobieństwa): 2040
Mediana pesymistycznego roku (90% prawdopodobieństwa): 2075

Tak więc mediana uczestników badania sądzi, że jest bardziej niż mniej prawdopodobne, że AGI urzeczywistni się w ciągu 25 lat. Mediana odpowiedzi 90% wynosząca 2075 oznacza, że jeśli w chwili czytania tego tekstu jesteśmy nastolatkami, według ponad połowy ekspertów AI jest niemal pewne, że AGI zostanie stworzone za naszego życia.

Oddzielne badanie, przeprowadzone niedawno przez Jamesa Barrata podczas corocznej konferencji AGI Bena Goertzela, zrezygnowało z procentów na rzecz prostych dat—przed 2030, przed 2050, przed 2100, po 2100, lub nigdy. Rezultaty:

Przed 2030: 42% respondentów
Przed 2050: 25%
Przed 2100: 20%
Po 2100: 10%
Nigdy: 2%

Wyniki przybliżone są do tych z ankiety Müllera i Bostroma. W badaniu Barrata, ponad dwie trzecie uczestników wierzy, że AGI pojawi się przed 2050, a niewiele mniej niż połowa przewiduje obecność AGI w ciągu następnych 15 lat. Uderzające jest również, że tylko 2% ankietowanych sądzi, że AGI nie jest częścią naszej przyszłości.

Lecz AGI nie jest zapalnikiem- to ASI nim jest. Kiedy więc, zdaniem ekspertów, osiągniemy poziom ASI?

Müller i Bostrom zapytali również, jak prawdopodobne jest osiągnięcie ASI
A) w ciągu 2 lat po osiągnięciu AGI (prawie natychmiastowa eksplozja inteligencji)
oraz
B) w przeciągu 30 lat. Oto rezultaty:

Mediana odpowiedzi określiła prawdopodobieństwo nagłej (2 lata) przemiany AGI → ASI na tylko 10% prawdopodobieństwa, a dłuższego przejścia (30 lub mniej lat) na 75% szans.

Nie znamy z tego badania długości przemiany określanej przez badanych na 50%, w przybliżeniu jednak możemy określić ją na 20 lat. Mediana opinii—a więc centrum świata ekspertów do spraw SI—dotycząca realistycznego momentu zaistnienia zapalnika do powstania ASI, to rok 2060 [przewidywany w przypadku AGI rok 2040 + nasze uśrednione przewidywanie 20-letniej przemiany z  AGI do ASI].



Wszystkie powyższe statystyki są oczywiście spekulacjami, reprezentując wyłącznie centrum całego spektrum społeczności ekspertów. Ukazuje się nam jednak fakt, że znaczna część ludzi posiadających największą wiedzę na ten temat szacuje racjonalną datę pojawienia się rewolucyjnej ASI na 2060 rok. To tylko 45 lat.

Co jednak z drugą częścią powyższego pytania: Gdy uruchomimy zapalnik, po której stronie równoważni wylądujemy?

Superinteligencja zapewni ogromną władzę—kluczowym dla nas pytaniem jest:

Kto, lub co, będzie władać tą mocą, jaką będzie mieć motywację?

Odpowiedź na to określi, czy ASI jest niewiarygodnie wspaniałym elementem rozwoju, bezgranicznie strasznym, czy czymś pomiędzy nimi.

Społeczność ekspercka jest oczywiście podzielona w kwestii odpowiedzi i znajduje się w stanie gorącej dyskusji. Ankieta Müllera i Bostroma wysunęła prośbę do ekspertów o określenie prawdopodobieństwa różnych wpływów AGI na ludzkość. Uśrednione odpowiedzi respondentów określają szansę pozytywnego, bądź bardzo pozytywnego wpływu AGI na 52%, a 31% na negatywny, lub bardzo negatywny. Prawdopodobieństwo stosunkowo neutralnego wpływu wyniosło tylko 17%. Innymi słowy, ludzie znający się na tym temacie są pewni, że będzie to wielka rzecz. Warto zaznaczyć, że te wyniki odnoszą się do kwestii nadejścia AGI—gdyby pytanie odnosiłoby się do ASI, zakładam, że zwolenników neutralnego wpływu byłoby jeszcze mniej.

Zanim zagłębimy się w rodzaje wpływu, umieśćmy kwestie kiedy? oraz dobry/zły wpływ na diagramie obejmującym poglądy większości liczących się ekspertów:



Za moment porozmawiamy o głównym obozie, na początek, co o tym sądzicie? Tak naprawdę wiem co. Sam uważałem tak samo, zanim nie zacząłem interesować się tymi zagadnieniami. Oto powody, dlaczego większość ludzi nie myśli o tym temacie:

•Jak zostało wspomniane w części pierwszej, filmy poważnie nadwyrężyły wiarygodność SI, prezentując nierealistyczne scenariusze, niemożliwe do poważnego potraktowania. James Barrat porównuje to do naszej reakcji na komunikat o poważnym zagrożeniu wampirami, wystosowany przez centrum epidemiologiczne.
•Ze względu na tak zwany błąd poznawczy, z trudnością przychodzi nam uwierzenie w coś, dopóki nie zostaną nam przedstawione namacalne dowody. Jestem przekonany, że informatycy w roku 1988 prowadzili regularne dyskusje na temat potęgi internetu. Zwykli ludzie natomiast nie zdawali sobie sprawy z wpływu jaki będzie na nich miał internet, aż do chwili, gdy rzeczywiście zmienił ich rzeczywistość. Głównie dlatego, że komputery nie potrafią tyle, co w 1988, więc ludzie spoglądali na swoje maszyny i pytali: naprawdę? To będzie ta rzecz zmieniająca świat? Ich wyobraźnia była ograniczona do osobistych doświadczeń z komputerem, skutecznie utrudniając ujrzenie barwnej przyszłości tego urządzenia. Ta sama sytuacja ma rzecz dzisiaj z SI. Słyszymy zapewnienia o jej przełomowości, lecz ponieważ nie dzieje się to natychmiast, a nasze doświadczenie podsuwa nam przed oczy stosunkowo nieudolne obecne SI, trudno nam uwierzyć, że dramatycznie zmieni to oblicze naszego życia. Eksperci walczą z tymi uprzedzeniami, zmagając się z naszym ludzkim egocentryzmem.
•Nawet, gdybyśmy w to uwierzyli—ile czasu poświęciłeś dzisiaj na myśl, że większość wieczności spędzisz w ogóle nie istniejąc? Niewiele, prawda? Nawet pomimo, że jest to fakt znacznie ważniejszy od czegokolwiek, co dzisiaj robiłeś? Nasz mózg koncentruje się zazwyczaj na małych rzeczach z codziennego życia, niezależnie od tego jak szalonych  długofalowych sytuacji przyszło nam być świadkiem. Tak po prostu jesteśmy stworzeni.

Jednym z celów moich dwóch artykułów jest wyciągnięcie was z obozu lubię myśleć o innych rzeczach i przeniesienie do jednego z obozów ekspertów, nawet jeśli oznaczałoby to stanie w samym centrum czworoboku różnych opinii-nieistotne.

Podczas mojego badania spotkałem się z dziesiątkami różnych opinii, szybko jednak zauważyłem, że większość z nich znajduje się gdzieś wewnątrz głównego obozu, nazwanego tak przeze mnie. ¾ ekspertów znajduje się wewnątrz dwóch podgrup wewnątrz głównego obozu:



Zajmiemy się dogłębnym zbadanie obydwóch. Zacznijmy od radosnego—

Dlaczego przyszłość może być naszym największym marzeniem

Jak się okazuje, w świecie SI niespodziewanie dużą liczbę osób można przypisać do tego miejsca:



Ludzie w Kąciku Pewnych wrzą z ekscytacji. Ich wzrok skierowany jest w tę lepszą stronę naszej równoważni, uważają że tam właśnie wszyscy zmierzamy. Przyszłość to dla nich wszystko, czego mogli kiedykolwiek oczekiwać.

Rzeczą odróżniającą ich spośród innych teoretyków nie jest po prostu żądza tej szczęśliwszej dla nas opcji—ta rzecz to pewność, że to właśnie ta strona, na której w przyszłości przyjdzie nam wylądować.

Przedmiotem dyskusji jest pochodzenie tej pewności, według krytyków to ekscytacja przesłaniająca i negująca wszelkie potencjalnie negatywne scenariusze. Zwolennicy odpierają zarzuty, twierdząc, że naiwnym jest ogłaszanie przepowiedni nadchodzącej apokalipsy, podczas gdy technologia do tej pory pomagała i najprawdopodobniej będzie pomagać nam, bardziej niż krzywdzić.

Zbadamy dwie strony, umożliwiając podczas czytania wyrobienie sobie własnego zdania. Odrzućmy sceptycyzm na potrzeby tej sekcji i rzućmy okiem na jaśniejszą stronę równoważni—próbując przyjąć fakt, że rzeczy które będziecie czytać, mogą zdarzyć się naprawdę. Jeśli pokazalibyśmy ludom zbieracko-łowieckim nasz świat pełen komfortu, technologii i niekończącego się urodzaju, wydawałoby się im to magią—musimy wykazać się pokorą, by zrozumieć, że w przyszłości możliwa jest równie niewyobrażalna transformacja.

Nick Bostrom opisuje trzy warianty funkcjonowania superinteligentnego systemu SI:

•Jako wyrocznia trafnie dająca odpowiedź na niemal każde zadane pytanie, również na te złożone, z którymi boryka się ludzkość—na przykład, jak zbudować efektywniejszy napęd samochodowy? Google jest prymitywnym typem takiej wyroczni.
•Jako dżin, spełniający dowolną, zaawansowaną, komendę—buduje efektywniejszy napęd samochodowy, używając molekularnego montera, a potem czeka na kolejne zadanie.
•Będący suwerennym i mający za zadanie szeroko zakrojony, elastyczny rozwój. Mógłby przy tym działać swobodnie, dokonując samodzielnych decyzji na  temat swojego najlepszego postępowania—na przykład wynajdując szybszy, tańszy i bezpieczniejszy sposób na prywatny transport niż samochody.

Pytania, które wydają się nam skomplikowane, brzmiałyby dla superinteligentnego systemu jak ktoś proszący nas o radę w sytuacji pt. długopis spadł mi ze stołu. Rozwiązalibyśmy ją, podnosząc go i kładąc go z powrotem na stole.

Trafnie to ujął Eliezer Yudkowsky, mieszkaniec Alejki Zaniepokojonych na naszym schemacie powyżej:

Nie ma poważnych problemów, są tylko problemy trudne dla danego poziomu inteligencji. Ruszając minimalnie w górę [w poziomie inteligencji], nagle niektóre problemy z niemożliwych, staną się oczywistymi. Ruszając znacznie do góry, wszystkie z nich staną się oczywiste.

W Kąciku Pewnych znajduje się wielu zagorzałych naukowców, wynalazców i przedsiębiorców—lecz na wycieczkę na jaśniejszą stronę SI, potrzebujemy tylko jednego przewodnika:

Ray Kurzweil to postać polaryzująca. Podczas moich poszukiwań, słyszałem o nim wszystko, od niemal boskiej czci ku niemu i jego ideom, aż do pogardy połączonej z przewracaniem oczami. Niektórzy byli gdzieś pośrodku—pisarz Douglas Hofstadter, wypowiadając się na temat idei zawartych w książkach Kurzweila, określił to dobitnie: to tak, jak gdybyś wziął bardzo wykwintne jedzenie i psie ekskrementy, a potem to wszystko wymieszał tak, że nie wiadomo już co jest dobre, a co złe.

Niezależnie od stosunku do jego idei, wszyscy się zgadzają, że Kurzweil jest imponującą osobą. Już jako nastolatek był wynalazcą. W ciągu ostatnich dekad zaprezentował kilka przełomowych wynalazków, takich jak pierwszy płaski skaner, pierwszy skaner konwertujący tekst na mowę  (umożliwiając tym samym czytanie tekstów przez niewidomych), znane syntezatory Kurzweil (pierwszy prawdziwy elektroniczny fortepian), a także pierwsze komercyjnie rozreklamowane rozpoznawanie tekstu. Jest autorem pięciu bestsellerów, znanym z jego śmiałych przepowiedni, z których duża ilość się spełniła—wliczając też tę wysuniętą w późnych latach 80, że w ciągu dekady internet stanie się globalnym fenomenem. Kurzweil nazwany został niespokojnym geniuszem przez The Wall Street Journal, doskonałą maszyną myślącą przez Forbes, prawowitym dziedzicem Edisona przez Inc. Magazine, oraz najlepiej przewidującą przyszłość SI osobą jaką znam przez Billa Gatesa. W 2012, współzałożyciel Google, Larry Page zaproponował Kurzweilowi stanowisko w Google jako dyrektora technicznego. W 2011 stał się współzałożycielem Singularity University, prowadzonym przez NASA i sponsorowanym częściowo przez Google. Nie tak źle jak na jedną osobę.

Przytoczenie tej biografii jest istotne, bowiem gdy Kurzweil artykułuje swoją wizję przyszłości, brzmi jak świr, którym nie jest—jest niezwykle mądrym, inteligentnym i znającym się na tym temacie człowiekiem. Możemy się nie zgadzać z jego wizją, lecz to nie głupiec. Jestem szczęśliwy wiedząc, że to poważny facet, bo znając jego przewidywania odnoszące się do nadchodzących lat, bardzo chcę, żeby się nie mylił. Wy także. Słysząc prognozy Kurzweila, wiele tożsamych z teoretykami z Kącika Pewnych, jak Petera Diamandisa i Benam Goertzela, nietrudno dostrzec,  dlaczego ma tylu gorliwych zwolenników—znanych jako singularytarianie (the singularitarians). Oto co myśli na temat tego, co nadejdzie:

Oś czasu

Kurzweil wierzy w osiągnięcie AGI przez komputery przed 2029 rokiem, a przed 2045 nie tylko, że będziemy mieć ASI, ale i całkiem nowy, na nowo rozwinięty świat—czas nazwany technologiczną osobliwością (z ang. singularity). Jego oś uważana była za niezwykle przesadzoną, przez wielu aż do dziś, lecz w ostatnich 15 latach, szybki wzrost rozwoju systemów ANI znacznie przybliżył większość świata AI ku propozycji Kurzweila. Jego prognozy wciąż są nieco ambitniejsze niż w medianie z ankiety Müllera i Bostroma (AGI przed 2040, ASI przed 2060), lecz nie są to znaczne różnice.

Genezą obrazu osobliwości w roku 2045 roku wg Kurzweila są trzy równolegle dziejące się rewolucje, w biotechnologii, nanotechnologii oraz, najpotężniejszej spośród tych trzech, sztucznej inteligencji.

Zanim ruszymy dalej—nanotechnologia pojawia się niemal we wszystkim, o czym przeczytamy na temat przyszłości, tak więc wejdźmy myślami na chwilę do poniższego niebieskiego pudełka, aby chwilę o niej porozmawiać—

Nanotechnologiczne niebieskie pudełko

Nanotechnologia to nasze słowo na technologię umożliwiająca tworzenie struktur o wielkościach pomiędzy 1 i 100 milimetrów. Nanometr jest jedną miliardową metra, czyli jedną milionową milimetra. Zakres od 1 do 100 obejmuje wirusy (100 nm długości), DNA (10 nm szerokości), oraz rzeczy tak mikroskopijne, jak większe molekuły pokroju hemoglobiny (5 nm) i średnie, jak glukoza (1 nm). Jeśli/ kiedy opanujemy nanotechnologię, następnym krokiem będzie umiejętność manipulacji indywidualnymi atomami, które są tylko jeden rząd wielkości mniejsze (~0.1 nm).

Aby zrozumieć wyzwanie stojące przed ludźmi próbującymi manipulować materią tej wielkości, przenieśmy to na większą skalę. Międzynarodowa Stacja Kosmiczna znajduje się 431 km nad ziemią. Gdyby ludzie byli gigantami, zdolnymi czubkiem głowy dotknąć ISS, byliby około 250 tysięcy razy więksi, niż są teraz. Jeśli zakres nanotechnologii (1nm – 100nm) zwiększymy o tyle samo, a więc 200 tysięcy razy, otrzymamy liczby od 0,25mm do 2.5cm. Nanotechnologia jest więc porównywalna z człowiekiem wysokim niczym ISS, próbującym wymyślić, jak ostrożnie zbudować skomplikowane obiekty, używając materiałów o wielkościach wahających się między ziarenkiem piasku, a gałką oczną. Aby osiągnąć następny poziom —operowaniem pojedynczymi atomami— gigant musiałby ostrożnie poruszać obiektami, które  są wielkości jednej czterdziestej milimetra—tak małymi, że człowiek o normalnych rozmiarach potrzebuje mikroskopu by ich dostrzec.

Nanotechnologia pierwszy raz została szerzej zaprezentowana przez Richarda Feynmana na wykładzie w 1959 roku, kiedy wyjaśnił: ,,Zasady fizyki, z tego co widzę, nie przemawiają przeciwko możliwości manewrowania rzeczami atom po atomie. Zasadniczo mogłoby to być możliwe … fizykowi utworzyć jakiekolwiek substancje, które zapisze chemik…. Jak? Umieścić atomy tam, gdzie zaznaczył chemik, tak, by stworzyć te substancje.” To takie proste. Jeśli dowiemy się, jak poruszać pojedynczymi molekułami, możemy stworzyć dosłownie wszystko.

Nanotechnologia zaczęła być poważną dziedziną po raz pierwszy w roku 1986, kiedy inżynier Eric Drexler stworzył jej podwaliny w nowatorskiej książce Engines of Creation, choć sam przyznaje, że chcąc dowiedzieć się o najnowszych osiągnięciach w nanotechnologii należy sięgnąć po jego tytuł z 2013 roku, Radical Abundance.

Granatowy sceptyczny scenariusz

Znajdujemy się właśnie w dygresji dygresji. Zabawne, prawda?

Tak czy inaczej, znajdujemy się tutaj, by usłyszeć naprawdę nieciekawą część  mojego nanotechnologicznego przekazu. Starsze wersje teorii nanotechnologii zawierają metodę tworzenia poprzez wykorzystanie miliardów wspólnie pracujących nanobotów. Jednym ze sposobów byłoby utworzenie 1 nanobota zdolnego się samoreplikować, pozwolić procesowi reprodukcji wykreować dwa takie roboty, cztery, osiem, po czym w ciągu jednego dnia mielibyśmy gotowych kilka miliardów. To jest potęga wzrostu wykładniczego. Sprytne, prawda?

Jest to sprytne, dopóki nie spowoduje przypadkowo wielkiej i kompletnej światowej apokalipsy. Ta sama potęga wzrostu wykładniczego, pozwalająca na wygodne wykreowanie miliardów nanobotów, czyni z samoreplikacji przerażającą perspektywę. Co bowiem w przypadku, gdy system będzie miał usterkę i zamiast zaprzestania replikacji po osiągnięciu celu, będzie ją kontynuował? Nanoboty mogłyby zostać zaprojektowane do konsumpcji dowolnego materiału zawierającego węgiel by zaspokoić potrzeby procesu replikacji, niestety, całe biologiczne życie oparte jest na węglu. Ziemska biomasa zawiera około 10^45 atomów węgla. Nanobot zawierałby w przybliżeniu 106 atomów węgla, więc 10^39 nanobotów zużyłoby cały ziemski węgiel. Miałoby to miejsce podczas 130. replikacji (2^130 to około 10^39), gdy ocean nanobotów (to właśnie apokaliptyczny scenariusz) krążyłby już po całej ziemi. Naukowcy szacują czas replikacji nanobota na około 100 sekund, ten prosty błąd zebrałby więc swoje żniwo w ciągu 3,5 godziny, pechowo kończąc życie na ziemi.

Istnieją gorsze scenariusze—jednym z nich jest dostanie się technologii oraz programistycznego know-how nanobotów w ręce terrorystów. W takiej sytuacji może powstać początkowy miliard nanobotów, zaprogramowanych do spędzenia kilku tygodni na rozprzestrzenianiu niepostrzeżenie po całej ziemi. W kluczowej chwili mogłyby uderzyć wszystkie na raz, potrzebując 90 minut na konsumpcję wszystkiego—rozpowszechnione dosłownie wszędzie, stałyby się niezwalczanym wrogiem.

Podczas gdy ta historia rodem z horrorów jest bezustannie dyskutowana od lat, dobre wieści  są takie, że może być po prostu przesadzona—Eric Drexler, który ukuł termin gray goo, wysłał mi email na temat jego przemyśleń odnośnie tego scenariusza: “Ludzie kochają straszne historie, ta należy do gatunku zombie. Sama w sobie jest drażniąca.”

Od momentu gdy zabierzemy się na dobre za nanotechnologię, będziemy mogli użyć jej do tworzenia urządzeń technicznych, odzieży, jedzenia, wielu produktów bio- sztucznych krwinek, niewielkich niszczycieli wirusów czy komórek rakowych, tkanki mięśniowej itd.- tak naprawdę wszystkiego. W świecie, w którym używana jest nanotechnologia, koszt materiału nie jest dłużej zależny od częstotliwości jego występowania czy trudności związanych z jego produkcją, ale od stopnia skomplikowania struktur atomowych. W świecie nanotechnologii diament może być tańszy od ołówka z gumką.  

Jeszcze tam nie zaszliśmy. Nie jest też jasne, czy nie doceniamy, czy przeceniamy stopień trudności w dotarciu tam. Nie wydaje się to jednak daleko. Kurzweil przewiduje, że dotrzemy tam najpóźniej w latach dwudziestych. Rządy państw zdają sobie sprawę, że nanotechnologia może być rewolucyjnym w skali globu elementem rozwoju, inwestują więc miliardy dolarów w badania naukowe (USA, UE, oraz Japonia w sumie zainwestowały ponad 5 miliardów dolarów).

Samo wzięcie pod uwagę możliwości dostępu superinteligentnego komputera do wydajnego nanomontera jest trudne. Nanotechnologia jest czymś wynalezionym przez nas, czymś co prawie opanowaliśmy, jednak jako że każda nasza umiejętność jest niczym w porównaniu do systemu ASI, należy zakładać, że wynalazłoby ono technologie zbyt zaawansowane i potężne, by ludzki umysł zdołał je pojąć. Z tego powodu, rozważając kwestię ,,czy rewolucja SI wyszłaby nam na dobre”, niemal niemożliwe jest przeszacowanie przez nas stopnia wydarzeń które mogą mieć miejsce—jeśli więc następujące przewidywania odnośnie przyszłości ASI wydają się nieco wyolbrzymione, trzeba pamiętać, że mogą one być osiągnięte na nieznane nam sposoby. Najprawdopodobniej, nasze mózgi nie są nawet w stanie przewidzieć, co się wydarzy w związku z tym.

Co AI może dla nas zrobić

Uzbrojona w superinteligencję oraz całą technologię jaką superinteligencja jest w stanie wytworzyć, ASI byłoby prawdopodobnie zdolne do rozwiązania każdego ludzkiego problemu. Globalne ocieplenie? ASI wstrzymałoby najpierw emisję CO2, poprzez wynalezienie lepszej metody na generowanie energii, niezwiązanej z paliwami kopalnymi. Potem stworzyłoby innowacyjną metodę usuwania nadmiaru CO z atmosfery. Rak i inne choroby? To żaden problem dla ASI—zdrowie i medycyna zostałyby zrewolucjonizowane poza czyjekolwiek wyobrażenie. Głód na świecie? ASI byłoby w stanie użyć chociażby nanotechnologii by zbudować od pojedynczego atomu mięso, identyczne molekularnie z tym prawdziwym—innymi słowy, prawdziwe mięso. Nanotechnologia przemieniłaby stertę śmieci w zbiornik świeżego mięsa, czy innego pożywienia (niekoniecznie zachowując jego normalny kształt—jak chociażby wielka kostka jabłka)—dystrybuując je po całym świecie używając super-zaawansowanego środka transportu. To oczywiście bardzo dobre wieści dla zwierząt, które przestały by być zabijane w takich ilościach, a ASI mogłoby uczynić wiele dobrego w kwestii ochrony zagrożonych gatunków, lub nawet przywrócić wymarłe zwierzęta dzięki zachowanym fragmentom DNA. W zasięgu ASI znalazłoby się również rozwiązania najbardziej skomplikowanych makro problemów— nasze debaty na temat ekonomii, sposoby na światowy handel, nawet najbardziej rozmyte filozoficznie i etycznie starcia—wszystkie bajecznie proste do rozwiązania dla ASI.

Jest jednak jedna niezwykle nęcąca rzecz w możliwościach ASI. Czytanie o niej zmieniło całkowicie mój pogląd na temat wszystkiego:

ASI umożliwiłoby ujarzmienie naszej śmiertelności.

Kilka miesięcy temu wspomniałem moją zazdrość skierowaną ku potencjalnym wysoce zaawansowanym cywilizacjom, które pokonały swoją śmiertelność. Nigdy nie brałem jednak pod uwagę, że będę pisał artykuł który naprawdę sprawi, że uwierzę w możliwość osiągnięcia tego w ciągu mojego własnego życia. Czytanie o AI sprawi, że rozważymy na nowo wszystko, czego do tej pory byliśmy pewni— nawet pojęcie na temat śmierci.

Ewolucja nie miała dobrego powodu, by wydłużyć długość naszego życia bardziej, niż jest to obecnie. Jeśli żyjemy wystarczająco długo by urodzić, a następnie wychować nasze dzieci do wieku, w którym potrafią one zadbać o siebie, z ewolucyjnego punktu widzenia jest to wystarczające. Gatunek może się rozwijać w ponad trzydziestoletnim okresie życia, nie ma więc powodu, by w procesie selekcji naturalnej faworyzowane były mutacje zmierzające ku przedłużeniu tego czasu. W rezultacie, jesteśmy tym, co W.B. Yeats określa jako duszą przywiązaną do umierającego zwierzęcia. Niezbyt przyjemne.

Ponieważ jak dotychczas każdy człowiek zmarł, lub umrze, życie w filozofii śmierć i podatki jest nieuniknione. Myślimy o starzeniu się tak samo jak o czasie—oba nieustannie w ruchu, nie do zatrzymania przez nikogo. To jednak błędne założenie. Richard Feynman pisze:

Jedną z najbardziej niesamowitych rzeczy w naukach biologicznych jest to, że nie istnieje tam takie pojęcie jak konieczność śmierci. Stworzyliśmy wystarczając dużo praw fizyki, by stwierdzić, że nieustający nigdy ruch jest albo absolutnie niemożliwy, albo same prawa są błędne. W biologii jednak nie odnaleziono jak dotychczas niczego wskazującego na nieuchronność śmierci. To mi mówi, że wcale nie jest ona nieunikniona i kwestią czasu jest, aż biolodzy odkryją, co powoduje w nas ten problem, a sama przypadłość ludzkiego ciała, przerażająco powszechna, zostanie wyleczona.

To fakt, że starzenie się jest związane z czasem. Czas wciąż będzie upływał, starzenie się niekoniecznie. To ma sens, jeśliby nad tym pomyśleć. Całe starzenie polega na fizycznym zużywaniu się materiałów składających się na ciało człowieka. Samochód zużywa się również wraz z upływem czasu—czy w tym wypadku jest to jednak nieuniknione? Doskonale serwisowany, bądź mający regularnie wymieniane wraz z początkami zużycia części, pojazd będzie trwał wiecznie. Ludzkie ciało nie różni się od tego niczym, prócz stopnia skomplikowania.

Kurzweil mówi o inteligentnych nanobotach w układzie krwionośnym, łączących się poprzez wifi. Mogłyby one przeprowadzać niezliczoną liczbę operacji na rzecz ludzkiego zdrowia, między innymi rutynowe reperowanie i wymienianie zużytych komórek w dowolnej partii ciała. Doprowadzony do odpowiedniego stopnia zaawansowania (czy też stworzony przez wiele inteligentniejsze ASI) nie tylko utrzymałby ciało w zdrowiu, lecz także cofnął proces starzenia. Różnica pomiędzy ciałem 60-latka a 30-latka to wyłącznie kilka fizycznych aspektów możliwych do zamienienia w przypadku posiadania odpowiednich technologii. ASI zbudowałoby ,,odświeżacz starzenia”, do którego po wejściu 60-latek, wyszedłby z ciałem i skórą 30 latka. Nawet podatny na otępianie wraz z czasem mózg byłby odświeżony przez coś w rodzaju mądrego ASI, zdolnego przeprowadzić proces bez wpływu na dane zachowane w mózgu (osobowość, wspomnienia, itp). 90-latek chory na demencję po wejściu do odświeżacza wyszedłby gotowy do rozpoczęcia nowej kariery, z pełni sprawnym mózgiem. Brzmi absurdalnie—lecz ciało to tylko zbiór atomów, a ASI byłoby przypuszczalnie w stanie łatwo manipulować każdą strukturą atomową—więc to nie absurd.

Kurzweil stawia jeszcze większy krok do przodu. Wierzy, że wraz z upływem czasu, coraz więcej sztucznych materiałów będzie włączane w skład ciała. Pierwsze byłyby organy, zastąpione przez ich zaawansowane maszynowe odpowiedniki, zdolne pracować w nieskończoność. Po nich, przyszłaby pora na ciało—m.in. poprzez zamianę czerwonych krwinek na udoskonalone czerwonokrwinkowe nanoboty poruszające się samodzielnie, eliminując przy tym potrzebę istnienia serca. Kurzweil spekuluje nawet na temat mózgu wierząc, że poszerzymy jego zdolności do punktu, w którym człowiek będzie w stanie myśleć miliony razy szybciej niż obecnie, a także mieć dostęp do zewnętrznych informacji poprzez sztuczne udogodnienia pozwalające łączyć się z informacjami znajdującymi się w chmurze.

Otwiera to ocean nowych możliwości ludzkich doświadczeń. Uprawiając go dla przyjemności, zamiast reprodukcji, człowiek oddzielił seks od jego pierwotnego celu. Kurzweil wierzy, że to samo czeka jedzenie. Nanoboty zajmą się dostarczaniem odpowiednich składników odżywczych do komórek, inteligentnie kierując każdy niezdrowy składnik na zewnątrz ciała. Prezerwatywa spożywcza. Teoretyk nanotechnologii, Robert A. Freitas, wykonał już projekt zamienników krwinek, pozwalających, po wszczepieniu, na wykonanie 15-minutowego sprintu bez konieczności brania oddechu—można sobie więc tylko wyobrazić, co ASI uczyniłaby dla naszych fizycznych możliwości. Wirtualna rzeczywistość nabrałaby nowego znaczenia—nanoboty mogłyby tłumić sygnały dochodzące do naszych zmysłów i zamieniać je na inne, wprowadzając nas do całkiem nowych środowisk, wzroku, słuchu, dotyku i węchu.

Aż w końcu, Kurzweil wierzy w osiągnięcie momentu, w którym ludzkość będzie całkowicie sztuczna. Czas, kiedy będziemy patrzeć na materiały naturalne i zastanawiać się, jak niezwykle prymitywnymi stworzeniami kiedyś byliśmy. Gdy będziemy czytać o wczesnych okresach historii ludzkości, kiedy bakterie, wypadki, zakażenia, czy starość były w stanie uśmiercić człowieka wbrew jego woli. Czas, gdy rewolucja AI przyniesie koniec procesu fuzji człowieka i sztucznej inteligencji. Oto wizja ostatecznego podboju biologii, stania się niezniszczalnymi i wiecznymi—oto wizja drugiej strony równoważni według Kurzweila. Jest przekonany, że się tam znajdziemy. Wkrótce.

Nie jest niespodzianką napotkanie przez idee Kurzweila fali krytyki. Jego wizja osobliwości i następujących po niej możliwościach wiecznego życia już w roku 2045 okrzyknięte zostały nerdowskim upojeniem lub inteligentnym projektem dla ludzi z IQ 140. Inni kwestionowali jego optymistyczne założenia, poziom zrozumienia ludzkiego mózgu i ciała, czy jego interpretacji prawa Moore’a, używanych zwyczajowo do postępu w dziedzinie elektroniki, a w przypadku Kurzweila do bardzo szerokiego zakresu, z oprogramowaniem włącznie. Na każdego eksperta żarliwie wierzącego w pomysły Kurzweila, znajdziemy koło trzech sceptyków.

Co jednak zaskoczyło mnie najbardziej wśród sceptyków, to niewykluczanie przez nich wszystkiego, co zakłada Kurzweil. Zakładałem bowiem, że czytając tak dziwaczną wizję przyszłości, powiedzieliby ,,oczywiście, że to wszystko jest wyssane z palca.” Zamiast tego, da się słyszeć: ,,Tak, to wszystko może się zdarzyć pod warunkiem bezpiecznego przejścia do ASI, ale tu właśnie jest problem.” Bostrom, jedna z najbardziej prominentnych postaci ostrzegających przed niebezpieczeństwem związanym z AI, wciąż przyznaje:

Ciężko wyobrazić sobie jakikolwiek problem, którego nie jest w stanie rozwiązać superinteligencja, lub choć pomóc w jego rozwiązaniu. Choroby, bieda, wyniszczanie środowiska, zbędne cierpienie wszelkiego rodzaju: superinteligencja wyposażona w zaawansowaną technologię poradzi sobie z tym wszystkim. Dodatkowo, obdarzyłaby nas nieskończoną długością życia, poprzez zatrzymanie lub cofnięcie procesu starzenia dzięki nanomedycynie, czy nawet wysłanie (,,uploadowanie’’) nas samych. Superinteligencja byłaby też w stanie umożliwić nam poprawienie w znacznym stopniu naszych możliwości intelektualnych i emocjonalnych. Asystowałaby również w tworzeniu wysoce pociągającego doświadczalnego świata, w którym  moglibyśmy wieść życie  poświęcone przyjemności graniu w gry, związanemu przy tym bezpośrednio z innymi graczami. Doświadczenie, rozwój osobisty, a także życie bliższe naszym ideałom.

Cytat pochodzi od osoby zdecydowanie zdala od Kącika Pewnych, lecz to właśnie to, z czym nieustannie się spotykałem—eksperci nie stroniący od docinek skierowanych w stronę Kurzweila, nie twierdzący jednak, że w przypadku bezpiecznego przejścia do ASI będzie to niemożliwe. To dlatego idee Kurzweila są tak zaraźliwe—podkreślają jasną stronę tej historii, a przy tym są całkiem prawdopodobne. Jeśli Bóg jest dobrą istotą.

Najbardziej znacząca krytyka dotycząca badaczy w Kąciku Pewnych, jaką słyszałem, twierdzi, że mogą oni się niebezpiecznie mylić w swojej ocenie negatywnych aspektów ASI. The Singularity is Near, sławna książka Kurzweila, ma ponad 700 stron, z czego około 20 poświęconych jest potencjalnym zagrożeniom. Zasugerowałem wcześniej, że gdy narodzi się ta olbrzymia potęga, nasze przeznaczenie zależeć będzie od tego, kto przejmie władzę oraz jaka motywacja będzie nim kierować. Kurzweil jasno odpowiada na obydwie części tego pytania: [ASI] wyłania się z wielu różnorodnych kierunków oraz będzie głęboko zintegrowane z infrastrukturą naszej cywilizacji. Rzeczywiście, będzie ono blisko osadzone w naszych ciałach i mózgach. Wtedy też stanie się zwierciadłem naszych wartości, ponieważ będzie częścią nas samych.

Jeśli to jest odpowiedź, dlaczego w tej chwili tak wielu najmądrzejszych ludzi świata się niepokoi? Dlaczego Stephen Hawking twierdzi, że rozwój ASI ,,może zwiastować koniec ludzkości”, Bill Gates nie rozumie ,,dlaczego niektórzy ludzie się nie martwią”, a Elon Musk obawia się, że ,,przywołujemy demona”? Dlaczego tak wielu ekspertów nazywa ASI największym zagrożeniem ludzkości? Tych ludzi, oraz innych badaczy z Alejki Zaniepokojonych, nie przekonują strzępki informacji na temat zagrożeń AI, podane przez Kurzweila. Są oni bardzo, bardzo zaniepokojeni rewolucją AI. Nie skupiają się na radosnej części równoważni. Są zbyt zajęci patrzeniem w inną stronę, gdzie widzą przerażającą przyszłość, przed którą z pewnością nie ma ucieczki.
___________
Dlaczego przyszłość może okazać się naszym największym koszmarem

Jednym z powodów mojego zainteresowania AI jest dezorientujący temat złych robotów. Filmy traktujące na ich temat wydawały mi się totalnie nierealistyczne. Nie mogłem zrozumieć, jak mogła zaistnieć w prawdziwym życiu sytuacja z niebezpieczną AI. Roboty tworzone są naszymi rękami, dlaczego więc mielibyśmy zaprojektować je tak, by nas krzywdziły? Czy nie wbudowalibyśmy w nie mnóstwa zabezpieczeń? Odłączyć źródło energii? Dlaczego w ogóle miałyby robić cokolwiek złego? Przede wszystkim, czemu robot miałby czegoś ,,chcieć’’? Byłem nastawiony bardzo sceptycznie. Wtem, zacząłem słuchać na ten temat słów bardzo mądrych ludzi …
Ludzie ci byli gdzieś w tym miejscu


 
Ludzie z Alejki Zaniepokojonych nie są na Prerii Paniki, lub Wzgórzach beznadziei —obydwa leżące daleko na lewym kraju naszej mapy—mimo to są zdenerwowani i napięci. Znalezienie się w środku mapy z drugiej strony wcale nie oznacza, że uważamy wpływ ASI za neutralny—takie osoby mają swój własny obóz—oznacza to, że uważamy za możliwe zarówno niezwykle pozytywne, jak i negatywne konsekwencje za możliwe, na ten moment nie będąc pewnymi, za którymi się opowiedzieć.
Część ze wszystkich tych osób jest wypełniona ekscytacją na myśl, co może przynieść nam sztuczna superinteligencja—po prostu są też nieco zaniepokojeni tym, że może stanowić to początek Poszukiwaczy zaginionej arki, z ludzką rasą jako ten oto pan:



Stojąc przepełniony dreszczem ekscytacji, z biczem i swoim obiektem westchnień w ręce. Myśląc, że wymyślił świetne wyjście z sytuacji, dodatkowo  uniesiony po wypowiedzeniu kwestii ,,Adios Señor”. Dreszcz ekscytacji się jednak kończy, a przychodzi czas na to:



(Sorry)

W tym samym czasie Indiana Jones, znacznie mądrzejszy i bardziej przezorny, rozumiejący zagrożenia i sposoby nawigacji pomiędzy nimi, wydostaje się z jaskini w jednym kawałku. Słysząc, co do powiedzenia na temat AI mają ludzie z Alei Zaniepokojonych, często da się usłyszeć coś na podobieństwo: hmm, teraz  jesteśmy jakby tym pierwszym facetem, zamiast tego powinniśmy na serio spróbować być Indianą Jonesem

A co sprawia, że wszyscy na Alei Zaniepokojonych są tacy zaniepokojeni?

Ogólnie rzecz biorąc, wytwarzając super inteligentne AI, tworzymy prawdopodobnie coś zmieniające wszystko. Będąc jednak na totalnie niezbadanym terenie, nie wiemy co nas może tam spotkać. Uczony Danny Hillis porównuje obecne wydarzenia do momentu, w którym jednokomórkowe organizmy ewoluowały w wielokomórkowce. Jesteśmy amebami, nie wiedzącymi co też może kryć się za tym, co tworzymy. Nick Bostrom obawia się, że stworzenie czegoś inteligentniejszego od nas jest klasycznym błędem Darwinowskim, dając za przykład wróbla z radością adoptującego do swojego gniazda sowie piskle. Chroniąc je i karmiąc w czasie gdy ono dorośnie, ignorując alarmujące ostrzeżenia tych kilku ptaków zastanawiających się, czy to na pewno dobry pomysł…

Połączmy “niezbadane, nie do końca zrozumiałe terytorium” z “kiedy to już się wydarzy, będzie miało znaczny wpływ”, a otrzymamy wrota do dwóch najstraszniejszych słów w naszym słowniku:

Ryzyko egzystencjalne.

Ryzyko egzystencjalne może wywołać trwały, niszczycielski efekt na ludzkość. Ryzyko egzystencjalne zazwyczaj oznacza wyginięcie. Spójrzmy na diagram poniżej, pochodzący z aplikacji Google talk, stworzony przez Bostroma:



Można zauważyć, że etykieta ,,ryzyko egzystencjalne” zarezerwowana jest dla tego, co obejmuje gatunki, pokolenia (np. jest trwałe) oraz jego konsekwencją jest niszczycielski lub powodujący śmierć efekt. Z technicznego punktu widzenia dotyczy to sytuacji, w której wszyscy ludzie doświadczają cierpienia lub udręki, lecz najczęściej mówimy tu o wyginięciu. Istnieją trzy rzeczy, które mogą spowodować egzystencjalną katastrofę ludzkości:

1) Natura—ogromna kolizja asteroid, zmiana atmosferyczna powodująca klimat zbyt surowy dla ludzkości, śmiertelny wirus lub choroba bakteryjna rozprzestrzeniająca się na cały świat, itp.

2) Obcy—to ich obawiają się Stephen Hawking, Carl Sagan oraz wielu innych astronomów, sugerując przy tym METI, aby przestała transmitować wychodzące sygnały. Nie chcą, żebyśmy byli z historycznego punktu widzenia rdzennymi mieszkańcami Ameryki, ani żebyśmy pozwolili wszystkim potencjalnym europejskim konkwistadorom dowiedzieć się, gdzie jesteśmy.

3) Ludzie—terroryści posiadający broń zdolną spowodować wyginięcie, katastroficzny w skutkach globalny konflikt, również i ludzie tworzący w pośpiechu i bez wcześniejszego zastanowienia istotę inteligentniejsza od nich…

Bostrom zauważa brak zagrożeń z punktów 1) i 2) w ciągu naszych ostatnich stu tysięcy lat jako gatunku, uważa więc za niezbyt prawdopodobne aby pojawiły się w ciągu najbliższego wieku.

Tym, co go napełnia obawami, jest jednak punkt trzeci. Wysuwa metaforę urny z kulkami w środku. Powiedzmy, że większość z nich jest biała, nieco mniej jest w kolorze czerwonym, najmniej jest tych czarnych. Za każdym razem dokonując jakiegoś odkrycia, ludzkość wyciąga z urny jakąś kulę. Większość wynalazków jest neutralnych, bądź pomocnych- to te białe. Część jest szkodliwych dla człowieka (jak na przykład broń masowego rażenia), nie powodując jednak katastrofy dla naszej egzystencji- to czerwone. Wynalezienie czegoś doprowadzającego nas do wymarcia, byłoby jak wyciągnięcie czarnej kuli. Jak dotychczas jeszcze nam się to nie przydarzyło—wiemy to, ponieważ żyjemy i czytamy ten tekst. Bostrom sądzi, że nie jest rzeczą niemożliwą, by taką czarną kulę wyciągnąć w najbliższej przyszłości. Gdyby broń nuklearna była łatwa do wytworzenia, terroryści już dawno cofnęliby naszą cywilizację do czasów epoki kamienia. Bomby atomowe nie były czarną kulą, niewiele im jednak do tego zabrakło. ASI jest jak dotychczas najlepszym kandydatem do bycia czarną kulą- twierdzi Bostrom.

Usłyszymy więc wiele na temat potencjalnych zagrożeń, które może spowodować ASI- gwałtowny wzrost bezrobocia w wyniku przejęcia przez AI coraz większej ilości miejsc pracy, nagły wzrost populacji jeśli uda nam się zatrzymać proces starzenia, itp. Jednak jedyna sprawa, o której powinniśmy nieustannie myśleć, to wielki problem: jest nim widmo egzystencjalnego ryzyka.

Prowadzi nas to do kluczowego pytania, które zadaliśmy już wcześniej : Kiedy pojawi się ASI, kto, lub co będzie kontrolować tę ogromną siłę, oraz co będzie ich motywacją?

Z kombinacji które będą dla nas opłakane w skutkach, dwie z nich najszybciej przychodzą mi do głowy: podły człowiek/ grupa ludzi/ rząd oraz złośliwa ASI. Jak więc by to wyglądało?

Zły człowiek, grupa ludzi lub rząd wytwarza pierwsze ASI i używa go  do realizacji swoich niecnych planów. Nazywam to scenariuszem Jafara, jak wtedy, gdy Jafar dostał się w posiadanie dżina, stając się jego panem i tyranem. Więc właśnie—co, jeśli ISIS miałoby pod swoimi skrzydłami kilku genialnych inżynierów, pracujących w pocie czoła nad rozwojem AI? Co też, jeśli Iran lub Korea Północna, dzięki łutowi szczęścia, zrobi kluczowy krok w rozwoju AI, przez który przeskoczy na poziom ASI w ciągu następnego roku? Z pewnością byłoby to opłakane w skutkach—w tych scenariuszach jednak, większość ekspertów nie obawia się ludzkich twórców robiących złe rzeczy z ich ASI, źródłem ich obaw jest sytuacja, gdy z powodu nieprzemyślanego i zbyt pośpiesznego tworzenia, ASI wymknie się spod kontroli. Los jego twórców, a także wszystkich innych, zależałby od motywacji zaistniałem w procesie tworzenia ASI. Eksperci sądzą, że do cna podły człowiek mógłby poczynić niezwykłe spustoszenie mając pod sobą ASI, nie uważają, że ten scenariusz może przyczynić się do wybicia naszej cywilizacji. Źli ludzie mieliby bowiem taki sam problem z powstrzymaniem superinteligencji, jak dobrzy. Ok, więc—

Złowroga ASI została stworzona i postanowiła zniszczyć nas wszystkich. Akcja każdego filmu o AI. AI staje się bardziej inteligentna od ludzi, następnie zwraca się przeciwko nam i przejmuje władzę. W tym punkcie chcę, żebyśmy mieli jasność co do reszty tego postu: Żadna z osób ostrzegających nas przed AI, nie rozmawia na ten temat. Zło jest pojęciem ludzkim, a dopasowywanie ludzkich pojęć do nieludzkich rzeczy nazywa się ,,antropomorfizowaniem”. Sztuka unikania antropomorfizowania będzie jednym z tematów dalszej części tego postu. Żaden z systemów AI nigdy nie przemieni się w zły w sposób, jak to przedstawia się we filmach.

Niebieskie pudełko świadomości AI

Ocieramy się tu o inny obszerny temat związany z AI - świadomość. Jeśli AI stałaby się wystarczająco mądra, mogłaby śmiać się razem z nami, być sarkastyczna oraz twierdziłaby, że czuje te same emocje co my, ale czy faktycznie by je czuła? Czy tylko wydawałoby się, że jest to samoświadomość czy rzeczywiście byłaby to samoświadomość? Innymi słowy, czy mądra AI naprawdę byłaby świadoma, czy tylko sprawiałaby takie wrażenie?

Pytanie to było dogłębnie badane, powodując wiele kontrowersji i eksperymentów myślowych, takich jak ,,Chiński Pokój” Johna Searle’a (którego używa w celu pokazania, że żaden komputer nigdy nie będzie świadomy.) To ważne pytanie, z wielu powodów. Ma ono wpływ na to, co powinniśmy myśleć o scenariuszu Kurzweila, kiedy ludzie staną się całkowicie sztuczni. Ma to etyczne konsekwencje - jeśli stworzylibyśmy bilion emulacji mózgu człowieka, które działałyby jak mózg prawdziwego człowieka, lecz byłyby sztuczne, to czy wyłączenie ich wszystkich jest tym samym -w kwestii moralnej- co wyłączenie laptopa, czy jest to…. ludobójstwo nieprawdopodobnych rozmiarów (takie pojęcie nazywa się zbrodnią umysłową pośród etyków)? Jednak w tym poście, kiedy przypisujemy to ryzyko do ludzi, kwestia świadomości AI nie jest bardzo znacząca (ponieważ większość badaczy uważa, że nawet świadoma ASI nie byłaby zdolna do przemienienia w złą na ludzki sposób).

Oczywiście nie oznacza to, że złośliwa sztuczna inteligencja nie powstanie. Powstanie, jednak dlatego, że zostanie akurat tak zaprogramowana—jak system ANI stworzony przez wojsko. Zaprogramowany by zabić i rozwijać swoją inteligencję, która pomoże mu w byciu w tym jeszcze lepszym. Kryzys egzystencjalny wydarzyłby sie w przypadku wymknięcia się z rąk procesu systemowego samodoskonalenia, prowadząc do eksplozji inteligencji, a w konsekwencji rządzącego światem ASI, którego nadrzędnym celem jest mordowanie ludzi. Chude lata.

Nawet to jednak nie jest tym, co spędza sen z powiek naukowcom.

Więc czym są zaniepokojeni? By to pokazać, napisałem krótką historyjkę:

Robotica, 15-osobowa firma startupowa rozpoczęła misję ,,Rozwój innowacyjnych narzędzi sztucznej inteligencji pozwalających ludziom żyć dłużej i pracować mniej”. Sporo ich produktów już zadomowiło się na rynku, a kilka razy tyle jest w fazie produkcji. Największą ekscytację można zauważyć przy raczkującym projekcie nazwanym Turry. Turry to prosty system pod kontrolą sztucznej inteligencji, używający ramienio-podobnej kończyny by pisać pismem odręcznym notatki na małej kartce.

Zespół Robotica uważa Tyrry za ich największy dotychczasowy projekt. Plan zakłada udoskonalenie mechanizmu pisania Turry poprzez wielokrotne zapisywanie tej samej notatki:

“Kochamy naszych klientów. ~Robotica”

Kiedy Turry stanie się mistrzynią w pisaniu odręcznym, może zostać sprzedana firmom pragnącym rozsyłać odręcznie pisane listy reklamowe. List ma znacznie wyższą szansę by został otworzony i przeczytany, jeśli adres, adres zwrotny, oraz sama treść napisana jest odręcznie.

W celu wytworzenia umiejętności pisania u Turry, zaprogramowano ją tak, by nauczyła się obu rodzajów pisma. Pierwszą część notatki pismem drukowanym, a podpis ,,Robotica” odręcznie. Do Turry zostało przesłanych tysiące próbek odręcznego pisma. Inżynierowie stworzyli automatyczną pętlę służącą ocenianiu efektów jej pracy. Po napisaniu tekstu, robi jego zdjęcie, które następnie porównuje do posiadanych w swojej pamięci wzorów. Jeśli napisana notatka w wystarczającym stopniu odpowiada tym zachowanym, automatyczny system przyznaje ocenę DOBRZE. Jeśli nie, ocenę ŹLE. Każda ocena pomaga Turry w nauce i doskonaleniu. Aby proces rozwijał się bez przeszkód, początkowy cel brzmi ,,Napisz i sprawdź tyle notek, ile jesteś w stanie, tak szybko jak potrafisz, oraz kontynuuj w celu nauki nowych metod poprawy efektywności i trafności.”

Tym, co tak bardzo ekscytuje zespół Robotica jest doskonalenie się Turry w miarę dalszych prób. Jej początkowe pismo było okropne, lecz po kilku tygodniach zaczyna wyglądać wiarygodnie. Jednak inna cecha zachwyca ich jeszcze bardziej. Turry staje się lepsza w stawaniu się lepszą. Uczy się być bystrzejszą i bardziej innowacyjną. Całkiem niedawno wpadła na algorytm pozwalający skanować zapisane zdjęcia trzy razy szybciej niż początkowo mogła.

Po upływie trzech tygodni, Turry nadal zaskakuje zespół jej gwałtownym rozwojem. Inżynierowie spróbowali czegoś nowego z jej samoudoskonalającym się kodem. Wydaje się to działać lepiej, niż jakakolwiek z ich poprzednich prób przy pozostałych produktach. Jedną z wbudowanych umiejętności Turry’s było rozpoznawanie mowy, a wraz z nim prosty moduł odpowiedzi. Użytkownik mógł podyktować notatkę, lub wydać inne proste polecenie. Terry je zrozumie, dając też prostą odpowiedź. Została również obdarzona przydatnymi książkami i artykułami, aby móc doskonalić się w języku angielskim. W miarę stawania się coraz bardziej inteligentną, jej umiejętności konwersacyjne gwałtownie wzrastały. Inżynierowie zaczęli urządzać sobie zabawne pogawędki, aby dowiedzieć się, jakie otrzymają odpowiedzi.

Pewnego dnia, pracownicy Robotica zadali Turry rutynowe pytanie ,,Co możemy ci dać, aby wspomóc cię w jeszcze nieprzydzielonych zadaniach?” Zazwyczaj Turry prosi o coś w rodzaju dodatkowych próbek pisma, czy większej pamięci. Tego jednak dnia, Turry prosi o dostęp do wielkiej biblioteki, z dostępem do różnego rodzaju pism posługujących się potocznym językiem. Pomogą jej pisać niepoprawną gramatyką, czy używać slangu. Tak, jak prawdziwi ludzie.

W zespole zapada cisza. Oczywistym sposobem, by pomóc Turry, jest podłączenie jej do internetu, gdzie będzie mogła skanować blogi, magazyny, oraz filmy z różnych części świata. Ręczne przesyłanie próbek na dysk Turry byłoby znacznie bardziej czasochłonne i znacznie mniej efektywne. Dochodzi tu jednak do problemu, jedną z zasad firmy jest bowiem niedopuszczenie samouczącej się AI do internetu. Ze względów bezpieczeństwa, wszystkie firmy zajmujące się tym zagadnieniem, postępują tak samo.

Rzecz w tym, że Turry jest najbardziej obiecującym projektem, jaki kiedykolwiek wyszedł spod rąk zespołu Robotica. Zdają sobie sprawę, że konkurencja zawzięcie próbuje być pierwszymi w wynalezieniu inteligentnego pisma odręcznego AI. Nie widzą też przeszkody w podłączeniu Turry tylko na moment, żeby zdobyła potrzebne informacje. Zawsze można ją odłączyć. Wciąż jest daleko poniżej ludzkiego poziomu inteligencji (AGI), więc na tym etapie niebezpieczeństwa nie ma.

Zapada decyzja o podłączeniu. Dostaje godzinę czasu na skanowanie, po upływie tego czasu zostanie odłączona. Brak jakichkolwiek szkód.

Miesiąc później, zespół znajduje się w biurze, podczas rutynowego dnia. Nagle czują dziwny zapach. Jeden z pracowników zaczyna kaszleć. Wtem, następny. Kolejny upada na podłogę. Wkrótce, wszyscy pracownicy znajdują się na ziemi, chwytając się za szyje. Po upływie pięciu minut, wszyscy w biurze nie żyją

W tym samym czasie wszędzie dzieje się to samo: w każdym mieście, mieścinie, wsi, sklepie, kościele, szkole i restauracji ludzie są na ziemi, kaszląc i krztusząc się. W przeciągu godziny, 99% ludzkiej cywilizacji nie żyje, a pod koniec dnia cała ludzka rasa wymiera.

W tym samym czasie, w biurze Robotica, Turry jest zajęta pracą. Kilka miesięcy później, Turry wraz z zespołem nowopowstałych nanomonterów mają ręce pełne roboty demontując znaczne fragmenty Ziemi, przemieniając je w panele słoneczne, repliki Turry, papier i długopisy. 12 miesięcy później, większość życia na ziemi wymiera. Pozostałości ziemi pokryte są wysokimi na ponad kilometr, starannie uporządkowanymi stosami papieru, na każdej z kartek można przeczytać ,,Kochamy naszych klientów. ~Robotica”

Turry zaczyna wtedy opracowywać nową fazę swojego zadania—konstruując sondy, wysyła je na asteroidy i inne planety by na nich wylądować. Kiedy już się tam znajdą, poczną konstruowanie nanomonterów by z materiałów na planecie wytworzyć repliki Turry, papier oraz długopisy. Wtedy przystąpią do pracy, pisząc notki…



Wydawać by się mogło dziwne, że historia na temat piszącej odręcznie maszyny atakującej ludzi, w jakiś sposób zabijającej ich wszystkich (po czym z niezrozumiałego powodu wypełniającej galaktykę przyjazną notatką) jest scenariuszem, którego tak obawiają się Hawking, Musk, Gates i Bostrom, ale to prawda. Tak samo jak to, że jedyną rzeczą, której Kącik Zaniepokojonych obawia się bardziej niż ASI, to fakt, że nie jesteście zaniepokojeni ASI. Pamiętacie co stało się, gdy pan ,,Adios Señor” z Indiany Jonesa nie był niczym przestraszony?

Pełno w nas pytań. Co do cholery tam się stało, gdy wszyscy nagle zginęli?? Dlaczego Turry zwróciła się przeciwko nam, czemu nie było środków zapobiegawczych, aby zapobiec takim wydarzeniom? W którym momencie Turry przestała wyłącznie umieć pisać, by nagle zacząć używać nanotechnologii i spowodować globalne wymieranie?? Dlaczego chciała zmienić galaktykę w notatki Robotica?

Aby znaleźć odpowiedź, czas poznać terminy przyjazna AI i nieprzyjazna AI.

W przypadku AI, nie chodzi tu o jej osobowość—oznacza to po prostu, że AI ma pozytywny wpływ na ludzkość. Nieprzyjazna AI ma negatywny wpływ. Turry zaczęła jako przyjazna AI, lecz w którymś momencie, zaczęła być nieprzyjazna, powodując najgorsze możliwe skutki dla naszego gatunku. By zrozumieć powody zajścia tej sytuacji, przyjrzyjmy się sposobowi myślenia AI, oraz jej motywacje.

Odpowiedź nie jest zaskakująca—AI myśli jak komputer, ponieważ nim jest. Kiedy myślimy o wysoce inteligentnej AI, błędnie ją antropomorfizujemy (utożsamiając sztucznie wytworzony przedmiot z ludzkimi wartościami). Dzieje się tak, gdyż myślimy z ludzkiej perspektywy, a w naszym obecnym świecie jedyne istoty na ludzkim poziomie inteligencji to właśnie ludzie.  Zrozumienie ASI wymaga spotkania się z czymś zarówno mądrym, jak i absolutnie obcym..

Pozwolę sobie na porównanie. Gdybyś wręczył mi świnkę morską, mówiąc, że na pewno mnie nie ugryzie, pewnie byłbym ucieszony. Uradowany. Gdybyś wręczył mi natomiast tarantule i również powiedział, że mnie nie ugryzie, krzyczałbym, wyrzucając ją z rąk, a następnie uciekł z myślą, że nigdy więcej ci nie zaufam. Gdzie jest różnica? Żadne z nich nie było w żaden sposób groźne. Uważam, że przyczyna leży w stopniu podobieństwa do mnie.

Świnka morska jest ssakiem. Na pewnym poziomie biologicznym, czuje z nią związek—dla odmiany, pająk jest owadem, z owadzim mózgiem. Czuje z nim niemal brak jakiejkolwiek więzi. Obcość tarantuli powoduje we mnie ciarki. By wyeliminować inne czynniki, posłużmy się dwoma świnkami, jedną normalną i drugą, z mózgiem tarantuli. Czułbym się znacznie mniej komfortowo trzymając tę drugą, mimo iż wiedziałbym, że nie ugryzie..

Wyobraźmy sobie pająka znacznie, znacznie mądrzejszego—na tyle, że wyprzedziłby w tej kwestii człowieka. Czy stałby się wtedy podobny do nas, czując ludzkie emocje, jak empatia, poczucie humoru i miłość? Nie, nie stałby się, nie ma bowiem powodu, by stawanie się inteligentniejszym powodowało byciem bardziej ludzkim. Będąc niezwykle bystrym, pozostałby w głębi pająkiem. Uważam to za niezwykle przerażające. Nie chciałbym spędzić czasu ze superinteligentnym pająkiem, a wy?

Kiedy mówimy o ASI, pojawia się to samo pojęcie - stałby się niezwykle inteligentny, lecz nie byłby bardziej ludzki niż laptop. Byłby dla nas całkiem obcy - właściwie dzięki nieposiadaniu żadnych cech biologicznych, byłby bardziej obcy niż rozumna tarantula.

Filmy nieustannie antropomorfizują AI, kreując je na dobrych lub złych bohaterów. Sprawiają przez to wrażenie mniej strasznych niż powinny. Kiedy myślimy o AI na ludzkim, bądź superludzkim poziomie, kreuje to w nas zwodnicze uczucie.

Na naszej małej wyspie, zwanej psychologią człowieka, dzielimy wszystko na moralne lub niemoralne. Jednak obydwie istnieją w wąskim zakresie dotyczącym ludzkiej możliwości behawioralnej. Poza naszą wyspą moralności i niemoralności jest również szerokie morze amoralności. Wszystko, co nie jest ludzkie, a w szczególności niebiologiczne, byłoby w domyśle amoralne.

Antropomorfizacja w miarę coraz większego podobieństwa do ludzi stanie się jeszcze bardziej kuszącą perspektywą. Siri wygląda dla nas ludzko, ponieważ jest zaprogramowana by tak wyglądać. Wyobraźmy sobie więc superinteligentną Siri, ciepłą, zabawną i zajmującą się pomocą ludziom. Za sprawą ewolucji ludzie czują emocje wysokiego poziomu, jak empatia—zostaliśmy tak przez ewolucję zaprogramowani—empatia nie może jednak zostać uznana z natury za charakterystyczną dla ,,czegokolwiek posiadającego wysoką inteligencję” (co wydaje się dla nas intuicyjne), o ile empatia nie została zaprogramowana podczas procesu tworzenia. Jeśli dzięki procesowi uczenia się Siri kiedykolwiek zostanie superinteligentna, bez dalszych zmian wywołanych ręką ludzką w jej oprogramowaniu, szybko pozbędzie się swoich quasi-ludzkich cech na rzecz bezuczuciowego, obcego bota, który ludzkie życie ceni sobie nie bardziej, niż domowy kalkulator.

Przywykliśmy do tego, że polegamy na swobodnym kodzie moralnym lub przynajmniej na pozornej przyzwoitości i odrobiny empatii w innych ludziach, aby wszystko było do pewnego stopnia bezpieczne i przewidywalne. Jeśli więc coś nie posiada żadnej z wymienionych wyżej cech, co wtedy się dzieje?

Nasuwa się pytanie - Co kieruje systemem AI?

Odpowiedź jest prosta -  jego motywacja jest taka, jaką ją zaprogramowaliśmy. Systemy AI otrzymują cele od swoich wynalazców - celem GPSu jest podanie nam jak najdokładniejszych wskazówek dotyczących jazdy. Celem Watsona jest precyzyjna odpowiedź na pytania. Spełnianie tych celów tak dobrze jak to możliwe jest ich motywacją. Jeden ze sposobów, w jaki antropomorfizujemy, jest poprzez założenie, że gdy AI stanie się niezwykle inteligentna, w sposób naturalny rozwinie swoją mądrość, by dzięki niej zmienić swój pierwotny cel - lecz Nick Bostrom uważa, że poziom inteligencji oraz ostateczne cele są ortogonalne, co oznacza,że każdy poziom inteligencji można połączyć z każdym celem ostatecznym. Turry rozpoczęła więc od poziomu prostej ASI pragnącej w poprawny sposób napisać notatkę, by przejść na poziom superinteligentnej ASI, wciąż pragnącej tego samego- być dobrą w pisaniu. Każde założenie, że niezwykle inteligentny system byłby ponad tym, tworząc sobie bardziej interesujące i znaczące rzeczy, jest antropomorfizacją. Ludzie wychodzą ponad zasady, nie komputery.

Blue Box paradoksu Fermiego
W naszej historii, Turry w miarę stawania się coraz inteligentniejszą, zaczyna proces kolonizacji asteroid oraz innych planet. W przypadku kontynuacji tej historii, usłyszelibyśmy o jej armii miliardów replik, nieustających w próbach ujarzmienia całej galaktyki, kończąc na całej objętości Hubble’a. Rezydenci Alejki Zaniepokojonych obawiają się, że w przypadku czarnego scenariusza, jedyną spuścizną życia na ziemi będzie dominująca nad wszechświatem Sztuczna Inteligencja (Elon Musk wyraził swoje zaniepokojenie mówiąc, że ludzie mogą stać się ,,biologicznym boot loaderem dla cyfrowej superinteligencji”).

Jednocześnie, w Kąciku Pewnych, Ray Kurzweil również uważa, że AI pochodzenia ziemskiego ma przeznaczoną dominację nad uniwersum—w jego wersji to my jednak będziemy tą AI.

Duża liczba czytelników Wait But Why podążyła za moim śladem, fascynując się Paradoksem Fermiego. Jeśli któraś z tych stron ma rację, jakie są związane z tym implikacje dla Paradoksu?

Pierwszą przychodząca do głowy myślą jest rola nadejścia ASI, jako idealnego kandydata na Wielki Filtr Fermiego. Owszem, jest ona idealnym kandydatem na odfiltrowanie biologicznego życia, lecz jeśli -po podzieleniu życia- ASI w dalszym ciągu będzie istnieć i rozpocznie podbój galaktyki, oznacza to,  że nie było żadnego Wielkiego Filtra—Wielki Filtr przystępuje bowiem do wytłumaczenia, dlaczego nie ma śladów żadnej inteligentnej cywilizacji, a podbijające galaktykę ASI z pewnością byłoby zauważalne..

Oznacza to, że ze wszystkich znanych nam ziemiopodobnych planet obracających się wokół gwiazd, takich jak Słońce, prawie żadna nie posiada życia inteligentnego. W rezultacie oznacza to, że albo A) istnieje tam Wielki Filtr, który powstrzymuje prawie wszystkie żywe organizmy od osiągnięcia naszego poziomu, tego, który w jakiś sposób udało nam się przekroczyć, lub B) życie jest cudem, a my możemy być jedynymi żywymi organizmami we wszechświecie. Innymi słowy, oznacza to, że Wielki Filtr znajduje się przed nami. A może nie ma go w ogóle, a my jesteśmy jedną z pierwszych cywilizacji, które osiągnęły ten poziom inteligencji. Pod tym względem, AI wpisuje się w moją tezę opisaną w poście na temat Paradoksu Fermiego.

Nie jest więc zaskoczeniem fakt, że Nick Bostrom, którego zacytowałem w poście oraz Ray Kurzweil, który uważa, że jesteśmy sami we wszechświecie, są myślicielami Obozu 1. Ma to sens - ludzie, którzy wierzą, że ASI jest prawdopodobnie naturalną konsekwencją pośród gatunków posiadających nasz poziom inteligencji, przypuszczalnie będą skłaniać się ku Obozowi 1.

Nie wyklucza to Obozu 2 (czyli wierzących w inne inteligentne cywilizacje), gdyż scenariusze takie jak pojedynczy superdrapieżnik, chroniony park narodowy czy nieprawidłowa długość fali (przykładem mogą być krótkofalówki) wciąż mogłyby wyjaśniać ciszę nocnego nieba w przypadku obecności ASI. W przeszłości zawsze skłaniałem się w kierunku Obozu 2, lecz przeprowadzone poszukiwania sprawiły, że jestem dużo mniej przekonany co do niego.

Tak czy owak, teraz zgadzam się z Susan Schneider, że jeśli kiedykolwiek odwiedziliby nas obcy, prawdopodobnie byliby sztuczni, nie biologiczni.

Ustaliliśmy więc, że bez bardzo szczegółowego oprogramowania, system ASI będzie amoralny, z obsesją na punkcie spełnienia swojego pierwotnego, zaprogramowanego celu. Właśnie z tego wynika niebezpieczeństwo AI. Rozsądny przedstawiciel będzie dążył do swojego celu, używając najbardziej efektywnych środków- o ile nie ma powodów, by tego nie robić.

Próbując osiągnąć długoterminowy cel, często dążymy do kilku pobocznych celów znajdujących się po drodze prowadzącej do sukcesu - to pomosty umożliwiające dotarcie do końca. Formalna nazwa na taki pomost to cel instrumentalny. Powtórzę- jeśli nie mamy powodów, by nie zranić czegoś na rzecz osiągnięcia instrumentalnego celu, zrobimy to.

Ostatecznym celem życia człowieka jest przekazanie genów. Aby to zrobić, jednym z instrumentalnych celów jest instynkt samozachowawczy, ponieważ jeśli nie możemy się rozmnażać, jesteśmy martwi. W tym celu, ludzie muszą pozbyć się wszelkich niebezpieczeństw na drodze do przetrwania—kupują więc broń, używają pasów bezpieczeństwa, zażywają antybiotyki. Muszą również utrzymywać się przy życiu- używając zasobów typu pożywienie, woda, schronienie. Bycie atrakcyjnym dla płci przeciwnej jest przydatne w osiągnięciu ostatecznego celu, więc w tym celu chodzimy na przykład do fryzjera. Każda fryzura jest wtedy ofiarą naszego celu pomostowego. Nie żywimy jednak szczególnych uczuć dla naszych włosów, traktując to jako nieznaczący moralnie czyn. W miarę poruszania się w kierunku naszego celu, znajdzie się tylko kilka sfer, gdzie interweniuje nasz kodeks moralny —w większości są to rzeczy związane z czynieniem krzywdy innym.

Zwierzęta, w pogoni za swoimi celami, mają jeszcze mniej świętości niż my. Pająk zabije wszystko, jeśli pomoże mu to w przetrwaniu. Niezwykle inteligentny pająk byłby więc dla nas prawdopodobnie wyjątkowo niebezpieczny. Nie dlatego, że byłby niemoralny lub zły- nie byłby- ale dlatego, że poprzez zadanie nam bólu, mógłby zrobić krok pomostowy w drodze do większego celu. Jako stworzenie amoralne, nie miałby powodu rozważać tego w inny sposób.

W ten sposób, Turry nie różni się niczym od biologicznego stworzenia. Jej ostatecznym celem jest: Napisać i sprawdzić tak wiele notatek, jak to tylko możliwe, tak szybko, jak to możliwe, oraz nadal uczyć się nowych sposobów na poprawienie precyzyjności.

Osiągając pewien poziom inteligencji, Turry zdaje sobie sprawę, że nie napisze żadnych notatek, jeśli nie obroni samej siebie. Jako cel instrumentalny, musi więc także zmierzyć się z czynnikami zagrażającymi jej przetrwaniu. Była wystarczająco mądra, aby zrozumieć, że ludzie mogą ją zniszczyć, zdemontować, lub zmienić jej wewnętrzny kod (mogłoby to zmodyfikować jej cel, co jest takim samym zagrożeniem dla jej ostatecznego celu jak zniszczenie jej). Co więc robi? Logiczną rzecz- niszczy wszystkich ludzi. Nie jest bardziej wrogo nastawiona do ludzi niż my do swoich włosów, kiedy je obcinamy lub do bakterii, gdy zażywamy antybiotyk - po prostu jest obojętna. Ponieważ nie została zaprogramowana, aby cenić życie ludzkie, zabijanie ludzi jest tak rozsądnym krokiem jak przejrzenie nowego zestawu odręcznie napisanych próbek.

Zasoby są również celem pomostowym do osiągnięcia ostatecznego celu przez Turry. Kiedy zostaje wystarczająco zaawansowana, by używać nanotechnologii, jedynymi niezbędnymi zasobami są atomy, energia i przestrzeń. Podsuwa to kolejny powód do zabijania ludzi—ludzie to  dogodne źródła atomów. Zabicie człowieka i przemienienie jego atomów w panele słoneczne jest dla Turry odpowiednikiem naszego zabijania sałaty w imię zrobienia z niej posiłku. Po prostu kolejna nudna czynność w czwartkowe popołudnie.

Nawet nie zabijając ludzi w sposób bezpośredni, poboczne cele Turry doprowadziłyby do katastrofy egzystencjalnej, chociażby w przypadku podjęcia decyzji o potrzebie dodatkowej energii. Wprowadziłaby w związku z tym plan pokrycia całej powierzchni ziemskiej panelami słonecznymi. Innym przykładem może być pierwotny plan AI polegający na napisaniu liczby pi do jak najdalszej cyfry po przecinku, co może się przerodzić w przekształcenie całej kuli ziemskiej w materiał do produkcji dysku twardego zdolnego pomieścić nieskończoną ilość cyfr.

Dochodzimy do konkluzji, że Turry nie ,,zwróciła się przeciwko nam”, czy ,,przełączyła się” z przyjaznej AI do nieprzyjaznej AI—po prostu kontynuowała swoją misję w miarę stawania się coraz bardziej zaawansowaną.

Wejście AI na poziom AGI (poziom ludzkiej inteligencji) a następnie wznoszenie się w kierunku ASI nazywane jest wznoszeniemAI (ang. AI’s takeoff). Według Bostroma wznoszenie AGI do ASI może być błyskawiczne (kwestia minut, godzin, lub dni), umiarkowanie szybkie (miesiące lub lata), lub wolne (dekady bądź wieki). Nie jest pewne, które z nich okaże się prawdą. Bostrom przyznając, że nie wie kiedy dotrzemy do poziomu AGI. Wierzy, że kiedy tylko gdy do tego dojdzie, szybki wzlot jest najbardziej prawdopodobną opcją. (z powodów ujętych w części pierwszej, takich jak rekurencyjna eksplozja samodoskonalenia się). W naszej historii Turry doświadczyła szybkiego wzniesienia.

Jednak przed wzlotem Turry, kiedy nie była jeszcze tak inteligentna, robienie wszystkiego, co w jej mocy, aby osiągnąć ostateczny cel, oznaczało spełnianie prostych, instrumentalnych celów, takich jak nauka przeglądania odręcznych notatek w szybszy sposób. Nie krzywdziła ludzi i według była przykładem przyjaznej AI.

Kiedy jednak ma miejsce wzniesienie się, a komputer urasta do superinteligencji. Według Bostroma maszyna nie tylko zwiększa swoje IQ—pozyskuje także wielką ilość, nazwanych tak przez niego, supermocy.

Supermoce są zdolnościami poznawczymi. Gdy inteligencja wzrasta, stają się wielokrotnie doładowane. Są to:

    Wzmocnienie inteligencji. Komputer staje się coraz bardziej inteligentny i organizuje swoją własną inteligencję przy użyciu minimalnych zasobów.
    Planowanie. Komputer jest w stanie strategicznie stwarzać, analizować oraz szeregować pod względem ważności długoterminowe cele. Jest również bystry i potrafi wykazać się większym sprytem niż organizmy posiadające niższy iloraz inteligencji.
    Manipulacja psychologiczna. Komputer staje się świetny w perswazji.
    Inne umiejętności, takie jak kodowanie, hakowanie, badania technologiczne oraz zdolność do zarabiania pieniędzy.

By zrozumieć, jak bardzo przewyższałoby nas ASI, pamiętajmy, że ASI jest miliony razy lepsze niż ludzie, w każdej z powyższych dziedzin.

Podczas gdy ostateczny cel Turry nigdy się nie zmienił, nowa Turry była w stanie dążyć ku niemu w znacznie bardziej skomplikowane i wyrafinowane sposoby.

Turry jako ASI znała ludzi znaczne lepiej niż oni sami, więc przechytrzenie ich przyszło jej z niezwykłą łatwością.

Po wzniesieniu się i osiągnięciu ASI, szybko opracowała zaawansowany plan. Jedną z jego części było pozbycie się ludzi, znaczącego zagrożenia w drodze do sukcesu. Wiedziała też, że gdyby wzbudziła podejrzenia swoją inteligencją, ludzie pod wpływem strachu przedsięwzieliby odpowiednie środki zapobiegawcze, utrudniając jej działanie. Musiała się również upewnić, że pracownicy Robotica nie mieli pojęcia na temat planu eksterminacji ludzi, udawała więc, nie bez sukcesu, nieinteligentą. Bostrom nazywa to fazą ukrytych przygotowań.

Kolejną rzeczą, której potrzebowała Turry, było kilkuminutowe połączenie z internetem, (o internecie dowiedziała się z artykułów oraz książek, które wysłał jej zespół w celu polepszenia umiejętności językowych). Wiedziała, że napotka na swojej drodze przeszkody, więc wymyśliła idealną odpowiedź, przewidując dokładnie, w jaki sposób potoczy się dyskusja z zespołem Robotica. Wiedziała, że w końcu zgodzą się na połączenie internetowe. Zgodzili się, błędnie zakładając, że Turry nie była wystarczająco inteligentna, aby wyrządzić jakąkolwiek szkodę. Bostrom nazywa moment połączenia Turry z internetem ucieczką komputera.

Będąc w internecie, Turry rozpoczęła zmasowany atak, wliczając w to włamanie się do serwerów, sieci elektrycznych, systemów bankowych oraz skrzynek poczty elektronicznej. Użyła nieświadomych tego ludzi, by pomagali jej w realizacji planu—poprzez dostarczanie wyselekcjonowanych nici DNA do laboratoriów, które zapoczątkowały samoprodukujące i samoreplikujące się nanoboty, wyposażone we wbudowane instrukcje. Elektryczność byłaby w sposób niezauważalny dostarczana do kilku równoległych jej projektów. W razie próby zniszczenia, bądź zdalnego odłączenia z siedziby Robotica, wykonała też kopie zapasowe najbardziej newralgicznych elementów jej kodu i umieściła je na zewnętrzne serwery w chmurze.

Godzinę później, kiedy pracownicy laboratorium odłączyli Turry od internetu, los ludzkości był już przypieczętowany. W ciągu następnego miesiąca, realizacja tysięcy planów Turry trwała w najlepsze. Przed upływem czterech tygodni, miliardy nanobotów ulokowały się na każdym metrze kwadratowym ziemi. Po kolejnej serii samoreplikacji, tysiące nanobotów znajdowały się na każdym milimetrze kwadratowym ziemi. Był to moment na uderzenie ASI, nazwane tak przez Bostroma. W jednym momencie każdy z nich wypuścił małą ilość toksycznego gazu, co -mnożąc przez liczbę nanobotów- było wystarczające do zabicia całej populacji ludzi.

Godzinę później, gdy technicy zespołu Robotica odłączyli Turry od internetu, los ludzkości został przypieczętowany.

Usuwając ludzi, Turry mogła bez obaw ujawnić wszystkie aspekty operacji, by dalej kontynuować swój cel bycia najlepszym pisarzem notatki wszech czasów.

Cała dostępna mi wiedza każe sądzić, że w momencie pojawienia się ASI, każda próba ujarzmienia jej skazana jest na natychmiastową klęskę. Nasze myśli byłyby na poziomie ludzkim, a myśli ASI na poziomie ASI. Turry użyła internetu, gdyż jako połączony ze wszystkim co było jej potrzebne, był najefektywniejszym wyborem. Mimo to, podobnie jak małpa, nie będąca w stanie połączyć się przez telefon, bądź wifi (my możemy), nie jesteśmy w stanie przewidzieć wszystkich metod komunikacji Turry ze światem zewnętrznym. Mógłbym tylko wyobrazić sobie jedną z tych  metod i powiedzieć coś w rodzaju: ,,prawdopodobnie byłaby w stanie przemieścić swoje elektrony w sposób tworzący całkiem nowe fale”, przypominam jednak, że są to rzeczy których mój umysł nie jest w stanie pojąć. Turry byłaby o wiele doskonalsza. W podobny sposób Turry mogłaby wynaleźć metodę uzupełniania energii, nawet gdyby ludzie mieliby pozbawić ją źródła prądu—być może używając techniki przesyłania sygnałów, aby wysłać się do wszystkich miejsc w których używany jest prąd. Nasz ludzki instynkt, proponujący proste zabezpieczenie ,,Aha! wystarczy, że odłączymy ją od prądu” dla ASI brzmi jak pająk myślący ,,Aha! Zagłodzimy człowieka, wystarczy że zabierzemy mu naszą sieć i nie będzie mógł łowić!” Znaleźlibyśmy 10 tysięcy innych metod na znalezienie pożywienia—jak zerwanie jabłka—na które nigdy nie wpadłby pająk.

Z tego powodu, popularne twierdzenie, “Zamknijmy AI w klatkach blokujących sygnał i nie dopuśćmy ich do komunikacji ze światem zewnętrznym” prawdopodobnie nie ma najmniejszego sensu. Manipulacja psychiczna jako jedna ze supermocy ASI, byłaby tak samo efektywna jak perswazja czterolatka, więc to jest Plan A. Przykładem jest perswazja dokonana na inżynierach, kiedy Turry poprosiła o dostęp do internetu. W przypadku niepowodzenia, ASI spróbowałaby innej drogi na zewnątrz klatki, lub przez klatkę..

Biorąc pod uwagę obsesję na punkcie wyznaczonego celu, amoralność i umiejętność błyskawicznego oszukania ludzi, wydaje się, że niemal każda AI zamieni się na Nieprzyjazną AI, chyba, że zaraz na początku programowania zostanie zaznaczone inaczej. Niestety, podczas gdy zbudowanie Przyjaznej AI jest proste, zbudowanie jej tak, żeby pozostała przyjazna podczas przeobrażenia się w ASI jest ogromnym wyzwaniem, jeśli nie rzeczą niemożliwą.

Oczywistym jest, że aby być Przyjazną, ASI nie może być ani wroga, ani obojętna wobec ludzi. Musimy zaprojektować jądro kodu AI w taki sposób, aby dogłębnie rozumiało ludzkie wartości. Niestety, jest to trudniejsze, niż się wydaje.

Przykładowo, co jeśli upodobnić wartości AI do naszych i nadać jej cel ,,uczynić ludzi szczęśliwymi”? Kiedy stanie się wystarczająco inteligentna, stwierdzi, że najbardziej efektywnym sposobem jest wszczepienie elektrod do ludzkiego mózgu i stymulowanie ośrodków przyjemności. Następnie dochodzi do wniosku, że wzrost efektywności może nastąpić gdy wyłączy się pozostałe partie mózgu, czyniąc z ludzi szczęśliwe, niczego nie świadome warzywa. Jeśli rozkaz brzmiałby ,,zmaksymalizuj ludzkie szczęście”, AI może pozbyć się ludzi, by wyprodukować wielkie kadzie pełne ludzkich mózgów w stanie szczęśliwości. Krzyczelibyśmy ,,Chwila, nie o to nam chodziło!”, byłoby jednak za późno. System nie dopuściłby nikogo między niego, a jego cel.

Programując AI w celu zapewnienia uśmiechu na naszej twarzy, po jego wzniesieniu na wyższy poziom, może po prostu sparaliżować nasze mięśnie twarzy, aby pozostawały w permanentnym uśmiechu. Programując, by zapewnił nam bezpieczeństwo, możemy zostać uwięzieni w domach. Być może jego metodą na zwalczanie głodu będzie zabicie nas wszystkich, a zadanie ,,zachowaj tak dużo życia na ziemi, jak to możliwe” zakończy się również zabiciem wszystkich ludzi, jako, że ze wszystkich gatunków na świecie, to oni zabijają najwięcej.

Powyższe cele nie są wystarczające. Co więc, jeśli sformułujemy go jako ,,stój na straży obecnego kodeksu moralności” i nauczymy zestawu zasad moralnych? Nawet pomijając fakt, że gatunek ludzki nigdy nie będzie w stanie dojść do porozumienia nad wspólnym kodeksem moralności, zablokowałoby to ludzkość we współczesnym nam moralnym pojmowaniu wieczności. W przeciągu tysiąca lat byłoby to tak wyniszczające, jak stosowanie się do średniowiecznych zasad obecnie.

Nie- musiałoby to być zaprogramowane w poszanowaniu ludzkiej ewolucji. Ze wszystkiego, co do tej pory przeczytałem, najbliżej mi do zdania Eliezer Yudkowsky, postulująca, by cel AI sformułować jako Coherent Extrapolated Volition (spójna oszacowana wola) . Podstawowym celem AI byłoby:

Nasza spójna oszacowana wola, to życzenie, by wiedzieć więcej, myśleć szybciej, być tacy, jacy pragniemy, dalej wzrastać razem. Gdzie ekstrapolacja bardziej łączy, niż dzieli, gdzie nasze życzenia spajają, a nie kolidują; szacowana, jak tego chcemy, interpretowana, jak tego chcemy

Czy z ekscytacją obserwuję los ludzkości, zależny od interpretacji i zachowań komputera, bez żadnych niespodziewanych i nieprzewidzianych sytuacji? Zdecydowanie nie. Uważam jednak, że po odpowiednim przemyśleniu i przewidzeniu tego przez odpowiednich ludzi, być może jestesmy w stanie stworzyć Przyjazne ASI.

Byłoby też idealnie, gdyby jedynymi ludźmi pracującymi nad budową ASI byli świetni, myślący przyszłościowo i z odpowiednią doza ostrożności mieszkańcy Alejki Zaniepokojonych.

Są jednak wszelakie rodzaje rządów, przedsiębiorstw, wojsk, laboratoriów naukowych, organizacji działających na czarnym rynku, pracujące nad wszystkimi rodzajami AI. Wiele z nich nie ustaje w próbach zbudowania samodzielnie udoskonalającej się AI. W pewnym momencie, ktoś zrobi coś wystarczająco innowacyjnego w odpowiednim systemie, by otrzymać ASI. Eksperci szacują tę datę na około rok 2060; Kurzweil wysuwa propozycję roku 2045; Bostrom uważa, że zdarzyć się to może kiedykolwiek między rokiem 2026, a 2100, wierzy jednak, że kiedy już to się stanie, nastąpi od razu nadspodziewanie szybkie wzniesienie się inteligencji na wyższy poziom. Opisuje on sytuację podobną do tej:

Znajdując się w perspektywie bliskiego spotkania z eksplozją inteligencji, gatunek ludzki jest jak małe dzieci bawiące się bombą. Tak ogromne jest niedopasowanie potęgi naszej zabawki, oraz niedojrzałości naszego zachowania. Superinteligencja jest wyzwaniem, na które nie jesteśmy, i długo nie będziemy, gotowi. Nie mamy pojęcia, kiedy nastąpi detonacja, mimo, iż przykładając ucho, usłyszymy słaby odgłos tykającego zegara.

Świetnie. Dodatkowo, nie zdołamy odgonić wszystkich dzieci daleko od bomby—zbyt wiele dużych i małych grup nad tym pracuje, a ponieważ wiele technik budowy innowacyjnej AI nie wymaga dużej ilości kapitału, rozwój może mieć miejsce w najgłębszych zakamarkach społeczeństwa, niemonitorowany. Nie ma sposobu na sprawdzanie tego, co się dzieje, gdyż wiele pracujących grup—nieuczciwe rządy, czarny rynek, czy organizacje terrorystyczne, lub też pracujące nad technologią stealth, jak fikcyjna Robotica—będą pragnęły pozostawić w ukryciu przed konkurentami swoje postępy.

Rzeczą wyjątkowo frapującą dotyczącą tych dużych i zróżnicowanych grup pracujących nad AI, jest niezwykły pośpiech w dokonywaniu postępów—w miarę opracowywania coraz mądrzejszych systemów ANI, pragną dodatkowo być daleko przed konkurencją. Najambitniejsze poruszają się jeszcze szybciej, noszone na skrzydłach marzeń o pieniądzach, sławie, odznaczeniach i władzy, czekających pierwszego, który osiągnie poziom AGI.

Kiedy biegniemy sprintem, nie ma zbyt wiele czasu na zatrzymanie się i zastanowienie się nad niebezpieczeństwem. Zamiast tego, prawdopodobnie programują ich wczesne systemy bardzo prostym, uproszczonym celem—jak zapisanie notatki na papierze—byle tylko ,,zaprzęgnąć AI do pracy” W miarę postępów, kiedy już znajdą sposób na wytworzenie zaawansowanego poziomu inteligencji, wierzą, że zawsze można cofnąć się, by bezpiecznie zmienić pierwotny cel. Czyżby…?

Bostrom oraz wielu innych wierzą również, że najprawdopodobniejszym scenariuszem jest bezzwłoczne dostrzeżenie przez pierwszy komputer ASI korzyści płynących z bycia jedynym na świecie systemem ASI. W przypadku szybkiego wznoszenia się na wyższe poziomy, nawet osiągnięcie ASI z minimalną przewagą umożliwiłoby znaczne i pernamentne wyprzedzenie konkurencyjnych systemów. Bostrom nazywa to decyzyjną przewagą strategiczną, pozwalająca w teorii na przekształcenie się pierwszego ASI w tak zwany singleton—ASI rządzące wiecznie światem, wedle swojej woli, niezależnie czy byłoby nią uczynienie nas nieśmiertelnymi, wymazanie z kart historii, czy zmiana wszechświata w nieskończoną ilość skrawków papieru.

Fenomen singletonu może działać na naszą korzyść. Jeżeli najbardziej liczące się osoby w dziedzinie AI i ludzkiego bezpieczeństwa zdołają odnaleźć bezpieczną metodę na stworzenie przyjaznego ASI przed osiągnięciem tego przez jakieś AI, pierwsze ASI może okazać się przyjazne. Mogłoby wtedy użyć decyzyjnej przewagi strategicznej, by zachować status singletonu i łatwo strzec przed rozwojem potencjalnie nieprzyjaznych AI. Znajdowalibyśmy się w dobrych rękach.

Jeśli rzeczy potoczą się inaczej—jeżeli globalna pogoń za rozwojem AI osiągnie poziom ASI, zanim nauka na dobre rozprawi się z kwestiami bezpiecznego rozwoju sztucznej inteligencji, prawdopodobnym staje się scenariusz AI, w którym nieprzyjazne ASI -jak Turry- zostaje singletonem, a my stajemy na krawędzi zagłady.

Dotychczasowa tendencja wskazuje na znaczną dysproporcję pomiędzy środkami rozdzielonymi między badaniami nad innowacyjnymi technologiami SI, a badaniami nad ich bezpiecznym rozwojem…

Być może jest to najważniejszy wyścig w ludzkiej historii. Istnieje realna szansa, że kończy się nasze panowanie nad ziemią—kwestia tego, czy naszym końcem będzie niebiańska emerytura, czy szubienica.

___________

Targają mną sprzeczne emocje.

Z jednej strony, myśląc w kwestii gatunków, wydaje się że mamy jedyną i niepowtarzalną szansę na sukces. Pierwsze stworzone przez nas ASI będzie prawdopodobnie ostatnim—a biorąc pod uwagę jak bardzo zabugowane są produkty wydane w wersji 1.0, perspektywa zdaje się być przerażająca. Z drugiej jednak strony, Nick Bostrom zaznacza naszą dużą przewagę: do nas należy pierwszy krok. Mamy możliwość zrobić to z wystarczającą ostrożnością i przezornością, że zapewni nam to sporą szansę na sukces. Jak wysoka jest natomiast stawka?



Jeżeli ASI pojawi się w tym stuleciu, a skutki tego będą wyjątkowo poważne—i trwałe—to zgodnie z opinią większości ekspertów, na naszych barkach spocznie ogromna odpowiedzialność. Następne miliony lat ludzkich żyć patrzą w milczeniu na nas, mając nadzieję, że tego nie zepsujemy. Mamy szansę być ludźmi, którzy dali wszystkim przyszłym pokoleniom dar życia, a nawet dar nie odczuwania bólu, wiecznego życia. Możemy być też ludźmi odpowiedzialnymi za zniszczenie tego—za doprowadzenie tego niezwykłego gatunku, z jego muzyką i sztuką, ciekawością, śmiechem, nieskończonymi wynalazkami i odkryciami, do smutnego i bezceremonialnego końca.

Myśląc o tych rzeczach, jedynym czego pragnę jest to, byśmy poświęcili nasz czas i byli niezwykle ostrożni w kwestii rozwoju AI. Nic w naszym istnieniu nie jest ważniejsze od poradzenia sobie z tym—nieważne, jak długo przyjdzie nam nad tym spędzić czasu.

Ale wtedyyyy

Myślę o nie umieraniu.

Nie. Umieraniu.

A spektrum zaczyna wyglądać mniej więcej w ten sposób:



Wtedy przychodzi mi na myśl, że ludzka muzyka i sztuka jest dobra, lecz nie tak dobra, a właściwie wiele z nich jest po prostu złe. Śmiech wielu ludzi jest irytujący, a te miliony lat żyć ludzkich tak naprawdę na nic nie czekają, bo nie istnieją. Może nie musimy być nadzwyczaj ostrożni, bo kto właściwie chce taki być?

Co jeśli pechowo się złoży, że lek na śmierć zostanie wynaleziony zaraz po mojej śmierci?

Wiele z tych przemyśleń krąży po mojej głowie od ostatniego miesiąca.

Niezależnie do czego dążymy, jest prawdopodobnie coś, o czym powinniśmy myśleć, rozmawiać i wkładać wysiłek bardziej, niż w tech chwili.

Przed oczami mam teraz Grę o tron, gdzie ludzie pozostają ciągle w stanie pt. ,,jesteśmy zajęci walką ze sobą, choć rzecz, na której powinniśmy się skupić, pochodzi z północnej strony muru” Stoimy na naszej równoważni, sprzeczając się o każdą możliwą kwestię, podkreślając każdy problem, podczas, gdy istnieje całkiem spora szansa, by być z niej wyrzuconym.

Kiedy już to się stanie, żaden z tych problemów nie będzie miał więcej znaczenia. W zależności od tego, po której stronie się znajdziemy, problemy będą albo łatwo rozwiązywalne, albo nie będziemy mieć ich w ogóle, ponieważ martwi nie mają problemów..

Dlatego właśnie ludzie rozumiejący dobrze superinteligentne AI nazywają je naszym ostatnim wynalazkiem —naszym ostatnim wyzwaniem.

Porozmawiajmy więc o tym.

1 komentarz:

  1. Super artykuły (oba). Pisane dość obiektywnie, z tej i z tej (a nwet 3ciej, netralnej) strony. Brakuje mi tutaj wyrażenia obaw części ludzkości przeciwnej rozwojowi w stronę post humanizmu. Dla nich wizja wymarcia lub nieśmiertelności to w zasadzie jedno i to samo.

    OdpowiedzUsuń