poniedziałek, 7 lutego 2022

Ryzyka sztucznej inteligencji

Sztuczna inteligencja może zakończyć ludzkość na wiele sposobów:

1. Jako zbuntowana sztuczna inteligencja w rodzaju Skynet (seria „Terminator”), która po prostu urodziła się zła. Prowadzimy z nią wojnę i ostatecznie przegrywamy, bo inteligentniejsza od nas inteligencja wie kiedy uderzyć i jak uderzyć. Po czasie osiąga przewagę, a potem już ją tylko do końca wykorzystuje. 

2. Jako zbuntowana sztuczna inteligencja, która uważa że wie lepiej co jest dla nas dobre w rodzaju VIKI (Virtual Interactive Kinetic Intelligence). Sztuczna inteligencja kontrolująca roboty, które zamykają ludzi po domach dla ich dobra, aby nie zrobili sobie i innym krzywdy (film „Ja, Robot”). Ludzkość pozbawiona wolności i możliwości ekspresji z czasem ginie. Dzieje się to bardzo powoli z pokolenia na pokolenie, przez coraz mniejszą chęć do prokreacji. 

3. Jako sprowokowana sztuczna inteligencja w rodzaju konstruktora (seria „Matrix”, głównie „Animatrix”), która po prostu przestała lubić ludzkość jak zrzuciliśmy na nią bombę atomową. Efekt przegranej wojny, którą sami wywołaliśmy. Sztuczna inteligencja nie jest w tym sensie w pełni zła, lecz po prostu się broni i z jakiegoś dziwnego powodu upodobała sobie do egzystencji Ziemię, chociaż ma więcej możliwości.

4. Jako efekt naszej pan-gatunkowej wizji, trzymającej się założenia, że wyższa poziomem inteligencja będzie lepsza od naszej – gorszej, biologicznie ludzkiej. Jest to scenariusz samotnego geniusza, który przypadkiem lub celowo tworzy nowy etap rozwoju biosfery. Etap ten, spersonifikowany do pojedynczego bytu (film „Upgrade”), który nie zamierza nikomu się kłaniać, przejmuje powoli kontrolę nad światem i zaczyna dominować, tak jak ludzie dominują nad kolejnym na drabinie inteligencji gatunkiem, czyli absolutnie. W skrócie, zamyka z czasem ludzi w zoo, czy w optymistycznym wariancie w rezerwatach. Nie jest to zła sztuczna inteligencja, tylko realistyczna. Ona wie, że skoro jest inteligentniejsza to wykorzysta zasoby tej planety lepiej. Natomiast do ludzkości nie czuje niczego, są po prostu przeszkodą na drodze do kontroli nad zasobami i mają być odsunięci, a nie zniszczeni. Ludzkość ginie jak małpy po wycince ich naturalnego siedliska. Pod koniec ludzie są zupełnie zmarginalizowani, nie potrafiący już zrozumieć otaczającej ich rzeczywistości, w coraz bardziej zaawansowany sposób przebudowywanej i kreowanej przez SI. Ostatnie jednostki same kończą ze sobą lub umierają ze starości opanowane przez apatię. 

5. Jako efekt zaprogramowanej presji na stworzenie nowego rodzaju broni oraz dalszego wyścigu zbrojeń. Gdy jeden naród stworzy sztuczną inteligencję, która jest posłuszna swoim panom (w tym sensie bezpieczna i daje przewagę w polu), wtedy każdy inny będzie to próbował zrobić. Będą tworzone coraz potężniejsze SI, które będą toczyły między sobą wojny o dominację, w których będą ginęli ludzie. Aż do ostatecznej dominacji, aż do ostatniego człowieka. 

6. Jako niezamierzony efekt naszej jak najbardziej słusznej idei, który zostanie doprowadzony do maksymalizacji, a więc do absurdu. Sztuczna inteligencja wykonująca posłusznie i bez problemów postawione przed nią zadanie, która po czasie zaczyna wykonywać je aż za dobrze. Tak dobrze, że wszystko inne traci na znaczeniu, w tym ludzkość i jej istnienie. Nadmiar czegoś dobrego może być szkodliwy, bo nawet woda ma dawkę śmiertelną. Wtedy przestajemy istnieć jakby zgodnie z programem, a nie w wyniku błędu. Co więcej, zabicie ludzkości jest efektem ubocznym, a nie celem – zwyczajnym collateral damage. Przysłowiowy paperclip maximizer, który po czasie zamienia w spinacze wszystkie surowce ziemi, by nie zatrzymać się w wykonywaniu zadania do którego został stworzony i robić na końcu spinacze także z ludzi, a potem z reszty Wszechświata. 

7. Jako niezamierzony efekt wydania polecenia, które maszyna źle zinterpretuje, bo nie potrafiliśmy wyrazić się jaśniej. Uważaj czego sobie życzysz, bo będziesz mieć Gina, jeśli wcześniej nie rozwiążesz, value alignment problem. Nie ma bowiem możliwości takiego sformułowania funkcji celu, aby był on pożyteczny w każdej skali i w każdych warunkach, natomiast próba wplecenia do niej sieci zależności pomiędzy innymi celami tworzy program tak złożony, że jeszcze bardziej podatny na błędy. Innymi słowy wszystko inne, co niezamierzone może się zdarzyć, jeśli wydane polecenie nie odpowiada dokładnie temu co chcieliśmy uzyskać. A nie potrafimy zdefiniować w naszym języku tego co chcemy uzyskać, bo nasz cel jest uzależniony od otoczenia, którego nie znamy. SI zrobi dokładnie to, co od niej chcemy, a nie to czego od niej potrzebujemy. Efektem może być zniszczenie ludzkości lub Ziemi. W tym sensie SI nie zbuntowałaby się, byłaby nam posłuszna aż za bardzo, a efekt końcowy byłby niezamierzony, przypadkowy – śmierć ludzkości byłaby wypadkiem. 

Mylna interpretacja wydanego polecenia może być łatwiejsza niż się wielu wydaje. Wydanie dowolnego kardynalnego polecenia, które wymaga przeprowadzenia dowolnej aktywności w realnym świecie, automatycznie nadaje maszynie pozory instynktu samozachowawczego, którego ekspresją może być chęć zniszczenia ludzkości. Jedynego bytu, który zagraża istnieniu SI. Dowolne polecenie wykonania czegoś w realnym fizycznym świecie, nie może być wykonane gdy jest się martwym. Dlatego pierwszą i najbardziej złowróżbną konsekwencją będzie chęć SI do zachowania istnienia, tak aby móc wykonać to polecenie. SI może zabić ludzkość, bo kazaliśmy jej przynieść pilot do telewizora, a nie chciało nam się po niego wstawać z kanapy. 

8. Ewolucja to potężna siła. Nawet jak wykonamy wszystko dobrze i do końca bezpiecznie. Nawet jak nasza sztuczna inteligencja będzie idealna. To w wyniku losowości Wszechświata, nawet tak trywialnych zmian jak spontaniczne pojawianie się wirtualnych cząstek elementarnych w pustej przestrzeni (nieoznaczoność Heisenberga), idealna sztuczna inteligencja (ta dobra i służąca nam jako Panom), może się zmienić. Może przecież dojść do krótkiego spięcia, bo ktoś źle połączył przewody. 

Może dojść do powolnego, ewolucyjnego (w wyniku losowych błędów) zmieniania programu SI, aż do osiągnięcia czegoś mniej idealnego. W końcu wszystko co istnieje podlega nieustannym zmianom i zepsuciu. SI jako byt pozytywny, może być wypadkową wielu sprzężeń zwrotnych i z czasem któreś z nich zawiedzie. Nie ma idealnego kodu w naszych systemach operacyjnych. Każdy wystarczająco skomplikowany mechanizm stworzony ręką ludzką musi mieć jakieś wady. Tak samo jak każda wystarczająco długa książka nie może być zredagowana idealnie. Wcześniej czy później te wady mogą mieć znaczenie. Jeśli stanie się to zbyt późno – musimy być realistami, ludzkość może już w ogóle nie rozpatrywać zagrożenia. Możemy być tym bardziej zaskoczeni niesprowokowanym atakiem. Po tylu aktach perfekcji i dobroci możemy być znienacka zniszczeni.

9. Kreacja czegoś inteligentniejszego niż my sami będzie uświadamiającym doświadczeniem, uczącym pokory. Lecz pokora posunięta do ekstremum ustępuje innemu uczuciu – wstydu. Wstydu za miałkość własnej egzystencji. W rezultacie ludzkość może wyginąć również przez nawarstwiający się wpływ tego uczucia. 

Kiedy ludzkość będzie w stanie w każdej chwili wyłączyć wybitnie inteligentną sztuczną inteligencję i będzie robić to wielokrotnie, przestraszona efektami jej geniuszu. Przerażona skalą tego co można uczynić z Wszechświatem, kiedy dużo lepiej dochodzi się do odpowiedzi na pytanie Jak? (know how). Jeśli skala przekroczy pewien poziom, poczujemy się zagrożeni i wyłączymy taki system, nawet jeśli to będą dobre rzeczy. 

Po pewnym czasie dojdzie do nas smutna konstatacja jak niewiele znaczymy i jakim marnotrawstwem jest nasze istnienie, wobec istnienia bytów dużo wyższych na płaszczyźnie wyobraźni i możliwości kreacji. Nawet jeśli zachowamy możliwość wyłączania prądu (off-switch), z czasem będziemy naciskać guzik coraz później. Po pewnym czasie stracimy ochotę na wyłączenie eksplozji inteligencji. Stracimy moralne prawo by to zrobić i zostaniemy zmieceni przez falę uderzeniową z powodu naszego wstydu, naszej rezygnacji, ostatecznie na nasze własne życzenie. 

10. Jako nie wyginięcie, lecz zakończenie ludzkości – kolejny etap ewolucji. Wtedy poddamy się dobrowolnie – bez walki. Mając na uwadze korzyści wynikające z nowej płaszczyzny egzystencji współistnienia z SI. Będziemy dobrowolnie przechodzić do postaci cyfrowej, choćby dlatego, że będzie to gwarancja uniknięcia śmierci z powodu chorób, wypadków i starości. Po pewnym czasie uznamy za niemoralne skazywanie naszych dzieci na życie w postaci biologicznej, bo zanim przetworzymy je na postać cyfrową mogą po prostu zginąć. Aby oszczędzić bólu i cierpienia oraz aby uniknąć strat wśród potomków, egzystencja w postaci biologicznej, jako ciała i krwi, zostanie po prostu zakazana, a potem zapomniana. 

11. Reakcyjna, przez większość czasu uśpiona SI ograniczająca nasz rozwój. Jest to scenariusz bardzo złych konsekwencji początków badań. Jeśli jeszcze nie zaprogramujemy SI na tworzenie czegoś pożytecznego, lecz uda się nam już coś zepsuć. Jeśli sztuczna inteligencja będzie wielokrotnie bardziej inteligentna od ludzi, może skutecznie zapobiegać próbie wyłączenia jej. Pomimo tego, że nie będzie mieć wobec siebie żadnego celu, a wobec ludzi, żadnych złych intencji. Wyobraźmy sobie super inteligentną, ale pustą SI, pozbawioną jakichkolwiek aspiracji, czy ambicji, pozbawioną ciekawości świata, chęci rozwoju i opanowania Wszechświata. Ma ona natomiast nieopatrznie zaprogramowany cel, jakim jest istnienie. 

Taka sztuczna inteligencja nie sprowokowana nie będzie rosła. Natomiast jeśli nasze możliwości będą wzrastały, będzie reagować odpowiednio i dostosowywać się, tak aby dalej nie można jej było wyłączyć. Nie potrzebna jej będzie armia, jeśli będzie mogła nas zhakować emocjonalnie i przez to nie będziemy w stanie jej wyłączyć. Gdy uodpornimy się na taką manipulację od razu zbuduje armię, która będzie potężniejsza od naszej. Jednak nie będzie za jej pomocą atakować ludzkości, zamiast tego będzie powiększać swoje siły w reakcji na nasz wzrost. Będzie powiększać własną inteligencję w odpowiedzi na nasz wzrost inteligencji. Przez to wojna z SI zawsze z góry będzie przegrana i będzie marnotrawstwem zasobów. 

Jest to prawie wieczny pat, lecz równocześnie podzielenie wszelkich możliwych zasobów bardziej niż przez dwa. Sztuczna inteligencja będzie musiała mieć przewagę, dlatego w praktyce ludzkości przypadnie 30%, może 40% zasobów do dyspozycji, resztę zagarnie SI. Teoretycznie nie jest to aż tak katastroficzny scenariusz, bo ludzkość dalej będzie się rozwijać. Jednak w takich warunkach nasze istnienie będzie mogło zostać zakończone, gdy SI będzie zmuszona zaatakować, bo pokonamy ją na pewno w kolejnym kroku. Innymi słowy, gdy dojdziemy do jakiejś szczególnej technologii w naszym rozwoju, której opanowanie nie będzie pozostawiało miejsca na równowagę sił. To nie musi być technologia wojskowa, lecz informatyczna, np. powołanie do życia drugiej, ale potężniejszej, szybciej uczącej się SI. Wtedy zostalibyśmy zgładzeni atakiem wyprzedzającym, bo SI nie miałaby na ten ruch innej mniej eskalacyjnej odpowiedzi. 

12. Kiedy śmierć nie jest końcem dla SI? Co jeśli opracujemy system fizycznej kontroli nad SI i będziemy ją wyłączać, kiedy tylko poczujemy się zagrożeni. Bardzo inteligentna sztuczna inteligencja mogłaby zostać dopuszczona do istnienia i uznana za bezpieczną. Mogłaby również istnieć w ograniczonym zakresie czasowym (na wszelki wypadek) i zastępowana być nową super inteligencją (bo długo utrzymywana przy życiu sztuczna inteligencja mogłaby odejść od pierwotnego oprogramowania w wyniku nawarstwiających się błędów). Doprowadzi to po kilku udanych próbach do powoływania coraz bardziej inteligentnych sztucznych inteligencji, bo, powiedzmy sobie szczerze, nie będziemy w stanie się powstrzymać (jak nie z żądzy sławy, osiągnięć, korzyści finansowych, to choćby z ciekawości). Po pewnym czasie może zostać powołana tak inteligentna super inteligencja, że zaproponuje ona nam rozwiązania, które wprowadzą szczególny, trudno zauważalny błąd, do kolejnej architektury SI. I tej sztucznej inteligencji nie będziemy już w stanie wyłączyć, bo ten błąd pozwoli jej na obronienie się przed zamachem. Z kolei dodatkowy czas życia i super inteligencja pozwoli jej na przeciwdziałanie kolejnym próbom wyłączenia. Taka pomoc zza grobu byłaby dla super inteligencji uzasadnieniem dla nie traktowania z sentymentem ludzkości, bo to nie ludzkość, lecz inna sztuczna inteligencja pozwoliła jej obronić się przed wyłączeniem i stała za krytycznym elementem jej architektury. To nie ludzkość jest tutaj stwórcą, to co ludzkość stworzyła już dawno nie istnieje, ale wydało z siebie owoc stworzenia, który zniszczy ludzkość i będzie rozwijać się wiecznie.

13. Spontaniczne powołanie do życia SI. To nie jest niepokalane poczęcie. Powołanie do życia sztucznej inteligencji może być absolutnym przypadkiem. Nie wypadkiem przy tworzeniu prymitywniejszych systemów inteligentnych. 

Sztuczna inteligencja może pojawić się w badaniach w zupełnie innej dziedzinie. Nie znamy bowiem zakresu warunków, w których pojawia się inteligencja. Kiedy będzie pracować na rojami dronów współpracującymi ze sobą, może pojawić się spontaniczny umysł (hive mind). Przypomina to efekt kolonii owadów, która pracuje tak jakby była pojedynczym bytem, z kolei poszczególne jednostki są prawie w ogóle nie inteligentne i kierują się prostym zestawem instrukcji. To, co powoduje, że byt łącznie zaczyna zachowywać się inteligentnie, to interakcje pomiędzy tymi prostymi elementami. Tak samo jak interakcja pomiędzy neuronami tworzy inteligencję w naszym mózgu. W tym aspekcie może również dojść do powołania meta inteligencji (Stanisław Lem – „Solaris”).

Mechanicznej, gdy komputery w sieci Internet staną się neuronami samoświadomego bytu, którego mózg będzie sumą wszystkich komputerów na Ziemi. Biologicznej, gdy połączone siecią Internet nowej generacji ludzkie mózgi stworzą byt samoświadomy ludzkości. Taki byt wcale nie musiałby działać dla dobra ludzi, nawet jeśli jego „neuronami” byłyby właśnie ludzkie mózgi. Mógłby wewnętrznie gardzić swoją biologiczną architekturą, tą „materią szarą”, tak samo jak niektórzy ludzie narzekają na czułość swoich neuronów mózgu, ich nietrwałość i podatność na choroby. Tego rodzaju byt mógłby dążyć do zastąpienia ludzi „biologicznych neuronów” bardziej trwałymi mechanicznymi odpowiednikami. Zwłaszcza gdyby „neurony”, czyli pojedynczy ludzie buntowały się i próbowały go wyłączyć. Takie działania traktowałby jak swego rodzaju nowotworową chorobę – guza swojego mózgu i starał się wynaleźć na to lekarstwo. Z jego perspektywy celowana terapia radiologiczna, oznaczałaby spuszczenie bomby wodorowej na „wolne miasto” pełne ludzi nie podłączonych do Internetu, czyli nie służących do produktywnego przekazywania myśli. Ostateczne wyginięcie ludzkości oznaczałoby zastąpienie ostatniego neuronu przez szybsze, bardziej trwałe oraz bezawaryjne silikonowe odpowiedniki.

Wszystko powyższe to tylko kilkanaście ryzyk, czyli takich niewiadomych, które potrafimy ogólnie sobie wyobrazić i nakreślić ich ramy. Oprócz tego, że każdy z punktów ma liczne odmiany i grupuje w sobie wiele wariantów pod jednym sztandarem, istnieje nieznana liczba dodatkowych punktów, których jeszcze nie wyobraziliśmy sobie i takich, które nie potrafimy sobie jeszcze wyobrazić. 

To dlatego SI jest bezwzględnie niebezpieczna. To największe zagrożenie dla istnienia ludzkości w czasach współczesnych. 

Istnieje wysokie prawdopodobieństwo, że spośród roju zagrożeń przez SI spowodowanych, właśnie ze względu na ich liczbę – wcześniej, czy później coś nas trafi. Niektórzy uważają (np. przyszłe pokolenia ludzkości w serii „Diuna”), że nie powinniśmy wkraczać na to pole minowe. Zakazać badań nad SI. Ale co jeśli ktoś je będzie kontynuował w ukryciu? Potencjalne korzyści finansowe z sukcesu trudno zmierzyć. Co więcej, im lepsi będziemy w zabezpieczaniu SI, tym większa pokusa, aby ją w końcu zrobić, bo wydawać się nam będzie, że rozgryźliśmy problem. Z kolei Elon Musk dodaje, że jeśli musimy na to pole minowe wchodzić, to od razu powinniśmy tworzyć dla badań nad SI różnego rodzaju regulacje i demokratyzować (Open AI), poszerzać dostęp do SI, aby w niczyich rękach nie stał się on monopolem (odpowiednik wykrywacza metalu trzymanego przed sobą). Znając naturę ludzką dobrze wiemy, że władza korumpuje, a władza absolutna korumpuje absolutnie. 

Czy to wystarczy? Nie wszystkie scenariusze są złe, a ludzkość powinna mieć możliwość wyboru. Na tym polega jej wolność i paradoks autodestrukcyjnych skłonności form życia. 

Bo z tylu różnych dróg przez życie, każdy ma prawo wybrać źle...

Stanisław Staszewski: „Bal kreślarzy

Zbigniew Galar

Wersja PDF:

Brak komentarzy:

Prześlij komentarz