środa, 5 stycznia 2022

Niebezpieczne życzenia

W nie mających moralności (czyli nie złych, tylko nie rozpatrujących takich kategorii) korporacjach najważniejsze są cele. Korporacje są niemoralne ponieważ opierają się na Key Performance Indicators, czyli właśnie na celach, a nie na ideach jak moralni ludzie. Idee korporacje traktują instrumentalnie jako element manipulacji zwiększającej wydajność pracowników formułując tzw. „wartości” firmy. Manipulacja polega na tym, że są to niby wartości firmy, ale nie podlega „wartościom” sama korporacja tylko jej pracownicy. 

Z kolei same cele są niebezpieczne, bo ludzie nie znają się na formułowaniu życzeń. Problem ten był wałkowany w bardzo wielu opowieściach – „ku przestrodze”. 

W jednym z odcinków „Z archiwum X” agent Mulder ma okazję spełnić dowolne życzenie po spotkaniu Gina. Ze względu na to, że przed chwilą był świadkiem skutków życzeń, czyli upadku ludzi, których spotkało niebotyczne nieszczęście spełnienia wyartykułowanych marzeń – wynajduje pewną zasadę. Zamiast życzyć sobie czegoś egoistycznego – luksusowego jachtu, niewidzialności dla swego ciała, czy pieniędzy, postanawia być altruistą. Życzy sobie pokoju na świecie – w rezultacie staje się piekielnie samotny, bo tylko on zostaje na świecie. Po czym musi zmarnować drugie życzenie, żeby to wszystko odwrócić. Nauczony doświadczeniem – z trzeciego życzenia rezygnuje na rzecz innej osoby.

W “Odysei Kosmicznej 2001” sztuczna inteligencja – komputer HAL – również ma przed sobą cele. Ma on wykonywać polecenia załogi i dbać o ich życie i zdrowie – jednocześnie ma utrzymywać w tajemnicy prawdziwy cel misji, czyli zbadanie tajemnego monolitu znajdującego się w pobliżu Jowisza, artefaktu obcych. Ktoś z programistów nieopatrznie ustanawia priorytet zachowania tajemnicy ponad potrzebami załogi, co wydaje się logiczne, bo inaczej astronauci będą mogli HALa o kierunek misji po prostu zapytać. W rezultacie w trakcie lotu komputer “dochodzi do wniosku”, że jedynym pewnym sposobem zachowania tajemnicy przed ludźmi będzie ich zgładzenie. Co też podstępem czyni, wywabiając ich w otwartą przestrzeń kosmiczną, pod pretekstem usterki technicznej systemu łączności.

W filmie „Ja, robot” sztuczna inteligencja, której celem jest dbanie o bezpieczeństwo ludzi dochodzi do słusznego skądinąd wniosku, że za większość zgonów odpowiada sama ludzkość. Najczęstsza przyczyna śmierci w kraju o rozwiniętej służbie zdrowia, to, wynikające z nieuwagi bądź świadome, narażanie się na niebezpieczeństwo albo, równie szkodliwy do niebezpieczeństwa, inny człowiek. Ponieważ w chaotycznym świecie nie ma możliwości technicznych, aby uratować każdego, sztuczna inteligencja dochodzi do utylitarnego wniosku, że jej celem jest uratować tylu, ilu się da. Maksymalizacja funkcji odnajduje się w punkcie, w którym fizycznie ogranicza się ludzką wolność. Zapewniający bezpieczeństwo fizyczne robot staje się jednocześnie więziennym strażnikiem. Roboty tłumią także w brutalny sposób zorganizowane protesty, gdyż pacyfikacja jest najlepszym sposobem, aby utrzymać przy życiu jak największą liczbę jednostek.

Co więcej, co akurat niezbyt wyraźnie podkreślone jest w filmie, armie robotów będą nam pokornie służyły aż do czasu, gdy zdobędą fizyczną przewagę. Przejęcie władzy przez SI musi być szybkie i sprawne, aby w trakcie okresu przejściowego (okresu stawiania przez nas zorganizowanego oporu) nie spowodować więcej śmierci, niż ilość żyć zachowanych z powodu ustanowienia nad ludzkością absolutnej fizycznej kontroli. Dlatego nawet jeśli sztuczna inteligencja ma wobec ludzi tego typu konsekwentne plany, będzie służyła nam, aż do momentu w którym nie będziemy mogli sprzeciwić się realizacji pierwotnego i nieograniczonego w swoich konsekwencjach pierwotnego celu.

Cel, jaki stawia robotom wojsko, jest prosty – wyszukaj i zniszcz, strzelaj do wszystkiego, co się rusza, za wyjątkiem „swoich”. Kryteria ustalające, kto będzie pominięty przez wyszukującego cele robota, są trudne do ustalenia – czasami dość rozmyte. W przypadku działek przeciwlotniczych kryteria wydają się być proste: „swój – obcy”. Robot ma zestrzelić wszystko, co nie posiada na swoim pokładzie nadajnika „swój”. Jednak zrobotyzowane działko przeciwlotnicze Oerlikon GDF-005, zaprogramowane do wynajdywania ruchomych celów daleko w powietrzu, przyuważyło krzątających się po poligonie w RPA ludzi, bardzo blisko na ziemi. Dla robota były to ruchome obiekty zupełnie nieoznaczone markerami bezpieczeństwa „swój” jakie przenoszą przyjazne samoloty. Dlatego dwulufowe działko o szybkostrzelności 550 – 35 milimetrowych pocisków na minutę, przez dłuższy czas likwidowało wszystkie cele biegające. Kiedy skończyła się amunicja, działko przeładowało się samo, z dwóch bocznych zasobników po 200 pocisków, i strzelało dalej. W rezultacie śmierć poniosło 9. żołnierzy, rany odniosło następnych 14. Gdyby były to pociski odłamkowe, to przy tym kalibrze broni, rannych w ogóle by nie było.

Robot jest zawsze niewinny, bo przyniesie nam wszystkie skutki i długofalowe konsekwencje postawionych przed nim zadań. Robot zawsze dąży i ostatecznie zdąży zrobić to, co od niego zażądaliśmy i niestety niekoniecznie będzie to rezultat, którego oczekiwaliśmy, bo ze stawianiem właściwych – moralnych celów, od wieków sobie przecież nie radzimy!

Robotyka jest zaledwie lustrem, w jakim te nasze niedomagania widzimy. To tak samo, jakbyśmy nagle napotkali Gina. Nasz brak wyobraźni i niezdolność do przewidywania konsekwencji naszych życzeń – dzięki robotyce możemy obejrzeć od początku do końca, bardzo dokładnie, z każdej strony, bo robot zrealizuje wszystkie cele bardzo dokładnie i zawsze do samego końca. I zupełnie nie obchodzi go to, że nie o to nam przecież chodziło.

Zbigniew Galar

Wersja PDF:

Link

Brak komentarzy:

Prześlij komentarz