Improwizacja
W jednym z opowiadań o pilocie Pirxie Stanisław Lem opisał sytuację, która w doskonały sposób ilustruje ograniczenia sztucznej inteligencji. Chodzi o opowiadanie „Rozprawa”, zostało ono przerobione na film pod tytułem „Test pilota Pirxa”. Jest to jedno z największych osiągnięć Lema, który przecież napisał je w czasie, gdy komputer w dzisiejszym pojęciu jeszcze nie istniał, nie mówiąc o komputerowych testach sztucznej inteligencji. Nie wdając się w szczegóły, przypomnę, że akcja opowiadania rozgrywa się w kosmosie. Bohater ma ocenić przydatność androidów w lotach kosmicznych. Przedstawiciel owej sztucznej inteligencji dokonuje niewielkiego sabotażu. Musi to doprowadzić do sytuacji kryzysowej, w której każda decyzja dowódcy będzie zła. Wszystko zostaje zaplanowane w najmniejszych szczegółach, dowódca wyda złą komendę, android uratuje statek, ale ludzie nie przeżyją, ponieważ nie wytrzymają nadmiernego przyśpieszenia.
Android nie przewidział jednak, że człowiek może się wahać. Bezskutecznie oczekuje na komendę, a gdy ona nie pada, podejmuje działania, które go demaskują. Sztuczna inteligencja pod względem obliczeniowym może być wiele doskonalsza niż ludzka. Już dziś komputery są niewyobrażalnie szybkie i szybsze od ludzkiego mózgu. Kamery, mikrofony, analiza komputerowa obrazu i dźwięku wielokrotnie przekracza możliwości ludzkich zmysłów. Jednak człowiek ma pewien atut, potrafi improwizować. W nietypowej sytuacji porzuci ustalony plan i będzie działać intuicyjnie. Chwila wahania niekoniecznie musi być wadą.
Bezpieczeństwo
W komentarzach do poprzedniej części tekstu pojawiła się kwestia bezpieczeństwa. Słusznie. Drony to są urządzenia, które mogą być niebezpieczne (nie mam na myśli dronów wojskowych, o nich później) w przypadku bezpośredniego kontaktu z człowiekiem, a miałyby latać właśnie tam, gdzie przebywają ludzie. Do licznych niebezpieczeństw można też zaliczyć możliwość kolizji z innymi urządzeniami latającymi, a przestrzeń w Europie jest znacznie bardziej zatłoczona niż w USA. Nie tylko zresztą chodzi o urządzenia. Istnieją możliwości kolizji z ptakami, nagłe zmiany pogody i cała masa nieprzewidzianych sytuacji.
Drony muszą być urządzeniami autonomicznymi. Zdalne sterowanie jest bez sensu, ponieważ będzie droższe niż zatrudnienie kuriera. Kurierem na bliskie odległości (zasięg dronów to maksymalnie 16 km) może być człowiek na rowerze lub motorowerze, który w ciągu relatywnie niedługiego czasu dostarczy parę paczek o niewielkich gabarytach. Osoba sterująca dronem musi być znacznie lepiej wykształcona i sprawdzona pod kątem umiejętności. Jej praca będzie dużo droższa. Autonomiczny dron z zastosowaną sztuczną inteligencją będzie świetny, ale tylko do momentu napotkania sytuacji, która wykroczy poza zaimplementowane mu algorytmy. Lem to przewidział w sposób genialny.
Utracona niewinność
W poprzedniej czę sci tekstu przytoczyłem słynne prawa robotyki, które wymyślił Isaac Asimov. Prawa owe zakładały ochronę ludzi. Szybszy, sprawniejszy, doskonalszy od człowieka robot miałby zaimplementowaną bezwzględną ochronę życia ludzkiego. Ale…
Asimow do swoich trzech praw podstawowych dodał później jeszcze jedno.
0. Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.
Prawo ma numer zero, a więc jest nadrzędne w stosunku do pozostałych. W imię dobra ludzkości można zniszczyć pojedyncze jednostki. To już jest kwestia wyborów moralnych, a nie logicznych, czy zatem sztucznej inteligencji przyznać takie prawo? Ten dylemat zawarty jest w paradoksie zabójcy Hitlera. W skrócie polega on na tym, że trzeba podjąć decyzję o zabiciu dziecka o nazwisku Adolf Hitler, mając świadomość, że w przyszłości stanie się ono zbrodniczym przywódcą Niemiec. Jednak w tym momencie dziecko nie jest winne. Ba, nie wiadomo, czy w miejsce nieistniejącego Hitlera nie pojawi się ktoś inny, kto zajmie dokładnie taką samą pozycję z takimi samymi poglądami.
Rzecz jasna te rozważania wykraczają znacznie poza kwestię dronów Amazona i mówią już o prawdziwych androidach. Nie jest to problem z gatunku science-fiction. Jakiś czas temu pojawiła się informacja o tym, że Amerykanie pracują nad nową generacją robotów wojskowych, które nie będą już zdalnie sterowane, ale wybierając cel i go niszcząc będą podejmowały autonomiczną decyzję.
Komputery, maszyny, roboty, androidy – urządzenia, które mają znacznie większe moce obliczeniowe, a więc też mogą operować dużą ilością danych, miałyby podejmować zamiast nas decyzje o nas? Problem w tym, że maszynom nie da się zaimplementować zdolności do improwizacji, wahań, ani też moralności.
Maszyna na polu walki ma sama podjąć decyzję, czy zniszczyć cel? Niezłe. I jak ułatwi prowadzenie wojny. Dziś wiemy, że ludzie sterujący dronami, doznają podobnych psychoz jak niektórzy żołnierze na polu walki. Chociaż zdalnie i bez narażania siebie samego, ale ktoś kieruje dronem, ktoś prowadzi obserwację obrazu ze wszystkich kamer, ktoś podejmuje decyzję o oddaniu strzału. O ile prostsze byłoby to wszystko, gdyby dron samodzielnie podejmował decyzję. Nie byłoby kogo oskarżać o zbrodnie wojenne, a decyzje podejmowaliby wyłącznie politycy, a oni jak wiadomo sumień nie mają. Można byłoby zrównać z ziemią cały Afganistan i nie byłoby winnych. Decyzję o każdym wystrzale podejmowałaby zaprogramowana odpowiednio maszyna. Nikt nie byłby odpowiedzialny bezpośrednio*.
Katastrofa
W najbardziej newralgicznych dziedzinach wciąż decyzje podejmują ludzie. Są wspierani przez coraz doskonalsze komputery, ale to na nich spoczywa ostateczna odpowiedzialność. Ludzie są niedoskonali, więc zdarzają się katastrofy. Rzecz jasna nie wszystkie katastrofy mają w tle błąd ludzki.
Jedną z rzeczy, nad którymi pracuje się intensywnie w ostatnich latach, jest automatyczne prowadzenie pojazdów samochodowych. Oczywiście wiążą się z tym pewne futurystyczne problemy prawne, które zasygnalizowałem już poprzednio. Czy będzie można wsiąść do samochodu po pijanemu u zadysponować: „zawieź mnie do domu”? Kto będzie winien, gdy dojdzie do wypadku z udziałem jednego auta prowadzonego ręcznie i drugiego prowadzonego automatycznie. A jak się zderzą dwa auta prowadzone automatycznie? Czy ubezpieczenie będzie droższe, gdy zdecydujemy się prowadzić ręcznie?
Jednak te pytania mają dziś charakter wciąż żartobliwy, jednak są poważniejsze. Ruch automatyczny będzie płynny i bezkolizyjny. Automat się nie zagapi, nie kichnie, nie przyjdzie mu do głowy rozmawiać przez komórkę. Jednak co będzie w sytuacji nietypowej, gdy ludzka umiejętność improwizacji się przydaje?
A co będzie w sytuacji awarii, gdy cały ruch stanie? Kto to wszystko ogarnie?
Już dziś Amerykanie stosują system obserwacji ludzi w miejscach publicznych, który dzięki specjalnemu programowi ma wyłapywać osobników potencjalnie niebezpiecznych, którzy zachowują się niestandardowo. Gdy program komputerowy ogłosi alarm, wówczas interweniuje policja. Z przecieków wiadomo, że liczba fałszywych alarmów jest spora. A co będzie, gdy kiedyś decyzję co do unieszkodliwienia, uwięzienia lub zabicia powierzymy wyspecjalizowanym automatom?
Co nas czeka? W imię ochrony ludzkości Matrix?
—
* Kolejny ukłon w stronę Lema. Przewidział to w powieści „Pokój na Ziemi”.
2 komentarze “Krzemowa apokalipsa (2)”
„w ciągu relatywnie niektórego czasu”? 😉
Taki urok automatycznego sprawdzania pisowni. Używając klawiatury jestem mistrzem literówek i takie czasem bywają efekty całościowej korekty. 😀
Oczywiście prawidłowe jest „niedługiego”.