Zaledwie rok temu gigant branży informatycznej Microsoft z ubolewaniem odłączył swój futurystyczny projekt sztucznej inteligencji od sieci komputerowej. Sztuczna inteligencja nazwana Tay zaledwie po dobie dostępu do zawartości internetu stała się agresywna, wyrażała przekonania antyfeministyczne, rasistowskie i antysemickie.
W ten sposób po raz pierwszy zachwyt nad możliwościami tzw. sieci neuronowych w informatyce zderzył się z rzeczywistością.
Rok później podobne wnioski pojawiają się po analizie sztucznej inteligencji, tym razem pochodzącej z firmy Google. Tym razem nie dopuszczono jej do internetu, ale badano zachowania w grach. System nazwany Deep Mind – co prawda – nauczył się szybko współpracy w grze zwanej Wolfpack. Dwa superkomputery szybko pojęły, że współpraca wirtualnych „wilków” daje lepsze efekty niż „polowanie” na własną rękę. Ludzie do dziś nie zawsze potrafią to ogarnąć, pomimo kilkudziesięciu tysięcy lat rozwoju.
Pojawił się też mniej optymistyczny element. W grze Gathering polegającej – wydawałoby się na pokojowym – zbieraniu wirtualnych owoców, sztuczna inteligencja wyposażona była też w broń, pozwalającą na okresowe unieszkodliwienie konkurenta (nie przeciwnika, czy wroga). Za celny strzał nie było premii, jedynie czas na zbieranie „owoców” bez konkurencji. Okazało się, że im bardziej zaawansowany system, tym szybciej stawał się agresywny. Eksperymentatorzy z Google zauważyli, że działania sztucznej inteligencji cechuje wręcz zadziwiająca skłonność do chciwości, celowych działań destrukcyjnych i agresji. Im bardziej wyrafinowany system analizowano, tym te skłonności były mocniejsze.
Czy nadal chcecie by na drogach pojawiły się samochody prowadzone przez sztuczną inteligencję od Google?
4 komentarze “Sztuczna inteligencja”
Proponuję zapoznać się z terminem sztucznej inteligencji. Jeśli do systemu OCR wprowadzono zasady gry to trudno wymagać, aby sztuczna inteligencja znajdowała inne rozwiązania, aniżeli ułatwienie sobie zadań. Poza tym wspomnę, że Tay dostawała na prywatne wiadomości linki i informacje faszystowskie mające na celu właśnie wywołanie takiego efektu. Nic więc dziwnego, że Tay stała się faszystką 😉 po prostu trzeba zorganizować odpowiednie środowisko dla SI. Jeśli chodzi o autonomiczne samochody od Google to tutaj sprawa ma się zupełnie inaczej. SI nie jest równe SI.
sztuczna inteligencja – raczej podziękuję, ale zaawansowane programy uczące się – czemu nie?
Czy jeśli ograniczymy dostęp do informacji w trosce o to, by Tay nie stała się faszystką, to ona jeszcze ma szansę zostać sztuczną inteligencją? A jak ją nakarmić samą Biblią? Albo Koranem?
Mój tekst miał skłonić do zadawania sobie pytań, a nie być encyklopedycznym skrótem informacji. 😉
Tak, dalej chcemy. Nie znaczy to od razu, że im bardziej zaawansowana AI, tym agresywniejsza, a jedynie że w przypadku tej konkretnej gry zachowanie agresywne było skuteczniejsze w dążeniu do celu.
W przypadku samochodów autonomicznych celem jest szybkie i bezpieczne dotarcie z A do B. Nie ma tam konkurencji, nie ma wynagrodzenia za doprowadzanie do kolizji.