Maszyna sama nauczyła się, że aby przetrwać i zwyciężyć, trzeba unieszkodliwić konkurenta. Na razie tylko w grze.
To scenariusz jak z filmu science fiction. Samouczący się system sztucznej inteligencji Google'a uznał, że w trudnej sytuacji, gdy zachodzi ryzyko przegranej, najlepszym rozwiązaniem jest wyeliminowanie oponenta.
System Deep Mind – ten sam, który wygrał z ludźmi w go – potrafi sam opracowywać strategie wygrywające. Ludzie podsuwają mu tylko zasady gry, a algorytm sztucznej inteligencji (AI) samodzielnie obmyśla plan. Tak właśnie było w przypadku prostej gry komputerowej polegającej na zbieraniu „jabłek" na ekranie. Zmierzyło się ze sobą dwóch graczy – obaj byli sterowani przez Deep Mind. Pracownicy Google'a pozwolili im przeprowadzić 40 mln rozgrywek.
Okazało się, że gdy ilość zasobów („jabłek") jest wystarczająca, algorytmy zajmują się po prostu ich zbieraniem, nie zwracając uwagi na konkurenta. Sytuacja zmieniła się jednak, gdy zasoby zaczęły być trudniej dostępne i trzeba było o nie konkurować.
Jeden z graczy uznał, że najlepszą strategią będzie unieszkodliwienie konkurenta. Gra ma wbudowaną funkcję strzelania z lasera, który na kilka chwil paraliżuje dwukrotnie trafionego przeciwnika. Strzelający ma wówczas czas na zbieranie punktów. Komputer sam się nauczył, jak używać lasera, aby zapewnić sobie przewagę. Po pewnym czasie algorytmy po prostu zaczęły do siebie strzelać, nie przejmując się jabłkami.
Inżynierowie podkreślają, że bez agresywnego zachowania obaj gracze (wcielenia Deep Mind) zebraliby podobną liczbę „jabłek" i mecz zakończyłby się remisem. I tak to właśnie działało, gdy grały ze sobą algorytmy prostsze, o niższej inteligencji. Gdy jednak programom udostępniono większe zasoby komputera, nauczyły się agresywnego zachowania. Im inteligentniejszy stawał się system, tym szybciej uznawał, że najlepsze będzie naciśnięcie spustu.
Naukowcy postanowili „nauczyć" Deep Mind, że ostre konkurowanie o zasoby nie zawsze jest najlepszym rozwiązaniem, że niekiedy przydaje się współpraca. Stworzyli drugą grę, w której maszyny wcielały się w role dwóch wilków i ich ofiary. Nie współpracując ze sobą, konkurencyjne algorytmy-wilki mogły nie upolować ofiary – i przegrać. Kooperacja wprawdzie nie wyłaniała zwycięzcy, ale też zmniejszała ryzyko porażki.
– Ten model pokazuje, że niektóre aspekty ludzkiego zachowania są produktem działania środowiska i uczenia się – mówił magazynowi „Wired" jeden z programistów Joel Z Leibo.
Co to oznacza dla nas? Przed nieodpowiedzialnym rozwojem systemów sztucznej inteligencji ostrzegał m.in. Stephen Hawking. Słynny naukowiec w październiku ubiegłego roku przypominał, że „spędzamy wiele czasu, studiując historię, która – mówiąc szczerze – jest głównie historią głupoty, zamiast zastanawiać się nad przyszłością inteligencji". Sparaliżowany, poruszający się na wózku Hawking obawia się, że myślące maszyny posłużą do stworzenia jeszcze groźniejszej broni i do jeszcze większego wykorzystywania jednych ludzi przez drugich.
Jego zdaniem pojawienie się pełnej sztucznej inteligencji będzie oznaczało koniec rasy ludzkiej.
– Nie możemy przewidzieć, co można będzie osiągnąć, gdy nasze mózgi wzmocnimy systemami AI – przyznał jednak Hawking. Podobnie uważa miliarder Elon Musk, współzałożyciel OpenAI – konsorcjum, które chce odpowiedzialnych badań nad myślącymi maszynami.
– Trudno nawet sobie wyobrazić, w jak wielkim stopniu sztuczna inteligencja może się przyczynić do dobrobytu społeczeństwa – mówił Musk. – Ale równie trudno przewidzieć rozmiar zniszczeń, jeśli ktoś chciałby ją zbudować lub użyć jej w sposób niewłaściwy.
Systemy eksperckie i uczące się programy komputerowe stają się coraz istotniejszą częścią naszego życia. Mają zastosowanie na giełdzie, w bankach, zakładach przemysłowych, stawiają diagnozy, dobierają leczenie, kierują samochodami, podpowiadają nam przy zakupach. Świadomość, że w pewnych warunkach systemy AI mogą opracować nową agresywną strategię, by osiągnąć cel, jest zaskakująca. Nie chodzi wcale o scenariusz z „Terminatora".
– Wyobraźmy sobie, że jeden system sztucznej inteligencji steruje sygnalizatorem świetlnym na skrzyżowaniu i chce spowolnić ruch, a drugi system AI kieruje samochodem, który chce cię jak najszybciej dowieźć na miejsce – podpowiada Leibo. – Może lepiej sprawdzić ich zachowanie na modelu?
—na podst. „Wired"
Źródło: rp.pl/Nowe-technologie/302149906-Sztuczna-inteligencja-robi-sie-agresy...
Cytując kalsyka
Zaczyna się!
zippy.gfycat.com/GregariousCheerfulBlackfootedferret.webm