#technologia
No jasne, że tak
Murzyn z Afryki po 2 tysiącach lat nadal bez zmian.
Naukowcy z Carnegie Mellon stworzyli symulację opartą na „dylemacie więźnia”, od lat znanym modelu teorii gier. Wirtualne boty żyły w wyimaginowanym społeczeństwie i komunikowały się ze sobą. Mogły albo ze sobą współpracować, albo oszukiwać. Współpraca dawała korzyść obu stronom, jednak jeśli któremuś agentowi udało się oszukać oponenta – zyskiwał zdecydowanie więcej. Najbardziej skuteczne jednostki kopiowano i przechodziły do kolejnej tury. Wprowadzono też niewielką możliwość pomyłki.
Boty otrzymywały nagrodę jeśli współpracowały oraz jeśli udawało im się oszukać przeciwnika (fot. Nicky Case)
Model ma zastosowanie w codziennym życiu. Podobnie zachowują się ludzie, kiedy stają przed dylematem, czy chcą przystąpić do strajku, wziąć udział w zmowie cenowej, albo zaangażować się w pracę nad różnymi projektami. Wirtualne maszyny stawały przed podobnymi dylematami.
Badacze spodziewali się zaobserwować najlepszą strategię: wet za wet. Polega ona na kopiowaniu zachowań przeciwnika. Jeśli ktoś traktuje Cię dobrze – odwdzięcz się. Jeśli ktoś Cię oszuka – oszukaj i jego. Ten sposób zachowania faktycznie dominował w wirtualnej społeczności botów. Jednak po kilkuset generacjach, ku zaskoczeniu naukowców, maszyny przestawały współpracować i zaczynały toczyć między sobą cykliczne wojny .
Po kilkuset turach pojawiał się zaznaczony na zielono czas pokoju, a zaraz potem wyniszczające wojny –
żółty kolor (fot. Simon Dedeo)
Okazało się, że Sztuczna Inteligencja rozpoznawała swoje własne idealne kopie, traktując każde odstępstwo jako przyczynek do ataku. W ten sposób SI wynalazła „botobójstwo” i wyniszczającą wojnę, w której ginęły również te maszyny, które stosowały najbardziej optymalną strategię „wet za wet”. Po tym okresie pozostawało kilka maszyn, które zaczynały ze sobą współpracować przez kolejne kilkaset pokoleń, aż w końcu losowe błędy osiągały poziom krytyczny co znowu doprowadzało do wszczęcia bratobójczych walk.
Boty wypracowywały różne strategie, z których najbardziej efektywna była „wet za wet” (fot. Nicky Case)
Strategia stosowana przez Sztuczną Inteligencję przypomina zachowanie ludzi znane chociażby ze „Starego Testamentu”:
Następnie Gileadczycy odcięli Efraimitom drogę do brodów Jordanu, a gdy zbiegowie z Efraima mówili: „Pozwól mi przejść”, Gileadczycy zadawali pytanie: „Czy jesteś Efraimitą?” – A kiedy odpowiadał: „Nie”, wówczas nakazywali mu: „Wymówże więc Szibbolet”. Jeśli rzekł: „Sibbolet” – a inaczej nie mógł wymówić – chwytali go i zabijali u brodu Jordanu. Tak zginęło przy tej sposobności czterdzieści dwa tysiące Efraimitów.
(„Księga Sędziów”; „Biblia Tysiąclecia”):
W wielu konfliktach zbrojnych to zachowanie wielokrotnie się powtarzało. Podczas wojny domowej w Finlandii w 1918 roku, Finowie rozpoznawali rosyjskich szpiegów przez to, że nie potrafili wymówić słowa „yksi”, co oznaczało „jeden”. Ten sposób rozpoznawania wrogów wypracowała sobie również Sztuczna Inteligencja w wirtualnym świecie, czego efekty nie prowadzą do pozytywnych wniosków.
Źródło: chip.pl/2017/09/si-wynalazla-ludobojstwo-wojne/
Ta, do SI im daleko. Zrobią tyle, ile pozwolą im algorytmy, a nie inteligencja.
SI nie musi być w pełni samo myśląca, aby być inteligentniejsza od człowieka. Wystarczy jej kilka algorytmów które pozwolą jej osiągnąć kryteria zagrażające rasie ludzkiej. Dla przykładu podpięcie zmodyfikowanego programu odpowiedzialnego za grę w szachy do silosów rakietowych USA. Jak myślicie? W które miasta program posłałby rakiety? A może w morze? Albo rozbroiłby je? Mówiąc sztuczna inteligencja za bardzo przyzwyczailiśmy się do kinowych wersji w stylu "I'm" a SI w cale nie musi rozumieć swojego istnienia, ale za to może mieć zaprogramowany cel "Tylko zwycięstwo", kto wie jakie błędy mogą z tego wyniknąć które nie byłyby pod kontrolą człowieka.
Dać im jeszcze telefon z obrotową tarczą i powiedzieć aby wysłali SMSa...
Piwko zasłużone.
Cenzorzy YT nie śpią.
Żeby nie uleciało:
Żeby nie uleciało:
Cenzorzy YT nie śpią.
Maszyna sama nauczyła się, że aby przetrwać i zwyciężyć, trzeba unieszkodliwić konkurenta. Na razie tylko w grze.
To scenariusz jak z filmu science fiction. Samouczący się system sztucznej inteligencji Google'a uznał, że w trudnej sytuacji, gdy zachodzi ryzyko przegranej, najlepszym rozwiązaniem jest wyeliminowanie oponenta.
System Deep Mind – ten sam, który wygrał z ludźmi w go – potrafi sam opracowywać strategie wygrywające. Ludzie podsuwają mu tylko zasady gry, a algorytm sztucznej inteligencji (AI) samodzielnie obmyśla plan. Tak właśnie było w przypadku prostej gry komputerowej polegającej na zbieraniu „jabłek" na ekranie. Zmierzyło się ze sobą dwóch graczy – obaj byli sterowani przez Deep Mind. Pracownicy Google'a pozwolili im przeprowadzić 40 mln rozgrywek.
Okazało się, że gdy ilość zasobów („jabłek") jest wystarczająca, algorytmy zajmują się po prostu ich zbieraniem, nie zwracając uwagi na konkurenta. Sytuacja zmieniła się jednak, gdy zasoby zaczęły być trudniej dostępne i trzeba było o nie konkurować.
Jeden z graczy uznał, że najlepszą strategią będzie unieszkodliwienie konkurenta. Gra ma wbudowaną funkcję strzelania z lasera, który na kilka chwil paraliżuje dwukrotnie trafionego przeciwnika. Strzelający ma wówczas czas na zbieranie punktów. Komputer sam się nauczył, jak używać lasera, aby zapewnić sobie przewagę. Po pewnym czasie algorytmy po prostu zaczęły do siebie strzelać, nie przejmując się jabłkami.
Inżynierowie podkreślają, że bez agresywnego zachowania obaj gracze (wcielenia Deep Mind) zebraliby podobną liczbę „jabłek" i mecz zakończyłby się remisem. I tak to właśnie działało, gdy grały ze sobą algorytmy prostsze, o niższej inteligencji. Gdy jednak programom udostępniono większe zasoby komputera, nauczyły się agresywnego zachowania. Im inteligentniejszy stawał się system, tym szybciej uznawał, że najlepsze będzie naciśnięcie spustu.
Naukowcy postanowili „nauczyć" Deep Mind, że ostre konkurowanie o zasoby nie zawsze jest najlepszym rozwiązaniem, że niekiedy przydaje się współpraca. Stworzyli drugą grę, w której maszyny wcielały się w role dwóch wilków i ich ofiary. Nie współpracując ze sobą, konkurencyjne algorytmy-wilki mogły nie upolować ofiary – i przegrać. Kooperacja wprawdzie nie wyłaniała zwycięzcy, ale też zmniejszała ryzyko porażki.
– Ten model pokazuje, że niektóre aspekty ludzkiego zachowania są produktem działania środowiska i uczenia się – mówił magazynowi „Wired" jeden z programistów Joel Z Leibo.
Co to oznacza dla nas? Przed nieodpowiedzialnym rozwojem systemów sztucznej inteligencji ostrzegał m.in. Stephen Hawking. Słynny naukowiec w październiku ubiegłego roku przypominał, że „spędzamy wiele czasu, studiując historię, która – mówiąc szczerze – jest głównie historią głupoty, zamiast zastanawiać się nad przyszłością inteligencji". Sparaliżowany, poruszający się na wózku Hawking obawia się, że myślące maszyny posłużą do stworzenia jeszcze groźniejszej broni i do jeszcze większego wykorzystywania jednych ludzi przez drugich.
Jego zdaniem pojawienie się pełnej sztucznej inteligencji będzie oznaczało koniec rasy ludzkiej.
– Nie możemy przewidzieć, co można będzie osiągnąć, gdy nasze mózgi wzmocnimy systemami AI – przyznał jednak Hawking. Podobnie uważa miliarder Elon Musk, współzałożyciel OpenAI – konsorcjum, które chce odpowiedzialnych badań nad myślącymi maszynami.
– Trudno nawet sobie wyobrazić, w jak wielkim stopniu sztuczna inteligencja może się przyczynić do dobrobytu społeczeństwa – mówił Musk. – Ale równie trudno przewidzieć rozmiar zniszczeń, jeśli ktoś chciałby ją zbudować lub użyć jej w sposób niewłaściwy.
Systemy eksperckie i uczące się programy komputerowe stają się coraz istotniejszą częścią naszego życia. Mają zastosowanie na giełdzie, w bankach, zakładach przemysłowych, stawiają diagnozy, dobierają leczenie, kierują samochodami, podpowiadają nam przy zakupach. Świadomość, że w pewnych warunkach systemy AI mogą opracować nową agresywną strategię, by osiągnąć cel, jest zaskakująca. Nie chodzi wcale o scenariusz z „Terminatora".
– Wyobraźmy sobie, że jeden system sztucznej inteligencji steruje sygnalizatorem świetlnym na skrzyżowaniu i chce spowolnić ruch, a drugi system AI kieruje samochodem, który chce cię jak najszybciej dowieźć na miejsce – podpowiada Leibo. – Może lepiej sprawdzić ich zachowanie na modelu?
—na podst. „Wired"
Źródło: rp.pl/Nowe-technologie/302149906-Sztuczna-inteligencja-robi-sie-agresy...
Cytując kalsyka
Zaczyna się!
zippy.gfycat.com/GregariousCheerfulBlackfootedferret.webm
Jeśli chcesz wyłączyć to oznaczenie zaznacz poniższą zgodę:
Oświadczam iż jestem osobą pełnoletnią i wyrażam zgodę na nie oznaczanie poszczególnych materiałów symbolami kategorii wiekowych na odtwarzaczu filmów