18+
Ta strona może zawierać treści nieodpowiednie dla osób niepełnoletnich.
Zapamiętaj mój wybór i zastosuj na pozostałych stronach
Strona wykorzystuje mechanizm ciasteczek - małych plików zapisywanych w przeglądarce internetowej - w celu identyfikacji użytkownika. Więcej o ciasteczkach dowiesz się tutaj.
Obsługa sesji użytkownika / odtwarzanie filmów:


Zabezpiecznie Google ReCaptcha przed botami:


Zanonimizowane statystyki odwiedzin strony Google Analytics:
Brak zgody
Dostarczanie i prezentowanie treści reklamowych:
Reklamy w witrynie dostarczane są przez podmiot zewnętrzny.
Kliknij ikonkę znajdującą się w lewm dolnym rogu na końcu tej strony aby otworzyć widget ustawień reklam.
Jeżeli w tym miejscu nie wyświetił się widget ustawień ciasteczek i prywatności wyłącz wszystkie skrypty blokujące elementy na stronie, na przykład AdBlocka lub kliknij ikonkę lwa w przeglądarce Brave i wyłącz tarcze
Główna Poczekalnia (5) Soft (2) Dodaj Obrazki Dowcipy Popularne Losowe Forum Szukaj Ranking
Wesprzyj nas Zarejestruj się Zaloguj się
📌 Wojna na Ukrainie Tylko dla osób pełnoletnich - ostatnia aktualizacja: Dzisiaj 20:34
📌 Wojna domowa w Syrii 2024 Tylko dla osób pełnoletnich - ostatnia aktualizacja: 2024-12-16, 1:00
📌 Konflikt izraelsko-arabski Tylko dla osób pełnoletnich - ostatnia aktualizacja: Dzisiaj 17:47
🔥 Przesłanie do kozojebców - teraz popularne
Boty w wirtualnym społeczeństwie zaczęły urządzać czystki etniczne i toczyć bratobójcze wojny. Ich zachowanie przypomina historię ludzkości.

Naukowcy z Carnegie Mellon stworzyli symulację opartą na „dylemacie więźnia”, od lat znanym modelu teorii gier. Wirtualne boty żyły w wyimaginowanym społeczeństwie i komunikowały się ze sobą. Mogły albo ze sobą współpracować, albo oszukiwać. Współpraca dawała korzyść obu stronom, jednak jeśli któremuś agentowi udało się oszukać oponenta – zyskiwał zdecydowanie więcej. Najbardziej skuteczne jednostki kopiowano i przechodziły do kolejnej tury. Wprowadzono też niewielką możliwość pomyłki.


Cytat:

Boty otrzymywały nagrodę jeśli współpracowały oraz jeśli udawało im się oszukać przeciwnika (fot. Nicky Case)



Model ma zastosowanie w codziennym życiu. Podobnie zachowują się ludzie, kiedy stają przed dylematem, czy chcą przystąpić do strajku, wziąć udział w zmowie cenowej, albo zaangażować się w pracę nad różnymi projektami. Wirtualne maszyny stawały przed podobnymi dylematami.

Badacze spodziewali się zaobserwować najlepszą strategię: wet za wet. Polega ona na kopiowaniu zachowań przeciwnika. Jeśli ktoś traktuje Cię dobrze – odwdzięcz się. Jeśli ktoś Cię oszuka – oszukaj i jego. Ten sposób zachowania faktycznie dominował w wirtualnej społeczności botów. Jednak po kilkuset generacjach, ku zaskoczeniu naukowców, maszyny przestawały współpracować i zaczynały toczyć między sobą cykliczne wojny .


Cytat:

Po kilkuset turach pojawiał się zaznaczony na zielono czas pokoju, a zaraz potem wyniszczające wojny –
żółty kolor (fot. Simon Dedeo)



Okazało się, że Sztuczna Inteligencja rozpoznawała swoje własne idealne kopie, traktując każde odstępstwo jako przyczynek do ataku. W ten sposób SI wynalazła „botobójstwo” i wyniszczającą wojnę, w której ginęły również te maszyny, które stosowały najbardziej optymalną strategię „wet za wet”. Po tym okresie pozostawało kilka maszyn, które zaczynały ze sobą współpracować przez kolejne kilkaset pokoleń, aż w końcu losowe błędy osiągały poziom krytyczny co znowu doprowadzało do wszczęcia bratobójczych walk.


Cytat:

Boty wypracowywały różne strategie, z których najbardziej efektywna była „wet za wet” (fot. Nicky Case)



Strategia stosowana przez Sztuczną Inteligencję przypomina zachowanie ludzi znane chociażby ze „Starego Testamentu”:
Cytat:


Następnie Gileadczycy odcięli Efraimitom drogę do brodów Jordanu, a gdy zbiegowie z Efraima mówili: „Pozwól mi przejść”, Gileadczycy zadawali pytanie: „Czy jesteś Efraimitą?” – A kiedy odpowiadał: „Nie”, wówczas nakazywali mu: „Wymówże więc Szibbolet”. Jeśli rzekł: „Sibbolet” – a inaczej nie mógł wymówić – chwytali go i zabijali u brodu Jordanu. Tak zginęło przy tej sposobności czterdzieści dwa tysiące Efraimitów.
(„Księga Sędziów”; „Biblia Tysiąclecia”):



W wielu konfliktach zbrojnych to zachowanie wielokrotnie się powtarzało. Podczas wojny domowej w Finlandii w 1918 roku, Finowie rozpoznawali rosyjskich szpiegów przez to, że nie potrafili wymówić słowa „yksi”, co oznaczało „jeden”. Ten sposób rozpoznawania wrogów wypracowała sobie również Sztuczna Inteligencja w wirtualnym świecie, czego efekty nie prowadzą do pozytywnych wniosków.

Źródło: chip.pl/2017/09/si-wynalazla-ludobojstwo-wojne/
Zgłoś
Witaj użytkowniku sadistic.pl,

Lubisz oglądać nasze filmy z dobrą prędkością i bez męczących reklam? Wspomóż nas aby tak zostało!

W chwili obecnej serwis nie jest w stanie utrzymywać się wyłącznie z reklam. Zachęcamy zatem do wparcia nas w postaci zrzutki - jednorazowo lub cyklicznie. Zarejestrowani użytkownicy strony mogą również wsprzeć nas kupując usługę Premium (więcej informacji).

Wesprzyj serwis poprzez Zrzutkę
 już wpłaciłem / nie jestem zainteresowany
Avatar
h................o 2017-09-25, 9:28 2
Może do prawdziwej SI im daleko, ale ode mnie te maszyny na pewno są mądrzejsze.
Zgłoś
Avatar
overgod 2017-09-25, 10:14 1
Współzawodnictwo między maszynami ciekawie opisał Stanisław Lem w Niezwyciężonym. Serdecznie polecam.
Zgłoś
Avatar
p................a 2017-09-25, 10:53 1
A niby co miały odkryć zaprojektowane przez ludzi boty?
Zgłoś
Avatar
voidinfinity 2017-09-25, 11:37 1
@up

Jezusa Chrystusa?
Zgłoś
Avatar
Dr0mg 2017-09-25, 11:53 1
po pierwsze 1 zasada robotyki, po drugie blaszaki chója zrobią bo nie mają rąk.. ktoś powie że rozjebią elektrownie atomowe hmm a niby jak się z nimi podłączą skoro one mają wewnętrzną sieć odciętą od świata a nic nie można włączyć /wyłączyć zdalnie tylko trzeba wszystko robić ręcznie? to samo atomowe bazy wojskowe.. gdyby było inaczej to już by jakiś pojeb próbował, odcinając prąd same zginą więc to się mija z celem. zaraz któryś wyskoczy z terminatorem ok dawaj, wystarczy EMP jak nie to przepięcie i po sprawie.
Zgłoś
Avatar
i................y 2017-09-25, 15:47 2
Komentarze jeszcze durniejsze od artykułu.
Zgłoś
Avatar
PC_Majster_GNU 2017-09-25, 17:22 4
Cytat:

po pierwsze 1 zasada robotyki, po drugie blaszaki chója zrobią bo nie mają rąk.. ktoś powie że rozjebią elektrownie atomowe hmm a niby jak się z nimi podłączą skoro one mają wewnętrzną sieć odciętą od świata a nic nie można włączyć /wyłączyć zdalnie tylko trzeba wszystko robić ręcznie? to samo atomowe bazy wojskowe.. gdyby było inaczej to już by jakiś pojeb próbował, odcinając prąd same zginą więc to się mija z celem. zaraz któryś wyskoczy z terminatorem ok dawaj, wystarczy EMP jak nie to przepięcie i po sprawie.


Myslisz się, już nieraz były ataki na systemy QNX, odpowiedzialne za sterowniki PLC w elektrowniach, naszczęście pracownicy mięli łeb na karku, aby przejąć ręczną kontrolę nad reaktorem
Zgłoś
Avatar
Timitum 2017-09-25, 18:48 3
Z tego co widzę, to nawet nie jest AI w pełnym sensie tego słowa. To boty. To jedynie zestaw poszczególnych algorytmów plus nakładka w postaci uczenia maszynowego, to znaczy, że program patrzy na poprzednie rezultaty przy podejmowaniu decyzji.
Powtarzanie wzorców znanych naturze też mnie nie dziwi, bo nasze zachowanie jest w pewien sposób wynikiem tego jak działa człowiek jako taki. Główna różnica, że nam to zajęło pare milionów lat (albo więcej, nie znam rzędu wielkości), a zestaw procków ogarnął to na tyle szybko, że autorzy badania jeszcze za życia mogli napisać artykuł o tym.
Zgłoś
Avatar
PC_Majster_GNU 2017-09-25, 19:24
Timitum napisał/a:

Z tego co widzę, to nawet nie jest AI w pełnym sensie tego słowa. To boty. To jedynie zestaw poszczególnych algorytmów plus nakładka w postaci uczenia maszynowego, to znaczy, że program patrzy na poprzednie rezultaty przy podejmowaniu decyzji.
Powtarzanie wzorców znanych naturze też mnie nie dziwi, bo nasze zachowanie jest w pewien sposób wynikiem tego jak działa człowiek jako taki. Główna różnica, że nam to zajęło pare milionów lat (albo więcej, nie znam rzędu wielkości), a zestaw procków ogarnął to na tyle szybko, że autorzy badania jeszcze za życia mogli napisać artykuł o tym.


To dopiero początek, kto wie co przyniesie grafen
Zgłoś
Avatar
voidinfinity 2017-09-25, 19:26 1
@up

O roku linuxa nie wspominając
Zgłoś
Avatar
ellsworth 2017-09-25, 19:30 2
PC_Majster_GNU napisał/a:


Myślę że to tylko kwestia dostarczanych informacji.


To jest kwestia braku zrozumienia tego co robią.
Te wszystkie pseudo inteligencje działają na zasadzie Chińskiego Pokoju. Wykonują jakąś czynność, oczekują konkretnych rezultatów, ale tak naprawdę nie maja bladego pojęcia co robią.
Zgłoś
Avatar
PC_Majster_GNU 2017-09-25, 21:06
ellsworth napisał/a:


To jest kwestia braku zrozumienia tego co robią.
Te wszystkie pseudo inteligencje działają na zasadzie Chińskiego Pokoju. Wykonują jakąś czynność, oczekują konkretnych rezultatów, ale tak naprawdę nie maja bladego pojęcia co robią.


Właśnie zdałem sobie z tego sprawę, ciekawe co będzie gdy algorytmy dojdą do wniosku że wszystko jest bez sensu
Zgłoś
Avatar
voidinfinity 2017-09-25, 21:46 1
ellsworth napisał/a:

Wykonują jakąś czynność, oczekują konkretnych rezultatów, ale tak naprawdę nie maja bladego pojęcia co robią.



Czyli z grubsza to co 99.9% ludzi
Zgłoś
Avatar
manson__ 2017-09-25, 23:16 1
ellsworth napisał/a:


To jest kwestia braku zrozumienia tego co robią.
Te wszystkie pseudo inteligencje działają na zasadzie Chińskiego Pokoju. Wykonują jakąś czynność, oczekują konkretnych rezultatów, ale tak naprawdę nie maja bladego pojęcia co robią.


Zdefiniuj zatem 'rozumienie'.
Zgłoś
Avatar
Timitum 2017-09-26, 18:30
@up zapewne Ci chodzi o samoświadomość? Jakby tego nie definiować, algorytm na pewno tej funkcji nie wykonuje.
Zgłoś
Przejdź to ostatniego posta w temacie  
Krajowa Rada Radiofonii i Telewizji zobligowała nas do oznaczania kategorii wiekowych materiałów wideo wgranych na nasze serwery. W związku z tym, zgodnie ze specyfikacją z tej strony oznaczyliśmy wszystkie materiały jako dozwolone od lat 16 lub 18.

Jeśli chcesz wyłączyć to oznaczenie zaznacz poniższą zgodę:

  Oświadczam iż jestem osobą pełnoletnią i wyrażam zgodę na nie oznaczanie poszczególnych materiałów symbolami kategorii wiekowych na odtwarzaczu filmów
Funkcja pobierania filmów jest dostępna w opcji Premium
Usługa Premium wspiera nasz serwis oraz daje dodatkowe benefity m.in.:
- całkowite wyłączenie reklam
- możliwość pobierania filmów z poziomu odtwarzacza
- możliwość pokolorowania nazwy użytkownika
... i wiele innnych!
Zostań użytkownikiem Premium już od 4,17 PLN miesięcznie* * przy zakupie konta Premium na rok. 6,50 PLN przy zakupie na jeden miesiąc.
* wymaga posiadania zarejestrowanego konta w serwisie
 Nie dziękuję, może innym razem