18+
Ta strona może zawierać treści nieodpowiednie dla osób niepełnoletnich.
Zapamiętaj mój wybór i zastosuj na pozostałych stronach
Główna Poczekalnia (3) Soft (5) Dodaj Obrazki Filmy Dowcipy Popularne Forum Szukaj Ranking
Zarejestruj się Zaloguj się
📌 Wojna na Ukrainie - ostatnia aktualizacja: Wczoraj 22:48
📌 Konflikt izrealsko-arabski - ostatnia aktualizacja: 60 minut temu
🔥 Śmierć na tankowcu - teraz popularne

#technologia

Budowa piramidy.
Gdzio90 • 2018-02-06, 15:05
Ciekawy dokument, opisujący potencjalny przebieg budowy piramidy, oraz teoria tłumacząca precyzyjne ustawienie piramidy wzgledem stron świata.

Kosmiczne megastruktury to hipotetyczne konstrukcje, które mogą zapewnić dodatkową przestrzeń życiową lub też kolonizację kosmosu. Jednym z najstarszych projektów megastruktury jest tzw. Sfera Bernala, czyli ludzka kolonia w przestrzeni kosmicznej. Czy ludzie powinni budować takie konstrukcje?

Pan pustelnik opanowuje nowe włości. Czy tym razem poradzi sobie samotnie w dziczy?



No jasne, że tak
Najlepszy komentarz (68 piw)
M................6 • 2017-11-26, 9:38
Biały w miesiąc wyrobił żelazo i broń

Murzyn z Afryki po 2 tysiącach lat nadal bez zmian.

Boty w wirtualnym społeczeństwie zaczęły urządzać czystki etniczne i toczyć bratobójcze wojny. Ich zachowanie przypomina historię ludzkości.

Naukowcy z Carnegie Mellon stworzyli symulację opartą na „dylemacie więźnia”, od lat znanym modelu teorii gier. Wirtualne boty żyły w wyimaginowanym społeczeństwie i komunikowały się ze sobą. Mogły albo ze sobą współpracować, albo oszukiwać. Współpraca dawała korzyść obu stronom, jednak jeśli któremuś agentowi udało się oszukać oponenta – zyskiwał zdecydowanie więcej. Najbardziej skuteczne jednostki kopiowano i przechodziły do kolejnej tury. Wprowadzono też niewielką możliwość pomyłki.


Cytat:

Boty otrzymywały nagrodę jeśli współpracowały oraz jeśli udawało im się oszukać przeciwnika (fot. Nicky Case)



Model ma zastosowanie w codziennym życiu. Podobnie zachowują się ludzie, kiedy stają przed dylematem, czy chcą przystąpić do strajku, wziąć udział w zmowie cenowej, albo zaangażować się w pracę nad różnymi projektami. Wirtualne maszyny stawały przed podobnymi dylematami.

Badacze spodziewali się zaobserwować najlepszą strategię: wet za wet. Polega ona na kopiowaniu zachowań przeciwnika. Jeśli ktoś traktuje Cię dobrze – odwdzięcz się. Jeśli ktoś Cię oszuka – oszukaj i jego. Ten sposób zachowania faktycznie dominował w wirtualnej społeczności botów. Jednak po kilkuset generacjach, ku zaskoczeniu naukowców, maszyny przestawały współpracować i zaczynały toczyć między sobą cykliczne wojny .


Cytat:

Po kilkuset turach pojawiał się zaznaczony na zielono czas pokoju, a zaraz potem wyniszczające wojny –
żółty kolor (fot. Simon Dedeo)



Okazało się, że Sztuczna Inteligencja rozpoznawała swoje własne idealne kopie, traktując każde odstępstwo jako przyczynek do ataku. W ten sposób SI wynalazła „botobójstwo” i wyniszczającą wojnę, w której ginęły również te maszyny, które stosowały najbardziej optymalną strategię „wet za wet”. Po tym okresie pozostawało kilka maszyn, które zaczynały ze sobą współpracować przez kolejne kilkaset pokoleń, aż w końcu losowe błędy osiągały poziom krytyczny co znowu doprowadzało do wszczęcia bratobójczych walk.


Cytat:

Boty wypracowywały różne strategie, z których najbardziej efektywna była „wet za wet” (fot. Nicky Case)



Strategia stosowana przez Sztuczną Inteligencję przypomina zachowanie ludzi znane chociażby ze „Starego Testamentu”:
Cytat:


Następnie Gileadczycy odcięli Efraimitom drogę do brodów Jordanu, a gdy zbiegowie z Efraima mówili: „Pozwól mi przejść”, Gileadczycy zadawali pytanie: „Czy jesteś Efraimitą?” – A kiedy odpowiadał: „Nie”, wówczas nakazywali mu: „Wymówże więc Szibbolet”. Jeśli rzekł: „Sibbolet” – a inaczej nie mógł wymówić – chwytali go i zabijali u brodu Jordanu. Tak zginęło przy tej sposobności czterdzieści dwa tysiące Efraimitów.
(„Księga Sędziów”; „Biblia Tysiąclecia”):



W wielu konfliktach zbrojnych to zachowanie wielokrotnie się powtarzało. Podczas wojny domowej w Finlandii w 1918 roku, Finowie rozpoznawali rosyjskich szpiegów przez to, że nie potrafili wymówić słowa „yksi”, co oznaczało „jeden”. Ten sposób rozpoznawania wrogów wypracowała sobie również Sztuczna Inteligencja w wirtualnym świecie, czego efekty nie prowadzą do pozytywnych wniosków.

Źródło: chip.pl/2017/09/si-wynalazla-ludobojstwo-wojne/
Najlepszy komentarz (29 piw)
DużyKutas • 2017-09-25, 0:23
Od dawien dawna wiadomo że ludzkość jest skazana na wojny, nawet jak stworzymy światowe jedno supermocarstwo to jak nie będziemy prowadzić wojny z obcą cywilizacją która będzie nas jednoczyła to dojdzie między nami do konfliktów. Nawet w trakcie wojny będą kolaboranci, a to już są rozbieżności w społeczeństwie. Ludzkość jest skazana na wojny, nawet ci lewicowcy którzy tak są przeciwni, właśnie to jest u nich kluczem, oni walczą ze wszystkimi którzy się z nimi nie zgadzają, nawet jakby kosztem ich racji miałaby polać się krew niewinnych. Bardzo bogaci ludzie już od bardzo dawna o tym wiedzą, i wcale postępującego zamieszania na świecie nie powstrzymują bo wiedzą ze jest to walka z wiatrakami a do tego obrzydliwie kosztowna. Zamiast tego stymulują sytuację polityczną i ekonomiczną na świecie w ten sposób aby w najbliższym konflikcie być wygranym, bez względu na to która strona wygra oni i tak się wzbogacą. Nie ważne kto z kim, i pod jakim pretekstem, ważne abyśmy przelali krew i ponieśli klęskę...

duckduck napisał/a:

Ta, do SI im daleko. Zrobią tyle, ile pozwolą im algorytmy, a nie inteligencja.



SI nie musi być w pełni samo myśląca, aby być inteligentniejsza od człowieka. Wystarczy jej kilka algorytmów które pozwolą jej osiągnąć kryteria zagrażające rasie ludzkiej. Dla przykładu podpięcie zmodyfikowanego programu odpowiedzialnego za grę w szachy do silosów rakietowych USA. Jak myślicie? W które miasta program posłałby rakiety? A może w morze? Albo rozbroiłby je? Mówiąc sztuczna inteligencja za bardzo przyzwyczailiśmy się do kinowych wersji w stylu "I'm" a SI w cale nie musi rozumieć swojego istnienia, ale za to może mieć zaprogramowany cel "Tylko zwycięstwo", kto wie jakie błędy mogą z tego wyniknąć które nie byłyby pod kontrolą człowieka.
Kaseta magnetofonowa
~Velture • 2017-09-12, 14:02
Przykro się patrzy na to...

Dać im jeszcze telefon z obrotową tarczą i powiedzieć aby wysłali SMSa...

Najlepszy komentarz (40 piw)
~Angel • 2017-09-12, 14:36
Śmiertelne wypadki +18
regnum333 • 2017-04-01, 21:15
Sory za te krzaczki...


TT4 napisał/a:

Piwko zasłużone.

Żeby nie uleciało:

Cenzorzy YT nie śpią.

Najlepszy komentarz (21 piw)
TT4 • 2017-04-02, 1:16
Piwko zasłużone.

Żeby nie uleciało:
ukryta treść
Cenzorzy YT nie śpią.


Maszyna sama nauczyła się, że aby przetrwać i zwyciężyć, trzeba unieszkodliwić konkurenta. Na razie tylko w grze.

To scenariusz jak z filmu science fiction. Samouczący się system sztucznej inteligencji Google'a uznał, że w trudnej sytuacji, gdy zachodzi ryzyko przegranej, najlepszym rozwiązaniem jest wyeliminowanie oponenta.

System Deep Mind – ten sam, który wygrał z ludźmi w go – potrafi sam opracowywać strategie wygrywające. Ludzie podsuwają mu tylko zasady gry, a algorytm sztucznej inteligencji (AI) samodzielnie obmyśla plan. Tak właśnie było w przypadku prostej gry komputerowej polegającej na zbieraniu „jabłek" na ekranie. Zmierzyło się ze sobą dwóch graczy – obaj byli sterowani przez Deep Mind. Pracownicy Google'a pozwolili im przeprowadzić 40 mln rozgrywek.

Okazało się, że gdy ilość zasobów („jabłek") jest wystarczająca, algorytmy zajmują się po prostu ich zbieraniem, nie zwracając uwagi na konkurenta. Sytuacja zmieniła się jednak, gdy zasoby zaczęły być trudniej dostępne i trzeba było o nie konkurować.

Jeden z graczy uznał, że najlepszą strategią będzie unieszkodliwienie konkurenta. Gra ma wbudowaną funkcję strzelania z lasera, który na kilka chwil paraliżuje dwukrotnie trafionego przeciwnika. Strzelający ma wówczas czas na zbieranie punktów. Komputer sam się nauczył, jak używać lasera, aby zapewnić sobie przewagę. Po pewnym czasie algorytmy po prostu zaczęły do siebie strzelać, nie przejmując się jabłkami.

Inżynierowie podkreślają, że bez agresywnego zachowania obaj gracze (wcielenia Deep Mind) zebraliby podobną liczbę „jabłek" i mecz zakończyłby się remisem. I tak to właśnie działało, gdy grały ze sobą algorytmy prostsze, o niższej inteligencji. Gdy jednak programom udostępniono większe zasoby komputera, nauczyły się agresywnego zachowania. Im inteligentniejszy stawał się system, tym szybciej uznawał, że najlepsze będzie naciśnięcie spustu.

Naukowcy postanowili „nauczyć" Deep Mind, że ostre konkurowanie o zasoby nie zawsze jest najlepszym rozwiązaniem, że niekiedy przydaje się współpraca. Stworzyli drugą grę, w której maszyny wcielały się w role dwóch wilków i ich ofiary. Nie współpracując ze sobą, konkurencyjne algorytmy-wilki mogły nie upolować ofiary – i przegrać. Kooperacja wprawdzie nie wyłaniała zwycięzcy, ale też zmniejszała ryzyko porażki.

– Ten model pokazuje, że niektóre aspekty ludzkiego zachowania są produktem działania środowiska i uczenia się – mówił magazynowi „Wired" jeden z programistów Joel Z Leibo.

Co to oznacza dla nas? Przed nieodpowiedzialnym rozwojem systemów sztucznej inteligencji ostrzegał m.in. Stephen Hawking. Słynny naukowiec w październiku ubiegłego roku przypominał, że „spędzamy wiele czasu, studiując historię, która – mówiąc szczerze – jest głównie historią głupoty, zamiast zastanawiać się nad przyszłością inteligencji". Sparaliżowany, poruszający się na wózku Hawking obawia się, że myślące maszyny posłużą do stworzenia jeszcze groźniejszej broni i do jeszcze większego wykorzystywania jednych ludzi przez drugich.

Jego zdaniem pojawienie się pełnej sztucznej inteligencji będzie oznaczało koniec rasy ludzkiej.

– Nie możemy przewidzieć, co można będzie osiągnąć, gdy nasze mózgi wzmocnimy systemami AI – przyznał jednak Hawking. Podobnie uważa miliarder Elon Musk, współzałożyciel OpenAI – konsorcjum, które chce odpowiedzialnych badań nad myślącymi maszynami.

– Trudno nawet sobie wyobrazić, w jak wielkim stopniu sztuczna inteligencja może się przyczynić do dobrobytu społeczeństwa – mówił Musk. – Ale równie trudno przewidzieć rozmiar zniszczeń, jeśli ktoś chciałby ją zbudować lub użyć jej w sposób niewłaściwy.

Systemy eksperckie i uczące się programy komputerowe stają się coraz istotniejszą częścią naszego życia. Mają zastosowanie na giełdzie, w bankach, zakładach przemysłowych, stawiają diagnozy, dobierają leczenie, kierują samochodami, podpowiadają nam przy zakupach. Świadomość, że w pewnych warunkach systemy AI mogą opracować nową agresywną strategię, by osiągnąć cel, jest zaskakująca. Nie chodzi wcale o scenariusz z „Terminatora".

– Wyobraźmy sobie, że jeden system sztucznej inteligencji steruje sygnalizatorem świetlnym na skrzyżowaniu i chce spowolnić ruch, a drugi system AI kieruje samochodem, który chce cię jak najszybciej dowieźć na miejsce – podpowiada Leibo. – Może lepiej sprawdzić ich zachowanie na modelu?

—na podst. „Wired"
Źródło: rp.pl/Nowe-technologie/302149906-Sztuczna-inteligencja-robi-sie-agresy...

Cytując kalsyka


Zaczyna się!
zippy.gfycat.com/GregariousCheerfulBlackfootedferret.webm