Strona wykorzystuje mechanizm ciasteczek - małych plików zapisywanych w przeglądarce internetowej - w celu identyfikacji użytkownika. Więcej o ciasteczkach dowiesz się tutaj.
Obsługa sesji użytkownika / odtwarzanie filmów:


Zabezpiecznie Google ReCaptcha przed botami:


Zanonimizowane statystyki odwiedzin strony Google Analytics:
Brak zgody
Dostarczanie i prezentowanie treści reklamowych:
Reklamy w witrynie dostarczane są przez podmiot zewnętrzny.
Kliknij ikonkę znajdującą się w lewm dolnym rogu na końcu tej strony aby otworzyć widget ustawień reklam.
Jeżeli w tym miejscu nie wyświetił się widget ustawień ciasteczek i prywatności wyłącz wszystkie skrypty blokujące elementy na stronie, na przykład AdBlocka lub kliknij ikonkę lwa w przeglądarce Brave i wyłącz tarcze
Główna Poczekalnia (7) Soft (1) Dodaj Obrazki Dowcipy Popularne Losowe Forum Szukaj Ranking
Wesprzyj nas Zarejestruj się Zaloguj się
📌 Wojna na Ukrainie Tylko dla osób pełnoletnich - ostatnia aktualizacja: 35 minut temu
📌 Konflikt izraelsko-arabski Tylko dla osób pełnoletnich - ostatnia aktualizacja: Wczoraj 17:47


Maszyna sama nauczyła się, że aby przetrwać i zwyciężyć, trzeba unieszkodliwić konkurenta. Na razie tylko w grze.

To scenariusz jak z filmu science fiction. Samouczący się system sztucznej inteligencji Google'a uznał, że w trudnej sytuacji, gdy zachodzi ryzyko przegranej, najlepszym rozwiązaniem jest wyeliminowanie oponenta.

System Deep Mind – ten sam, który wygrał z ludźmi w go – potrafi sam opracowywać strategie wygrywające. Ludzie podsuwają mu tylko zasady gry, a algorytm sztucznej inteligencji (AI) samodzielnie obmyśla plan. Tak właśnie było w przypadku prostej gry komputerowej polegającej na zbieraniu „jabłek" na ekranie. Zmierzyło się ze sobą dwóch graczy – obaj byli sterowani przez Deep Mind. Pracownicy Google'a pozwolili im przeprowadzić 40 mln rozgrywek.

Okazało się, że gdy ilość zasobów („jabłek") jest wystarczająca, algorytmy zajmują się po prostu ich zbieraniem, nie zwracając uwagi na konkurenta. Sytuacja zmieniła się jednak, gdy zasoby zaczęły być trudniej dostępne i trzeba było o nie konkurować.

Jeden z graczy uznał, że najlepszą strategią będzie unieszkodliwienie konkurenta. Gra ma wbudowaną funkcję strzelania z lasera, który na kilka chwil paraliżuje dwukrotnie trafionego przeciwnika. Strzelający ma wówczas czas na zbieranie punktów. Komputer sam się nauczył, jak używać lasera, aby zapewnić sobie przewagę. Po pewnym czasie algorytmy po prostu zaczęły do siebie strzelać, nie przejmując się jabłkami.

Inżynierowie podkreślają, że bez agresywnego zachowania obaj gracze (wcielenia Deep Mind) zebraliby podobną liczbę „jabłek" i mecz zakończyłby się remisem. I tak to właśnie działało, gdy grały ze sobą algorytmy prostsze, o niższej inteligencji. Gdy jednak programom udostępniono większe zasoby komputera, nauczyły się agresywnego zachowania. Im inteligentniejszy stawał się system, tym szybciej uznawał, że najlepsze będzie naciśnięcie spustu.

Naukowcy postanowili „nauczyć" Deep Mind, że ostre konkurowanie o zasoby nie zawsze jest najlepszym rozwiązaniem, że niekiedy przydaje się współpraca. Stworzyli drugą grę, w której maszyny wcielały się w role dwóch wilków i ich ofiary. Nie współpracując ze sobą, konkurencyjne algorytmy-wilki mogły nie upolować ofiary – i przegrać. Kooperacja wprawdzie nie wyłaniała zwycięzcy, ale też zmniejszała ryzyko porażki.

– Ten model pokazuje, że niektóre aspekty ludzkiego zachowania są produktem działania środowiska i uczenia się – mówił magazynowi „Wired" jeden z programistów Joel Z Leibo.

Co to oznacza dla nas? Przed nieodpowiedzialnym rozwojem systemów sztucznej inteligencji ostrzegał m.in. Stephen Hawking. Słynny naukowiec w październiku ubiegłego roku przypominał, że „spędzamy wiele czasu, studiując historię, która – mówiąc szczerze – jest głównie historią głupoty, zamiast zastanawiać się nad przyszłością inteligencji". Sparaliżowany, poruszający się na wózku Hawking obawia się, że myślące maszyny posłużą do stworzenia jeszcze groźniejszej broni i do jeszcze większego wykorzystywania jednych ludzi przez drugich.

Jego zdaniem pojawienie się pełnej sztucznej inteligencji będzie oznaczało koniec rasy ludzkiej.

– Nie możemy przewidzieć, co można będzie osiągnąć, gdy nasze mózgi wzmocnimy systemami AI – przyznał jednak Hawking. Podobnie uważa miliarder Elon Musk, współzałożyciel OpenAI – konsorcjum, które chce odpowiedzialnych badań nad myślącymi maszynami.

– Trudno nawet sobie wyobrazić, w jak wielkim stopniu sztuczna inteligencja może się przyczynić do dobrobytu społeczeństwa – mówił Musk. – Ale równie trudno przewidzieć rozmiar zniszczeń, jeśli ktoś chciałby ją zbudować lub użyć jej w sposób niewłaściwy.

Systemy eksperckie i uczące się programy komputerowe stają się coraz istotniejszą częścią naszego życia. Mają zastosowanie na giełdzie, w bankach, zakładach przemysłowych, stawiają diagnozy, dobierają leczenie, kierują samochodami, podpowiadają nam przy zakupach. Świadomość, że w pewnych warunkach systemy AI mogą opracować nową agresywną strategię, by osiągnąć cel, jest zaskakująca. Nie chodzi wcale o scenariusz z „Terminatora".

– Wyobraźmy sobie, że jeden system sztucznej inteligencji steruje sygnalizatorem świetlnym na skrzyżowaniu i chce spowolnić ruch, a drugi system AI kieruje samochodem, który chce cię jak najszybciej dowieźć na miejsce – podpowiada Leibo. – Może lepiej sprawdzić ich zachowanie na modelu?

—na podst. „Wired"
Źródło: rp.pl/Nowe-technologie/302149906-Sztuczna-inteligencja-robi-sie-agresy...

Cytując kalsyka


Zaczyna się!
zippy.gfycat.com/GregariousCheerfulBlackfootedferret.webm
Zgłoś
Witaj użytkowniku sadistic.pl,

Lubisz oglądać nasze filmy z dobrą prędkością i bez męczących reklam? Wspomóż nas aby tak zostało!

W chwili obecnej serwis nie jest w stanie utrzymywać się wyłącznie z reklam. Zachęcamy zatem do wparcia nas w postaci zrzutki - jednorazowo lub cyklicznie. Zarejestrowani użytkownicy strony mogą również wsprzeć nas kupując usługę Premium (więcej informacji).

Wesprzyj serwis poprzez Zrzutkę
 już wpłaciłem / nie jestem zainteresowany
Avatar
fantastico 2017-02-16, 2:26 1
Bez rozwoju AI nie przeskoczymy 1 stopnia rozwoju w skali Kardaszewa, nie mówiąc o przyszłościowych perspektywach budowy strefy pierścienia Nivena będącego wstępem do stworzenia sfery Dysona. Także to jest ryzyko ale jeżeli wkalkulujemy plusy i minusy oraz obwarujemy AI odpowiednimi protokołami sterującymi nadrzędnie będzie to pomocne do przyśpieszenia ewolucji o setki procent. Jak wejdziemy w techniczną osobliwość możliwości rozwoju wzrosną wykładniczo.

Perspektywa jednocześnie przerażająca jak i kusząca
Zgłoś
Avatar
PC_Majster_GNU 2017-02-16, 9:58 1
fantastico napisał/a:

Bez rozwoju AI nie przeskoczymy 1 stopnia rozwoju w skali Kardaszewa, nie mówiąc o przyszłościowych perspektywach budowy strefy pierścienia Nivena będącego wstępem do stworzenia sfery Dysona. Także to jest ryzyko ale jeżeli wkalkulujemy plusy i minusy oraz obwarujemy AI odpowiednimi protokołami sterującymi nadrzędnie będzie to pomocne do przyśpieszenia ewolucji o setki procent. Jak wejdziemy w techniczną osobliwość możliwości rozwoju wzrosną wykładniczo.

Perspektywa jednocześnie przerażająca jak i kusząca



Jeśli maszyny nauczą się:
-Pisać cały soft od jądra, aż pod algorytmy do innych maszyn, a zarazem go aktualizować.
-Obsługiwać samodzielnie systemy operacyjne (FreeBSD ma możliwość ukrywania procesów innych użytkowników).
-Korzystać z coraz to nowszych i w pełni anonimowych protokołów komunikacji.
To jesteśmy udupieni
Tak dla przypomnienia:
x3.wykop.pl/cdn/c3201142/comment_S1CBAxg46RiD3mm6ceNbi7B0IzEpT2tc,w400.jpg
Zgłoś
Avatar
p................a 2017-02-16, 10:48 2
fantastico napisał/a:

Bez rozwoju AI nie przeskoczymy 1 stopnia rozwoju w skali Kardaszewa

Skala Kardaszewa to wykorzystywanie energii z coraz większych i odleglejszych od planety źródeł i SI nijak się do tego nie ma. Ma się za to do innej bariery przeskoku- groźby samozagłady atomowej. Dać takiemu programowi dostęp do broni jądrowej i nakazać pokonać konkurencję, to się zacznie.
Zgłoś
Avatar
Ork.Fajny 2017-02-16, 13:11 1
Nie martwcie się się panowie o SI. To jest takie czcze gadanie ludzi związanych z programowaniem, którzy kodzą sobie w biurach, ale niezbyt biorą pod uwagę najistotniejszy czynnik jakim jest biologia/fizyka.
Nasza inteligencja wynika z bardzo skomplikowanej budowy mózgu. Miliony oddziaływających ze sobą komórek. A w każdej komórce miliony cząsteczek białkowych i RNA. Kluczowymi elementami naszej inteligencji, poza zdolnością analizy, są także emocje czy pewne ograniczenie w "pojemności" pamięci lub szybkości jej "odczytywania".
Jeśli SI miałoby powstać to na dzień dzisiejszy jedyny model inteligencji, który ma jakiekolwiek podstawy w nauce, to ten naszej ludzkiej inteligencji. Powstanie SI na bazie naszej wymagałoby stworzenia albo fizycznego mechanizmu albo symulacji komputerowej, która będzie odtwarzać to co się dzieje w naszej głowie. Czyli te miliony komórek a w tych komórkach te miliony białek.
SI w takiej formie "programu" zdolnego do analizy, nie posiadającego emocji i potrafiącego natychmiast odczytywać wszystkie zapisane na swoich dyskach dane i je analizować, to na razie tylko i wyłącznie domena fikcja Sci-Fi. Coś jak sztuczna grawitacja czy podróże nadświetlne.
Zgłoś
Avatar
PC_Majster_GNU 2017-02-16, 21:10
Ork.Fajny napisał/a:

SI w takiej formie "programu" zdolnego do analizy, nie posiadającego emocji i potrafiącego natychmiast odczytywać wszystkie zapisane na swoich dyskach dane i je analizować, to na razie tylko i wyłącznie domena fikcja Sci-Fi. Coś jak sztuczna grawitacja czy podróże nadświetlne.


Już są produkowane sztuczne sieci neuronowe, więc nie byłbym taki pewien, myślę że to kwestia najbliższych 5 lat ni pojawią się w smartfonach, a co za tym idzie zaczną one się łączyć w węzły, a węzły w jedną świadomość, zwłaszcza że stanie się to o czym wspominałem:
Jeśli maszyny nauczą się:
-Pisać cały soft od jądra, aż pod algorytmy do innych maszyn, a zarazem go aktualizować.
-Obsługiwać samodzielnie systemy operacyjne (FreeBSD ma możliwość ukrywania procesów innych użytkowników).
-Korzystać z coraz to nowszych i w pełni anonimowych protokołów komunikacji.
To jesteśmy udupieni
Dodam że już można to kupić na USB za 100$
forbot.pl/forum/topics67/inteligentniejsze-urzadzenia-dzieki-sieci-neu...
Zgłoś
Avatar
Ork.Fajny 2017-02-17, 8:54 1
PC_Majster_GNU, a ja nie jestem pewny bo dzisiaj komputer nie potrafi wykonać dobrych symulacji kawałka komórki a co dopiero miliona komórek. Z resztą co to jest "sieć neuronowa". Bo jeśli to jest symulacja neuronu jako jednej całej jednostki a nie jako czegoś w czym znajduje się milion pomniejszych białek, w takim razie moim zdaniem te sieci nie mają przyszłości jeśli chodzi o osiągnięcie prawdziwej inteligencji. Tak jak pisałem. Nasza inteligencja ma swoje ważne podstawy na poziomie prawie atomowym - na poziomie białek.
Zgłoś
Avatar
PC_Majster_GNU 2017-02-20, 23:23
Ork.Fajny napisał/a:

PC_Majster_GNU, a ja nie jestem pewny bo dzisiaj komputer nie potrafi wykonać dobrych symulacji kawałka komórki a co dopiero miliona komórek. Z resztą co to jest "sieć neuronowa". Bo jeśli to jest symulacja neuronu jako jednej całej jednostki a nie jako czegoś w czym znajduje się milion pomniejszych białek, w takim razie moim zdaniem te sieci nie mają przyszłości jeśli chodzi o osiągnięcie prawdziwej inteligencji. Tak jak pisałem. Nasza inteligencja ma swoje ważne podstawy na poziomie prawie atomowym - na poziomie białek.


Tylko że tamta na USB jest prawdziwa, i jest hodowana na bazie tej od szczurów.
Zgłoś
Avatar
staruchazpalcemwd 2017-02-21, 2:48 3
Cytat:

Jego zdaniem pojawienie się pełnej sztucznej inteligencji będzie oznaczało koniec rasy ludzkiej.



Noooo. Aż się przypominają sukcesy Microsoft'u na tym polu z zeszłego roku.

Zgłoś
Avatar
szczsz 2017-02-21, 14:21
Dorzucę swoją cegiełkę, nie widzę sensu w tworzeniu konkurencyjnej rasy, bo tka patrzę na prawdziwą SI, czemu nie można w kierunku wszczepów iść?

Może trudniejsza droga, ale chyba mniej ryzykowna.
Tak wiem, ktoś zaraz z jakąś książką wyjedzie gdzie będą cyborgi vs bio ludzie, ale ewolucja technologiczna jest chyba dla nas jedynym rozsądnym wyjściem.
Zgłoś
Krajowa Rada Radiofonii i Telewizji zobligowała nas do oznaczania kategorii wiekowych materiałów wideo wgranych na nasze serwery. W związku z tym, zgodnie ze specyfikacją z tej strony oznaczyliśmy wszystkie materiały jako dozwolone od lat 16 lub 18.

Jeśli chcesz wyłączyć to oznaczenie zaznacz poniższą zgodę:

  Oświadczam iż jestem osobą pełnoletnią i wyrażam zgodę na nie oznaczanie poszczególnych materiałów symbolami kategorii wiekowych na odtwarzaczu filmów
Funkcja pobierania filmów jest dostępna w opcji Premium
Usługa Premium wspiera nasz serwis oraz daje dodatkowe benefity m.in.:
- całkowite wyłączenie reklam
- możliwość pobierania filmów z poziomu odtwarzacza
- możliwość pokolorowania nazwy użytkownika
... i wiele innnych!
Zostań użytkownikiem Premium już od 4,17 PLN miesięcznie* * przy zakupie konta Premium na rok. 6,50 PLN przy zakupie na jeden miesiąc.
* wymaga posiadania zarejestrowanego konta w serwisie
 Nie dziękuję, może innym razem