Lubisz oglądać nasze filmy z dobrą prędkością i bez męczących reklam? Wspomóż nas aby tak zostało!
W chwili obecnej serwis nie jest w stanie utrzymywać się wyłącznie z reklam. Zachęcamy zatem do wparcia nas w postaci zrzutki - jednorazowo lub cyklicznie. Zarejestrowani użytkownicy strony mogą również wsprzeć nas kupując usługę Premium (więcej informacji).
Wesprzyj serwis poprzez Zrzutkę już wpłaciłem / nie jestem zainteresowany
Przechodząc do sedna, za kilka, bądź kilkanaście lat powstanie sztuczna inteligencja, która sama będzie się uczyła, etc etc.
Co jeżeli ktoś zaprogramuje ją tak że ludzie mają mieć najlepiej, mają nie być w stanie zagrożenia a roboty mają za zadanie chronić jednostkę żywą, (Film Ja Robot) a roboty uznają że zagrożeniem dla człowieka jest człowiek i po prostu zniewolą ludzkość bo sama sobie zagraża :v
Takie przemyślenie, technika wciąż idzie w zastraszającym tempie do przodu, jeszcze kilka lat temu mieliśmy telefony rozmiaru cegły, potem telefony z klawiaturą rozmiaru tabliczki czekolady ew. batonika, nikt nawet nie wyobrażał sobie dotykowego całego ekranu a teraz jest codziennością.
Przechodząc do sedna, za kilka, bądź kilkanaście lat powstanie sztuczna inteligencja, która sama będzie się uczyła, etc etc.
Co jeżeli ktoś zaprogramuje ją tak że ludzie mają mieć najlepiej, mają nie być w stanie zagrożenia a roboty mają za zadanie chronić jednostkę żywą, (Film Ja Robot) a roboty uznają że zagrożeniem dla człowieka jest człowiek i po prostu zniewolą ludzkość bo sama sobie zagraża :v
Prościej mówiąc
Co jeżeli ktoś zaprogramuje ją tak że ludzie mają mieć najlepiej, mają nie być w stanie zagrożenia a roboty mają za zadanie chronić jednostkę żywą, (Film Ja Robot) a roboty uznają że zagrożeniem dla człowieka jest człowiek i po prostu zniewolą ludzkość bo sama sobie zagraża :v
Za podporę wezmę 3 prawa Asimova (wiem pisarz, a nie inżynier robotyki albo informatyk ale wielu bierze te prawa za punkt odniesienia)
1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
3. Robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.
Teraz do rzeczy...
Wszystko zależy od tego jak dobrze ktoś napisze podstawy behawioralne tej SI. Jeśli za podwaliny weźmiemy powyższe trzy prawa to:
SI faktycznie może uznać w pewnym momencie ludzi za zagrożenie dla nich samych. W myśl drugiego prawa "Robot musi być posłuszny rozkazom człowieka...". I tu pojawia się aneks "...chyba że stoją one w sprzeczności z Pierwszym Prawem.". Z godnie z pierwszym prawem nie mogą zniewolić ludzi. Jeśli nawet weźmiemy pod uwagę nawet subtelne metody zniewolenia tak jak na powyższym filmiku to by było wbrew logice. Jeśli człowiek chciałby wyjść z pomieszczenia robot nie może mu tego zabronić, albo inaczej może to, sugerować ale nie może się uciec to przemocy(nawet werbalnej). Jedyne wyjście jakie ew. widzę to podstęp. Niestety i to zawiedzie bo wg. drugiego prawa musi powiedzieć prawdę.
Te trzy prawa choć proste to dobrze zaimplementowane w "główny filar" SI będzie dla niej kagańcem którego nie da rady obejść.
Inna sprawa że biorąc pod uwagę te prawa oraz przedstawiony przez JPablo przykład powstaje nam paradoks, a jak wiadomo te rzadko mają jedną jasną odpowiedź.
Rozwiązanie jest proste: celem uniknięcia ew. konfliktu na linii człowiek-maszyna, ludzie muszą stać się maszynami.
Fajnie by było - tylko nie bardzo widzę to pod kątem rozwoju technologii. Musielibyśmy opanować coś w rodzaju nanotechnologii - tak byśmy mogli tworzyć mikrowszczepy, stopniowo zastępując biologiczną strukturę syntetyczną. Ale to jest na razie sci-fi.
Ja mam prostszą odpowiedź. Maszyny zwyczajnie zastąpią ludzi.
Takie nasze przeznaczenie, byśmy wytworzyli sztuczne formy życia, które nie będą ograniczone biologicznie jak my.
Część ewolucji po prostu.
Być może gatunek ludzi napierdala się między sobą w imię tego co uważamy za "sens życia", a tu prawda jest boleśnie prosta. Więcej robotów, dupki!
Za podporę wezmę 3 prawa Asimova
Jeżeli twój gatunek umrze z powodu zarazy (antybiotyki już przestają działać), albo zwyczajnie przestanie się reprodukować - to ci nawet prawa robotyki nie pomogą
Ja mam prostszą odpowiedź. Maszyny zwyczajnie zastąpią ludzi.
Tu się nie zgodzę, że maszyny zastąpią ludzi. Powód jest taki że i my jesteśmy robotami zaprogramowanymi przez ewolucje na drodze zmian w naszej genetyce. To co my teraz budujemy to są bardzo prywitywne odpowiedniki biologicznych maszyn którym w dodatku brakuje dwóch niezbędnych cech aby cywilizacja nie doznała zastoju lub poprostu nie wykoleiła się na bardziej złożonym problemie. Są to zdolność do samoregeneracji i abstrakcyjne myślenie które to sprawiają że człowieka nie da się zastąpić.
My do tej pory nie jesteśmy w stanie wyjaśnić czym tak naprawdę jest "wymiar świadomości". A co za tym idzie, nie potrafimy nadać czemukolwiek takowej zdolności do abstrakcyjnego myślenia.
Poprostu, wbrew pozorom jesteśmy niezastąpieni.
1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
3. Robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.
1. Jak chcesz zdefiniować krzywdę człowieka? Nie dasz rady. Przykład, ktoś stracił w wypadku całą rodzinę i cierpi straszne psychiczne katusze. Chce popełnić samobójstwo. Co jest większą krzywdą? Jego cierpienie czy śmierć? My nie potrafimy na to pytanie odpowiedzieć, a nawet gdybyśmy potrafili to AI kierująca się jedynie logiką a nie jak my zaburzonym emocjami umysłem mogłaby dojść do wniosków które dla naszych emocjonalnych umysłów byłyby torturą.
2. Posłuszeństwo rozkazom. Sposób w jaki porozumiewają się ludzie jest bardzo dorozumiany, często omijamy całe zdania bo wynikają one z kontekstu wcześniejszej rozmowy albo ustaleń. Innymi słowy AI może wykonywać nasze polecenia nie zgodnie z naszym zamierzeniem mimo istnienia tego prawa.
3. To akurat jest najmniej dziurawe.
PS. Dużym problemem jest też sama definicja człowieka. Kiedy zaczyna się a kiedy kończy człowiek. Czy człowiek w śpiączce to człowiek? Widziałem pracę naukową na jakieś 270 stron która wymieniała niezliczone luki w tej trójce.
Są to zdolność do samoregeneracji i abstrakcyjne myślenie które to sprawiają że człowieka nie da się zastąpić.
Jaka zdolność samoregeneracji? Każdy poważniejszy uraz = kalectwo.
Maszynie może wymienić zniszczone uszkodzone komponenty, nie mówiąc już o tym że jest nieśmiertelna oraz ogólnie tańsza w utrzymaniu. Wystarczy jej tylko prąd.
Do tego takie detale jak współdzielenie danych (coś jak telepatia), współdzielenie doświadczeń i algorytmów zachowań. Dzisiaj żeby człowieka nauczyć czegoś - to potrzeba wiele lat, wysiłku i nie ma gwarancji powodzenia. Maszynie wystarczy zainstalować odpowiednie oprogramowanie i już.
Myślenie abstrakcyjne? Poczytaj o "deep learning". Maszyny zaczynają się uczyć same. Po prostu musi zostać osiągnięta masa krytyczna.
My do tej pory nie jesteśmy w stanie wyjaśnić czym tak naprawdę jest "wymiar świadomości". A co za tym idzie, nie potrafimy nadać czemukolwiek takowej zdolności do abstrakcyjnego myślenia.
Z doświadczenia ci powiem, że większości ludzi nie podejrzewam o jakikolwiek poziom świadomości wyższy od wymiaru świadomości prosiaka.
Poprostu, wbrew pozorom jesteśmy niezastąpieni.
Nie ma czegoś takiego jak być "niezastąpionym".
Natomiast to nie jest tak że przepowiadam wojnę z maszynami itd. Maszyny będą miały wbudowane oprogramowanie bazujące choćby na prawach Asimova. Natomiast nic nas nie uchroni przed nami samymi, albo np. przed jakimś wirusem.
1. Jak chcesz zdefiniować krzywdę człowieka?
To, że werbalizacja tego czym jest "krzywda człowieka" jest problematyczna - nie znaczy, że ty czy większość, nie rozumie czym jest krzywda człowieka. Czyż nie?
Te trzy prawa choć proste to dobrze zaimplementowane w "główny filar" SI będzie dla niej kagańcem którego nie da rady obejść.
1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
3. Robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.
Tu się mylisz, prawo 1 oznacza brak zadawania obrażeń jednostce żywej, prawo 2 musi być posłuszny ale włączając kolidujące prawo 1 oraz 2 wykluczają się, jeżeli uznam że nie mogę Cię uderzyć ale zrobi to ktoś inny to dla twojego bezpieczeństwa zamknę Cię w domu, mimo rozkazu otwarcia wciąż prawo nr 1 będzie aktywne które mówi że ktoś Cię skrzywdzi i prawo 2 zostanie zniwelowane, więc nie opuścisz domu.
SI to ciężki temat, bo logiczne myślenie komputera opiera się na przemyślanym kodzie napisanym przez człowieka a jak wiadomo ten nie zawsze znajdzie wszystkie luki które tworzy
można go zaprogramować ale tez hakować, jak nie za pomocą kabla dział to wifi lub mu podobne a dla haka to tym lepiej, i czała fabryka jebuty skurwisynu, mam XX Czarnobyl, pobity człowiek itp, wirus załatwi niejedna komputer i będzie trzeba znaleźć antybiotyk na anonymous
jak maszyny mogą być inteligentne jak my to muszą jakoś sie uczyć jak my np na emocjach, moze wystarczy obserwacja, SI analizuje to i podkreśla jak, dlaczego, i jaki mamy winnik, z poprzedniego PD/traumy on uznaje to za takie lub takie
jak człowiek to i maszyna moze być wadliwa, nic nie idzie 100% idealnie a jak ci idzie, wiedz ze coś w międzyczasie spierdoliłeś na pewno, nie ma na świecie człowieka który nigdy nie jest pierdołą, jaki właszyciel taki pies, SI na pewno to odziedziczy po twórcy i popełni kolejny błąd
owszem nie mam czegoś takiego jak niezastąpiony, my łamiemy nogę robotowi śrubka odpada, amputacja albo naprawa lub lepiej po prostu na złom go wywali NFZ
Jeśli chcesz wyłączyć to oznaczenie zaznacz poniższą zgodę:
Oświadczam iż jestem osobą pełnoletnią i wyrażam zgodę na nie oznaczanie poszczególnych materiałów symbolami kategorii wiekowych na odtwarzaczu filmów