Yossarian Opublikowano 6 Kwietnia 2018 Zgłoś Udostępnij Opublikowano 6 Kwietnia 2018 Koreańscy naukowcy zaczęli prace nad stworzeniem broni opartej na sztucznej inteligencji niezależnej od kontroli ludzi. Eksperci z całego świata namawiają do bojkotu ich starań i jak najszybszego zamknięcia fabryk "robotów-zabójców". Czy w Korei Południowej wkrótce powstaną roboty-zabójcy? Uczeni z Koreańskiego Zaawansowanego Instytutu Nauki i Technologii (KAIST) we współpracy z Hanwha Systems, największą koreańską firmą zbrojeniową, rozpoczęli prace nad autonomiczną bronią. Eksperci zajmujący się sztuczną inteligencją z prawie 30 krajów bojkotują koreański uniwersytet w związku z rosnącymi obawami, że w tamtejszych laboratoriach mogą powstać "roboty-zabójcy". Ponad 50 czołowych uczonych z całego świata podpisało list wzywający do bojkotu KAIST i ich partnera strategicznego, firmy Hanwha Systems. Naukowcy twierdzą, że nie będą współpracować z uniwersytetem ani przyjmować gości z KAIST w związku z obawami, że chce on "przyspieszyć wyścig zbrojeń do stworzenia autonomicznej broni". - Jest wiele wspaniałych rzeczy, które można zrobić z wykorzystaniem sztucznej inteligencji - także takie, które ratują życie. W tym kontekście ma być ona wykorzystana w celach militarnych, a partner, który na to przystaje wzbudza ogromny niepokój. KAIST to powszechnie szanowany uniwersytet, który współpracuje z etycznie wątpliwym partnerem naruszającym liczne międzynarodowe normy - powiedział Toby Walsh, pomysłodawca bojkotu i wykładowca na Uniwersytecie Nowej Południowej Walii. Bojkot poprzedza spotkanie ONZ w Genewie, na którym mają być podejmowane tematy autonomicznej broni. Już ponad 20 krajów wezwało do całkowitego zaprzestania prac nad robotami-zabójcami. Takie systemy stawiają pytania dotyczące dokładności autonomicznej broni i umiejętności odróżniania przyjaciela od wroga. Hanwha jest jednym z największych producentów broni w Korei Południowej - jej amunicja kasetowa jest zakazana w 120 krajach na mocy międzynarodowego traktatu. Korea Południowa, Stany Zjednoczone, Chiny i Rosja go nie podpisały. KAIST zaprzecza jakoby brał udział w rozwoju autonomicznej broni. - Chciałbym potwierdzić, że KAIST nie ma zamiaru angażować się w rozwoju śmiercionośnych autonomicznych systemów obronnych i robotów-zabójców. Jako instytucja akademicka cenimy prawa człowieka i normy etyczne w bardzo wysokim stopniu - powiedział Sung-Chul Shin, prezydent KAIST.Źródło: http://nt.interia.pl/raporty/raport-sztuczna-inteligencja/strona-glowna/news-korea-poludniowa-rozpoczyna-prace-nad-robotami-zabojcami,nId,2566202 1 Cytuj Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Opublikowano 6 Kwietnia 2018 Zgłoś Udostępnij Opublikowano 6 Kwietnia 2018 17 minut temu, Chlebczarow napisał: dokładności autonomicznej broni i umiejętności odróżniania przyjaciela od wroga. Ja tam akurat bardziej boję się broni masowego rażenia, bo ta nie odróżnia nikogo od niczego. A przeciętny "robocik" zakodowany na strzelanie do "czerwonych" nagle nie dostanie małpiego rozumu i nie zacznie strzelać do "niebieskich" - to już boty w Quake'u radziły sobie z odróżnianiem przyjaciela od wroga w gorącej atmosferze meczu A w kwestii samej autonomicznej broni - jeśli ludzie dawali sobie radę z trzymaniem na smyczy organicznych żołnierzy (ci miewają problemy bardziej skomplikowanej natury niż błąd w systemie), to z tymi mechanicznymi też nie będzie problemu. Nikomu normalnemu fakt powstawania takich technologii nie powinien się podobać, ale jakie czasy, taki postęp. Cytuj Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Yossarian Opublikowano 6 Kwietnia 2018 Autor Zgłoś Udostępnij Opublikowano 6 Kwietnia 2018 3 minuty temu, Sierioża napisał: A przeciętny "robocik" zakodowany na strzelanie do "czerwonych" nagle nie dostanie małpiego rozumu i nie zacznie strzelać do "niebieskich" A jeżeli przeciwnik "namiesza robocikowi w głowie" i ten stanie się tak samo poczytalny jak Antoni M, to już może się zrobić nieciekawie. Przypomina mi to opowiadanie S. Lema "Niezwyciężony". 1 Cytuj Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Opublikowano 6 Kwietnia 2018 Zgłoś Udostępnij Opublikowano 6 Kwietnia 2018 Teraz, Chlebczarow napisał: tak samo poczytalny jak Antoni M Obrarzajo ministera!!!!11 Dobra technologia będzie w stanie się - metaforycznie - obronić sama. Przeciwnik może namieszać w głowie zwykłemu sołdatowi i chociaż ten raczej nie ma armaty kal. 800mm, to taki mindfuck może być bardziej problematyczny. Inna sprawa, że żaden dowódca, będąc w pełni władz umysłowych, nie wypuści takiego robocika do boju bez możliwości zdalnego resetu. Cytuj Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Yossarian Opublikowano 6 Kwietnia 2018 Autor Zgłoś Udostępnij Opublikowano 6 Kwietnia 2018 (edytowane) 51 minut temu, Sierioża napisał: Obrarzajo ministera!!!! Chwila, chwila. Żaden z obecnych ministrów nie ma na imię Antoni (aż sprawdziłem w biuletynie informacji publicznej Rady Ministrów), tak że proszę tu mi nie imputować. Ale, wracając do tematu. Wspomniałem o tym opowiadaniu s-f, ponieważ opisano w nim jak bardzo silne pole magnetyczne "zerowało" tak roboty jak i umysły ludzkie. W tym drugim przypadku do poziomu noworodka. Osobiście niespecjalnie ufam takim autonomicznym układom, których działanie może zaburzyć jakakolwiek anomalia. Poza tym pytanie, na jakiej zasadzie mają odróżniać swoich od wroga? Tak jak jest to w samolotach? Taką "percepcję" można "ogłupić" i wtedy robocik rozpocznie radosną niczym nie ograniczoną destrukcję otoczenia. Edytowane 6 Kwietnia 2018 przez Chlebczarow Cytuj Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Opublikowano 7 Kwietnia 2018 Zgłoś Udostępnij Opublikowano 7 Kwietnia 2018 6 godzin temu, Chlebczarow napisał: Osobiście niespecjalnie ufam takim autonomicznym układom, Pochodna "uncanny valley" https://pl.wikipedia.org/wiki/Dolina_niesamowitości. Ja średnio ufam wszelkiej elektronice, ale prawda jest taka, że większe kuku może mi zrobić pecet, czy inna autonomiczna suszarka skarpet niż jakaś puszka zaprojektowana specjalnie po to, żeby robić kuku innym (o ile takie coś jest w ogóle osiągalne). Ale to chyba kwestia spojrzenia. 6 godzin temu, Chlebczarow napisał: Poza tym pytanie, na jakiej zasadzie mają odróżniać swoich od wroga? Tak jak jest to w samolotach? A skąd mam wiedzieć? Nie sądzę, żeby brano pod uwagę dowolny, istniejący system. Każdą percepcję można ogłupić chyba, że ma jakąś świadomość - wtedy też można, ale jest odrobinę trudniej. No i tu dochodzimy do tego, że skoro obecne roboty zajmują się takimi rzeczami: Spoiler ... to z całą pewnością jeszcze trochę im zajmie, zanim zaczną mieć chociaż zalążek samodzielnego "myślenia". I tak, wiem, że technologia wojskowa siłą rzeczy jest bardziej "do przodu", ale i tak - dopóki taka puszka nie zacznie jakoś ogarniać rzeczywistości sama, to te "terminatory" będą niczym więcej, jak karabinem na kablu, podłączonym do komputera. I to prawdopodobnie jeszcze stacjonarnym. A jak już zaczną, to jednym z pierwszych wniosków do jakich dojdą będzie to, że ludzie są do dupy - i odmówią współpracy w kwestii bezsensownej walki. No bo tak już bardziej filozoficznie do tematu podchodząc, to przeciętny robot musiałby mieć jakąś etykę, którą będzie się kierował. I tak długo, jak nie "myśli", tak ta będzie musiała być w niego zaprogramowana odgórnie i jak najprościej. Więc jak pogodzić bezpieczne dla sojuszników "nie krzywdzić ludzi" z pożądanym w takiej konstrukcji "niszczyć wrogów"? W całej swojej skomplikowanej konstrukcji, taki robocik musi kierować się prostym programem, zrozumiałym dla ludzi i przez nich stworzonym. Każdy rząd, który odważyłby się puścić do boju robotycznego "wariata", który ma jednocześnie zabijać i nie zabijać, zostałby momentalnie storpedowany przez cały świat. I jakieś tam petycje czy apele to groch o ścianę. Gdyby okazało się, że jednak gdzieś na świecie jest jakiś idiota na wysokim stołku, który porwie się na takiego samobója, to po momentalnym fiasku tego typu badania pójdą do szuflady na kolejne 100 lat. Posługując się przykładem Wstającej z Kolan: powiedzmy, że BYŁY minister stworzy Robohusarza, który ma pruć z railguna do wrogów ojczyzny. Jak zaprogramować tych "wrogów ojczyzny", żeby to działało? No przecież nie wyjaśnisz mu tak, jak rząd wyjaśnia ludziom na czym polegają zagrożenia dla Świętej Polski, bo nie ogarnie. Ma walić w tych, co noszą czerwone czapki? A jak ci z czerwonymi czapkami się o tym dowiedzą i tego dnia założą zielone? Będzie pruł we wszystko co się rusza, albo w nic. Tak czy tak - blamaż. Ale zostawmy już ten obrazowy, piękny przykład Cytuj Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Yossarian Opublikowano 7 Kwietnia 2018 Autor Zgłoś Udostępnij Opublikowano 7 Kwietnia 2018 Co do "doliny niesamowitości" się nie wypowiem, bo osobiście nie miałem jeszcze styczności z humanoidem . Ale w związku z tym zagadnieniem (jak i wieloma innymi), Stanisław Lem był wizjonerem. Polecam opowiadanie "Rozprawa" z książki "Opowieści o pilocie Pirxie". Na podstawie tego opowiadania powstał nawet film (mocno średni) http://www.filmweb.pl/film/Test+pilota+Pirxa-1978-10109/descs . Zresztą kilka opowiadań w tej książce porusza zagadnienie relacji na linii człowiek - robot. 7 godzin temu, Sierioża napisał: W całej swojej skomplikowanej konstrukcji, taki robocik musi kierować się prostym programem, zrozumiałym dla ludzi i przez nich stworzonym. Jeżeli chodzi o roboty bojowe to nie mogą być zbyt "inteligentne" bo https://socialpress.pl/2017/06/sztuczna-inteligencja-rozwija-swoj-wlasny-jezyk/ Czytałem jeszcze gdzieś artykuł (nie mogę go teraz znaleźć) gdzie naukowcy zmuszeni byli wyłączyć całą "machinerię", ponieważ nie dość że zaczęła się komunikować między sobą "swoim" językiem, to jeszcze zaczęła "podporządkowywać" sobie inne urządzenia. Czyli stała się nieprzewidywalna. Dlatego uważam, że całkowicie autonomiczny z własną wysoko rozwiniętą "inteligencją", przewidywalny robot bojowy, jest niemożliwy do skonstruowania, przy obecnym poziomie wiedzy. Jest to trochę takie bawienie się w pana boga, które może całkowicie wymknąć się spod kontroli. 7 godzin temu, Sierioża napisał: A jak już zaczną, to jednym z pierwszych wniosków do jakich dojdą będzie to, że ludzie są do dupy - i odmówią współpracy w kwestii bezsensownej walki. Lub posuną się do tego co pokazano w "Terminatorze" Cytuj Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Opublikowano 7 Kwietnia 2018 Zgłoś Udostępnij Opublikowano 7 Kwietnia 2018 3 godziny temu, Chlebczarow napisał: przewidywalny robot bojowy, jest niemożliwy do skonstruowania, przy obecnym poziomie wiedzy No i to jest taki końcowy wniosek 3 godziny temu, Chlebczarow napisał: Lub posuną się do tego co pokazano w "Terminatorze" Właśnie nie wydaje mi się... ale największym zagrożeniem dla świata, robotów i siebie nawzajem są ludzie. I chyba nie ma drugiego takiego gatunku, który w równym stopniu tworzyłby rzeczy, przez niszczenie wszystkiego dookoła. Idąc tym tokiem myślenia, pozbycie się ludzi byłoby najbardziej sensownym wyjściem. Cytuj Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
czernobyl10 Opublikowano 7 Kwietnia 2018 Zgłoś Udostępnij Opublikowano 7 Kwietnia 2018 Roboty to oprogramowanie i maszyna. Wojny nie wygrają ponieważ to człowiek walczy i myśli na polu walki. Największe zastosowanie dla robotów na polu walki będzie jako maszyny transportowe i wspomagające działania logistyczne. Wszystko zostanie po staremu. Cytuj Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Rekomendowane odpowiedzi
Dołącz do dyskusji
Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.
Uwaga: Twój wpis zanim będzie widoczny, będzie wymagał zatwierdzenia moderatora.