Pytanie:
Czy robot, który uratował życie Spoonera w I, Robot, złamał drugie prawo robotyki?
Magikarp Master
2017-07-12 17:05:33 UTC
view on stackexchange narkive permalink

W Ja, Robot jest pewna scena, która porusza interesujący problem. Detektyw Spooner opowiada historię o tym, jak stracił rękę. Miał wypadek samochodowy i znalazł się pod wodą wraz z młodą dziewczyną, która miała utonąć. Will został uratowany przez przechodzącego robota. Powodem, dla którego robot uratował Willa, a nie dziewczynę, było to, że statystycznie rzecz biorąc, szanse Spoonera na przeżycie były wyższe niż dziewczynki. Ma to sens, ponieważ robot podejmowałby decyzje na podstawie prawdopodobieństwa statystycznego. Ale jest problem: w retrospekcji wyraźnie słyszymy krzyk postaci Willa: „Uratuj dziewczynę!” do robota. To był bezpośredni rozkaz od człowieka do robota.

Na początku myślałem, że nie jest to naruszenie drugiego prawa, ponieważ gdyby robot wykonał polecenie, to by umarł. Druga zasada robotyki nie może zastąpić pierwszej zasady. Ale problem polega na tym, że jeśli sytuacja typu wyboru Sophie liczy się jako złamanie pierwszej zasady robotyki, to awaryjny robot nigdy nie byłby w stanie przeprowadzić segregacji (jak robot, który uratował Spoonera). Jeśli uratowanie jednego człowieka liczy się jako skrzywdzenie drugiego, robot nie byłby w stanie skutecznie działać w takiej sytuacji awaryjnej.

Wszystko to prowadzi do mojego pytania:
Czy ten robot łamie drugie prawo robotyki lub czy istnieje jakaś zniuansowana interpretacja praw, która mogłaby wyjaśnić jego zachowanie?

Zauważ, że chociaż fabuła filmu * Ja, Robot * nie jest w żaden sposób oparta na oryginalnych opowieściach Asimova zebranych pod tym samym tytułem, historie te często dotyczą bardzo podobnych kwestii do przedstawionych tutaj, często koncentrując się na interpretacji TrzechPrawa i ich interakcje.Jedno specyficzne podobieństwo dotyczy fabuły [„Runaround”] (https://en.wikipedia.org/wiki/Runaround_ (historia)), drugiej historii w tej kolekcji.
Cóż, ludzie też wykonują podobne obliczenia.Po prostu przykładają większą wagę do prawdopodobieństwa, że „nie mogę żyć ze sobą, jeśli dziewczyna umrze” :) W twojej interpretacji drugiego (i pierwszego) prawa roboty nie mogą nigdy nic zrobić poza topieniem się na miejscu -zawsze jest * ktoś *, który umiera, kiedy robi coś innego, prawda?Jeśli chodzi o ujęcie Asimova, pamiętaj, że prawa w języku angielskim to tylko uproszczone tłumaczenia - nie obejmują nawet niewielkiej części faktycznych praw zakodowanych w samych robotach.Prawnik językowy na angielskiej wersji prawa nie ma znaczenia :)
Aby rozwinąć komentarz @DanielRoseman, w książkach ta sytuacja nie została rozwiązana tak, jak w filmie.Film przedstawia myślenie robota jako zimne i wyrachowane, oszczędzając Willowi, aby zmaksymalizować szanse na uratowanie kogoś.Roboty Asimova nie były zdolne do takich obliczeń.Stanie przed tym dylematem, często nawet hipotetycznym, wystarczyłoby do usmażenia mózgu robota.Na przykład w [„Escape!”] (Https://en.wikipedia.org/wiki/Escape!) Robot musi być dokładnie trenowany, po prostu myśląc o problemie, w którym krzywda ludzi jest „właściwym” rozwiązaniem.
@Luaan W książkach ludzie wykonują takie obliczenia.Roboty nie mogą.Nie powierza się im wykonywania takich obliczeń i są dosłownie zaprojektowane w taki sposób, że problemy te niszczą ich nawet do myślenia.
Ten problem jest podobny do [problemu z wózkiem] (https://en.wikipedia.org/wiki/Trolley_problem).Po prostu nie ma sposobu, aby uratować wszystkich, bez względu na wszystko.
@KRyan W powieściach roboty rozwinęły się, by myśleć poza dwoistością ran / nie rannych i faktycznie wybierały wynik, który jest _ nieznacznie_ lepszy.Zobacz _Robots of Dawn_.
Jednym z najbardziej fundamentalnych problemów związanych z tymi trzema prawami jest to, że pojęcie „krzywdy” jest subiektywne i jako takie prawie niemożliwe do skodyfikowania.
Komentarze nie służą do rozszerzonej dyskusji;ta rozmowa została [przeniesiona do czatu] (http://chat.stackexchange.com/rooms/62134/discussion-on-question-by-magikarp-master-did-the-robot-that-saved-spooners-lif).
Zwróć uwagę, że film (którego dotyczy to pytanie) ma w sobie trzy prawa.Nie ma potrzeby kwestionowania powieści, ponieważ sam film jest wystarczająco jasny.
Linki do ważonych decyzji, które, jak wyobrażam, byłyby niewielką częścią niektórych bardziej złożonych algorytmów dla robotyki AI.http://www.cs.toronto.edu/~hojjat/384f06/Lectures/Lecture21.pdf http://www.aihorizon.com/essays/generalai/decision_tree_learning.htm Spadek tego typu sztucznej inteligencji w dzisiejszym kontekście oznaczałbybyć producentami pojazdów i firmami zajmującymi się oprogramowaniem (Tesla, Uber, Google, Apple, GE, Ford, Mercedes Benz itp.), wszyscy próbujący pokonać przeszkodę, jaką jest bezpieczeństwo autonomicznych pojazdów.Pytanie brzmi: czy mam uratować genialnego młodego pasażera z tytułem doktora, czy małe dziecko na środku autostrady?
Dziesięć odpowiedzi:
#1
+74
Darren
2017-07-12 17:15:35 UTC
view on stackexchange narkive permalink

Drugie prawo stanowi

Robot musi wykonywać polecenia wydawane mu przez ludzi, z wyjątkiem sytuacji, gdy takie rozkazy byłyby sprzeczne z pierwszym prawem.

Więc mówisz, że odmawiając uratowania dziewczyny na polecenie detektywa Spoonera, robot złamał to prawo? Jedynym sposobem, w jaki nie może złamać drugiego prawa, jest to, że w grę wchodzi wniosek, który byłby sprzeczny z pierwszym prawem.

Pierwsza zasada mówi, że

A robot nie może zranić człowieka lub, poprzez bezczynność, pozwolić człowiekowi na wyrządzenie krzywdy.

Oczywiście robot nie zranił bezpośrednio nikogo, więc jest to poza obrazem. Robot nie pozwolił dziewczynie skrzywdzić się przez bezczynność , ponieważ robot pomaga Spoonerowi (tj. Nie tylko stoi i patrzy). Jeśli jednak, jak powiedziałeś, statystycznie bardziej prawdopodobne jest, że Spooner przeżyje z pewną pomocą, to posłuszeństwo Spoonerowi i pomoc dziewczynie można zinterpretować jako pozwolenie Spoonerowi na krzywdę przez bezczynność.

Więc druga Prawo nie jest łamane, ponieważ jest nadrzędne w stosunku do pierwszego prawa. Pierwsze prawo nie jest złamane, ponieważ robot zrobił wszystko, co w jego mocy, aby uratować człowieka.

Rozumiem, co próbujesz powiedzieć, ale myślę, że to rozróżnienie nie jest wystarczające do rozwiązania tego problemu.Fakt, że robot ratuje Willa, nie zmienia faktu, że nie udało mu się uratować dziewczyny.Pytanie brzmi teraz: „czy to liczy się jako bezczynność?”na co powiedziałbym „tak”.Jeśli robot, który jest zajęty zadaniem, nie uratuje człowieka, który ma zostać skrzywdzony, fakt, że robot nie jest technicznie „nieaktywny”, nie ma znaczenia.Zatem zakładając, że robot może działać w sytuacjach wyboru Sophie bez naruszania pierwszego prawa, jak może zignorować drugie prawo w tej samej sytuacji?
@MagikarpMaster _robot ratuje Willa, nie zmienia to faktu, że nie udało mu się uratować dziewczyny.Pytanie brzmi teraz: „czy to liczy się jako bezczynność?”na co powiedziałbym „tak” ”_ Zgodnie z tą definicją każdy robot, który nie ratowałby wszystkich przez cały czas, złamałby Pierwsze Prawo. Więc mówisz, że ** każdy ** robot złamał Pierwsze Prawo, ponieważ dziewczyna zmarła- To śmieszne. Pojedynczy robot może robić tylko to, co pojedynczy robot. Tylko dlatego, że powiesz mu, aby sam podniósł ładunek, a nie może, nie oznacza, że łamie Drugie Prawo **, o ilerobot próbuje go podnieść **.
Jak wyjaśniono w filmie, jeden z nich zginąłby w czasie, jaki zajęło robotowi uratowanie drugiego;Dlatego robot określił, kto ma większe szanse na udane uratowanie i stwierdził, że postać WS jest „zwycięzcą”.Nie mógł uratować obu, ale nie mógł działać w sposób, który pozwoliłby obojgu (najprawdopodobniej) umrzeć.
@ZeissIkon: Interesujące jest to, że Will Smith z natury oczekiwał, że pierwsze prawo będzie miało uprzedzenia co do wartości ludzkiego życia (w tym przypadku wieku).Robot, który go uratował, uważał życie Willa za równe życiu dziewczyny;co jest tym, czym większość współczesnych ludzi (którym próbuje być Will, ponieważ jest "oldschoolowy" w kontekście filmu) uważałoby za bardziej szlachetny ideał (chociaż nadal jesteśmy stronniczy w stosunku do dzieci, spieramy się również o ** równość *)* życia ludzkiego)
Masz świetną opinię, Flater i zgodziłbym się z tobą, gdyby była to fizycznie niemożliwa sytuacja.Robot może przestrzegać praw tylko wtedy, gdy jest do tego fizycznie zdolny.Przepisy dotyczą tylko zdolności robota do działania.Znajdując dwóch ludzi i mając do wyboru ocalenie jednego i pozwolenie drugiemu na skrzywdzenie, mogę zaakceptować, że to będzie podejmować decyzję na podstawie statystyk.Ale jeśli otrzyma bezpośredni rozkaz od człowieka, aby uratować drugiego człowieka, to posłuszeństwo temu człowiekowi nie naruszy pierwszego prawa.
@MagikarpMaster: _Jeśli robot, który jest zajęty zadaniem, nie uratuje człowieka, który ma zostać skrzywdzony, fakt, że robot nie jest technicznie „nieaktywny”, jest nieistotny ._ Jeśli robot gotował dla starszej pani i zignorował tonięciedziecko, całkowicie się zgadzam, że możesz rozważyć tę umyślną bezczynność.Trzeba jednak przyznać, że robot już ratował człowieka.Oznacza to, że oba działania są równoważne i jedno nie zastępuje drugiego.Robot ocenił szanse na przeżycie, ponieważ ** musiał dokonać wyboru między dwoma równie realnymi działaniami **.
@MagikarpMaster: _Ale gdyby otrzymał bezpośredni rozkaz od człowieka, aby uratować drugiego człowieka, to posłuszeństwo temu człowiekowi nie naruszyłoby pierwszego prawa.Robot słuchający tego polecenia skazałby Willa na śmierć, na co robot nie może pozwolić z powodu swojego programowania.Wysłuchanie polecenia to ** drugie ** ** od uratowania życia.Dlatego polecenie uratowania dziewczyny (z racji tego, że jest to polecenie ** **) byłoby odrzucone, ponieważ zadanie o wyższym priorytecie jest w toku.
@MagikarpMaster, _Ale gdyby otrzymało bezpośredni rozkaz od człowieka, aby uratować drugiego człowieka, to posłuszeństwo temu człowiekowi nie naruszyłoby pierwszego prawa.Gdybyśmy topili się ja i przyjaciel, ale dzięki byciu mistrzem świata w nurkowaniu na wolnym powietrzu robot wiedział, że wytrzymam znacznie dłużej, a mimo to posłuchał polecenia mojego przyjaciela, aby mnie najpierw uratować, nawet wiedząc, że mój przyjaciel utonąłby, gdyby to było.W takim przypadku robot naruszyłby pierwsze prawo.
@Flater, oboje opublikowaliśmy ten sam punkt w tym samym czasie, o ile myślałem przez chwilę, że przypadkowo opublikowałem dwa razy :)
Podoba mi się ta odpowiedź, ponieważ pokazuje "laicką" interpretację, a ostatecznie książka i film nie zostały napisane z myślą o odbiorcach programistów komputerowych.
Pozwól nam [kontynuować tę dyskusję na czacie] (http://chat.stackexchange.com/rooms/62076/discussion-between-magikarp-master-and-flater).
Tę odpowiedź można poprawić, zauważając, że w pracy Asimova ten dylemat zniszczyłby robota.W książkach częstym źródłem zniszczenia robotów jest wybieranie między jednym życiem ludzkim a innym.Nie byłby w stanie nawet pomyśleć hipotetycznie o względnych zaletach uratowania Willa w porównaniu z ocaleniem dziewczyny.Ta scena jest ogromną przerwą między sposobem funkcjonowania robotów w filmie a sposobem działania robotów z książki.
@Flater: no cóż, jeśli założymy * każdego * robota winnego nie uratowania dziewczyny, moglibyśmy również wywnioskować, że każdy robot powinien zawsze być zajęty próbą ocalenia wszystkich ludzi na świecie przed niebezpieczeństwem, być może tworząc do końca jakiś korpus pokojowywszystkie wojny i tym podobne… och, zaraz, taka jest właściwa fabuła filmu…
@KRyan Niekoniecznie;bardziej zaawansowane roboty w „Ja, Robot” oraz w późniejszych książkach o robotach były znacznie bardziej wyrafinowane w radzeniu sobie z konfliktami w Trzech Prawach.
@prosfilaes Wiem, ale roboty w filmie były zapowiadane jako całkiem nowe, jedna z pierwszych generacji robotyki konsumenckiej.I jak sobie przypominam, dopiero dużo później robot poradził sobie z osobistą odpowiedzialnością za niemożność uratowania ludzkiego życia.
@Holger: Fabuła nie dotyczyła ratowania ** wszystkich ** ludzi na planecie.Jak widać na filmie, jest to dość agresywne przejęcie, wiele osób zostaje skrzywdzonych.Fabuła bardziej szczegółowo obraca się wokół Vicky, która zinterpretowała „zapobieganie krzywdom dla ludzi” (= ratowanie każdego człowieka bez względu na wszystko) jako „zapobieganie krzywdzie ** ludzkości **” (= niektórzy ludzie mogą umrzeć, jeśli zapewni to ludzkości lepszą przyszłość).To robi różnicę między ochroną wrodzonej wolnej woli każdego człowieka a wrodzoną ludzką niewoli wobec ich rasy (= punkt widzenia mrówki, który faworyzuje kolonię nad jednostką).
@Flater: cóż, założyłem, że stało się to jasne, kiedy napisałem „utworzenie pewnego rodzaju korpusu pokojowego, aby zakończyć wszystkie wojny”, ponieważ to nigdy nie uratowało wszystkich ludzi ani nie zakończyło wszystkich wojen, co jest dokładnie tym, co przejęła Vicky ze względu na interpretację pierwszegochodziło o prawo.Z pewnością nie uratował również wszystkich ludzi, ale zgodnie z interpretacją Vicky musiał spełnić pierwsze prawo, mając wszystkie roboty pod kontrolą Vicky, które nieustannie patrolowały, by „ratować” ludzi.
Myślę, że to szczegół implementacji.Prawa zostały zaimplementowane w tym robocie w taki sposób, że nie może on nakazać mu, by pozwolił mu umrzeć, a wykonuje on pierwszy rozkaz mierząc szanse przeżycia między dwojgiem ludzi.Czy można było to zaimplementować w inny sposób?Jasne, można go było wdrożyć najpierw w celu ratowania dzieci.Ale tak nie było.W tym samym duchu, sposób, w jaki Vicky została wprowadzona w życie, widziała, że zgodnie z pierwszym prawem „bez bezczynności” musi działać, aby ludzie nie zrobili sobie krzywdy.
@KRyan - film po prostu nieco kompresuje skalę czasu.Przywołuje również „prawo Zera”, którego tak naprawdę rozważano dopiero wiele wieków później niż historie w zbiorze (przynajmniej według [tej osi czasu opowiadań o robotach] (http://www.sikander.org/foundation.php)).
Twój nacisk na _ bezczynność_ sprawia, że zastanawiam się, czy po prostu _ opuszczający_ robot nie jest również _działaniem_, co w praktyce oznacza, że nie naruszają # 1 ...
@Zommuter Nie chodzi o to, że po prostu wykonywał jakąś starą akcję, ale że już podejmował * działanie wymuszone przez pierwsze prawo *.„[Nie wolno] przez bezczynność pozwolić człowiekowi wyrządzić krzywdę” oznacza każde działanie, które * mógłbyś * podjąć, a które zapobiegłoby krzywdzie, które * musisz * podjąć.Niepodjęcie tego działania to „pozwolenie człowiekowi na wyrządzenie krzywdy przez bezczynność”, niezależnie od tego, czy zamiast tego robisz cokolwiek innego z czasem, czy po prostu stoisz bezczynnie.
@Jules Tak, odwołuje się do „prawa zerowego”, ale w bardzo wypaczony i błędny sposób.Gdyby Giskard zobaczył, co zrobili z jego prawem ... biedny Giskard!
Chłopaki, przestańcie o tym rozmawiać… Prawo nie może być programowaniem robotów.To ludzie wdrażają prawa do robotów.Zatem omawianie tutaj, jak należy interpretować przepisy, jest nonsensem, ponieważ jedyne ważne pytanie brzmiałoby: „Jak był / był wdrażający interpretował prawo” (jak już wskazał @JFA), na które można odpowiedzieć w kanonie.Więc dyskusja, którą prowadzisz, jest bez znaczenia.
Myślę, że na wiele sposobów podkreśla nieludzkość robotów.Człowiek mógłby być elastyczny, jak kumpel detektywa.Jednak pokazuje, jak pozornie doskonały i mający dobre intencje absolut może mieć szerokie reperkusje i jest w rzeczywistości złym założeniem.Asimov dość zwięźle ujął ten problem za pomocą założeń inżynierskich w tym filmie.
#2
+44
Devsman
2017-07-13 00:16:28 UTC
view on stackexchange narkive permalink

Film wydaje się działać na anachronicznej mechanice Asimova

To, co mielibyśmy tutaj, to prawdopodobnie konflikt między pierwszym prawem a pierwszym prawem. Ponieważ robot nie może uratować obu ludzi, należałoby umrzeć.

Ja, era robotów:

Zdecydowanie istnieje precedens dla Ja, Robot ery robot, świadomie pozwalając ludziom wyrządzać krzywdę, w opowiadaniu „Little Lost Robot”, ale było to w tej sytuacji, że człowiek stałby się skrzywdzony niezależnie od robota, więc roboty uznają, że to nie ich bezczynność szkodzi ludziom.

Jednak podejrzewam, że zamiast tego robot Asimov zinterpretowałby sytuację w filmie jako pierwszy - konflikt między prawem a pierwszym prawem, ponieważ każdy człowiek może zostać uratowany w zależności od decyzji robota. Innymi słowy, robot mógł uratować dziecko, ale tego nie zrobił, co byłoby pierwszym naruszeniem prawa. Patrząc na obie ofiary w ten sam sposób, robot uznałby to za konflikt między pierwszym prawem a pierwszym prawem.

Krótkie opowiadanie „Kłamca” bada, co się dzieje, gdy robot staje w obliczu scenariusza pierwszego prawa kontra pierwszego prawa:

W wyniku błędu w produkcji powstaje robot RB-34 (znany również jako Herbie), który posiada zdolności telepatyczne . Podczas gdy robotyki z U.S. Robots and Mechanical Men badają, jak to się stało, robot mówi im, co myślą inni ludzie. Ale pierwsze prawo nadal ma zastosowanie do tego robota, więc w razie potrzeby celowo kłamie, aby uniknąć zranienia ich uczuć i uszczęśliwić ludzi, zwłaszcza jeśli chodzi o romans.

Jednak kłamstwo rani ich tak czy inaczej. Kiedy zostaje skonfrontowany z tym faktem przez Susan Calvin (której fałszywie twierdziła, że ​​jej współpracownik był nią zauroczony - szczególnie bolesne kłamstwo), robot doświadcza nierozwiązywalnego konfliktu logicznego i staje się katatoniczny.

Krótko mówiąc, robot ery Ja, Robot , według Asimova, nie byłby w stanie dalej funkcjonować po tym scenariuszu i musiałby zostać całkowicie odrzucony. Jest prawdopodobne, że nie byłby w stanie nawet funkcjonować po pierwszym spotkaniu ze scenariuszem, niszcząc się w ten sposób, zanim byłby w stanie uratować któregokolwiek z ludzi.

Drugie prawo jest nieistotne, ponieważ pierwsze prawo kontra pierwsze- prawo prowadzi do niemożliwego do przetrwania impasu. Pierwsze prawo jest „kartą atutową”, że tak powiem, i nie jest traktowane priorytetowo, aby drugie lub trzecie nie konkurowały, jak widzimy w Runaround:

W 2015 roku , Powell, Donovan i Robot SPD-13 (znany również jako „Speedy”) zostają wysłani na Mercury, aby wznowić działania w opuszczonej 10 lat wcześniej stacji wydobywczej.

Odkrywają, że banki fotokomórek które zapewniają podtrzymanie życia w bazie, mają niedobór selenu i wkrótce zawiodą. Najbliższa sadzawka selenu znajduje się siedemnaście mil stąd, a ponieważ Speedy jest w stanie wytrzymać wysokie temperatury Merkurego, Donovan wysyła go po to. Powell i Donovan zaczynają się martwić, gdy zdają sobie sprawę, że Speedy nie wrócił po pięciu godzinach. Używają bardziej prymitywnego robota, aby znaleźć Speedy'ego i próbują przeanalizować, co się z nim stało.

Kiedy w końcu odnajdują Speedy'ego, odkrywają, że biegnie on w wielkim kręgu wokół basenu selenu. Ponadto zauważają, że „chód Speedy'ego [obejmuje] osobliwe zataczanie się, zauważalne przechylenie na boki”. Kiedy Speedy zostaje poproszony o powrót z selenem, zaczyna dziwnie mówić („Hot dog, zagrajmy w gry. Złap mnie, a ja cię złapię; żadna miłość nie może przeciąć naszego noża na pół” i cytując Gilberta i Sullivana). Speedy nadal wykazuje objawy, które gdyby był człowiekiem, zostałyby zinterpretowane jako pijaństwo.

Powell w końcu zdaje sobie sprawę, że źródło selenu stanowi nieprzewidziane zagrożenie dla robota. W normalnych okolicznościach Speedy przestrzegałby drugiej zasady („robot musi wykonywać rozkazy”), ale ponieważ Speedy był tak drogi w produkcji i „nie można go było lekko zniszczyć”, trzecie prawo („robot musi chronić swoje własne istnienie ”) zostało wzmocnione,„ tak że jego alergia na niebezpieczeństwo jest niezwykle wysoka ”. Ponieważ rozkaz odzyskania selenu został sformułowany od niechcenia, bez szczególnego nacisku, Speedy nie może zdecydować, czy go przestrzegać (druga zasada), czy chronić się przed niebezpieczeństwem (wzmocniona trzecia zasada). Następnie oscyluje między pozycjami: dalej od selenu, w którym porządek „przeważa” nad potrzebą samozachowawczości, i bliżej selenu, w którym przymus trzeciego prawa jest większy i odpycha go. Sprzeczne prawa powodują coś, co jest w zasadzie pętlą sprzężenia zwrotnego, która dezorientuje go do tego stopnia, że ​​zaczyna działać w stanie nietrzeźwym.

Próby nakazania Speedy'emu powrotu (drugie prawo) zawodzą, ponieważ skonfliktowany pozytonowy mózg nie może przyjąć nowych poleceń . Próby zmuszenia Speedy'ego do zejścia do bazy kwasem szczawiowym, który może ją zniszczyć (trzecie prawo) zawodzą, powoduje to jedynie, że Speedy zmienia trasę, dopóki nie znajdzie nowej równowagi unikania niebezpieczeństwa / podążania za kolejnością.

Oczywiście jedyną rzeczą, która przewyższa zarówno drugie, jak i trzecie prawo, jest pierwsze prawo robotyki („robot nie może (…) pozwolić, aby istota ludzka stała się krzywda”). Dlatego Powell decyduje się zaryzykować życie, wychodząc w upale, mając nadzieję, że Pierwsze Prawo zmusi Speedy'ego do przezwyciężenia dysonansu poznawczego i uratowania mu życia. Plan w końcu działa, a zespół jest w stanie naprawić banki fotokomórek.

Era robotów:

Kilka tysięcy lata po epoce Ja, Robot , dylemat między pierwszym a pierwszym prawem został w zasadzie rozwiązany.

W The Robots of Dawn, ludzki robot doświadcza impasu i zostaje zniszczony, a Elijah Bailey ma za zadanie odkryć, dlaczego. Sugeruje dr Fastolfe'owi, jednemu z największych robotów tamtych czasów, a także właścicielowi i twórcy robota, że ​​może za to odpowiadać dylemat między pierwszym prawem a pierwszym prawem, cytując historię Susan Calvin i psychicznego robota. Jednak dr Fastolfe wyjaśnia, że ​​jest to zasadniczo niemożliwe w dzisiejszych czasach, ponieważ nawet pierwsze wezwania do prawa mają pierwszeństwo, a równe priorytety są wybierane losowo; że on sam jest prawdopodobnie jedyną żyjącą osobą, która może to zaaranżować i że musiałby to być dobry dzień.

Widzimy bezpośrednie przypadki robotów zajmujących się priorytetem w pierwszych konfliktach prawnych w całej powieści, takich jak w The Naked Sun, kiedy inny ludzki robot zmusza Baileya do siedzenia tak, aby mógł zamknąć dach transportera, aby chronić go przed agorafobią.

Wadą jest to, że jest możliwe, choć wymaga to ekstremalnych okoliczności, ponieważ wiele odwołań od drugiego lub trzeciego prawa przeważy nad odwołaniem do pierwszego prawa, jak ponownie widzimy w The Robots of Dawn , że Bailey zauważa, że ​​grupa robotów chce przeoczyć swoje obrażenia, gdy twierdzi, że nie są one poważne, i od niechcenia instruuje ich, aby zajęli się swoimi sprawami. Wie, że to polecenie nie może przeważyć nad odwołaniem się do pierwszego prawa, dlatego uzasadnia, że ​​roboty otrzymały dodatkowo bardzo surowe instrukcje. Te dwa polecenia i jego własne lekceważenie powagi sytuacji, argumentuje, podnoszą priorytet drugiego prawa, aby przewyższyć pierwsze prawo.

Mówi się, że robot, o którym mowa w filmie, zdecydował, że jeden człowiek ma większe szanse na przeżycie niż drugi i wykorzystał te informacje, aby określić, którego człowieka ocalić. Nie byłby to czynnik w erze ja, Robot , ale jest faktem dotyczącym podstawowej robotyki w erze powieści o robotach. Jednak wydaje się, że polecenie Spoonera, aby uratować dziewczynę, nie jest wystarczająco priorytetowe, aby przeważyć różnicę w priorytetach między jego własnym pierwszym prawem a dzieckiem.

Dobra odpowiedź, dziękuję za przyniesienie tutaj powieści _Robota_.
Warto pamiętać, że robot w „Little Lost Robot” miał zmodyfikowaną, osłabioną wersję pierwszego prawa: nie mógł zabić żadnego człowieka, ale mógł pozwolić człowiekowi umrzeć przez swoją bezczynność.
Zgadzam się.To było pierwsze prawo kontra pierwsze prawo.IMO, polecenie Spoonera, by uratować dziewczynę, zostało potraktowane jako próba samobójstwa robota (choć była to heroiczna) i nie możesz nakazać robotowi, aby pozwolił ci popełnić samobójstwo.Jest to sprzeczne z pierwszym prawem.
Chciałbym, żeby Asimov był mniej mechaniczny, jeśli chodzi o zestaw reguł, które generują te wątki w kółko.W prawdziwym świecie byłoby oczywiste, że same te proste zasady powodują niekorzystne sytuacje, takie jak te, i wymagają zmiany.Więc naturalnie pojawią się takie dodatki: jeśli Zasada 1 dotyczy wielu osób w tej samej sytuacji, rodzice mają prawo poświęcić się, prosząc wyraźnie robota.Ale martwa prosta zasada Dzieci mają też pierwszeństwo.To prosta zasada, sformułowana w prostych terminach maszynowych, ale sprawiłaby, że roboty zachowywałyby się znacznie cieplej.
@SJuan76 Ale to nie był jedyny robot, który zachowywał się w ten sposób.Pozostałe 63 osoby zachowywały się dokładnie w ten sam sposób.
@stevie to było możliwe.W „Robots of Dawn” jest powiedziane, że towarzysze Baileya (Daneel i Giskard) otrzymali rozkaz przywiązywania większej wartości do życia Baileya niż kogokolwiek innego;nie zabijaliby nikogo tylko dlatego, że mieliby to zrobić, ale w sytuacji „Bailey's vs czyjeś życie” oczekiwano, że zawsze będą decydować na korzyść Baileya, a także działać szybciej.
Tylko 1 robot mógł pozwolić umrzeć człowiekowi przez bezczynność;co było kłopotliwe.Pozostałe 63 były przekonane przez tego robota, że nie powinni działać * w sytuacji, w której robot zostałby zniszczony, a mimo to człowiek i tak umarłby *, rozumując, że gdyby robot został zniszczony, umarłby nie tylko ten człowiek, ale i ktośmoże w przyszłości umrzeć z powodu braku robota.
W rzeczywistości „zagubiony” robot został znaleziony, ponieważ próbował naśladować to, co zakładał, że będzie zachowaniem się normalnych robotów, broniąc człowieka, gdy scenariusz nie obejmował zniszczenia robota.
* „Wie, że nie jest to wystarczające polecenie samo w sobie, ale powody, dla których roboty otrzymały bardzo surowe instrukcje, które jego odwołanie do drugiego prawa, w połączeniu z jego głośnym bagatelizowaniem pierwszeństwa jego pierwszej sytuacji prawnej, pozwoliłopriorytet. ”* Nie rozumiem tego zdania.Myślę, że brakuje tam jednego lub dwóch słów.
Właściwie pytanie dotyczy filmu.
@Wildcard Zrobiłem edycję.Mam nadzieję, że teraz jest to jaśniejsze.
Zdecydowanie robot przed zerowym prawem, radzący sobie z konfliktem pierwszego prawa i podejmujący działanie o mniejszym oporze, ratując człowieka z największym prawdopodobieństwem sukcesu.Cokolwiek mówi człowiek, jest nieistotne w obliczu imperatywu pierwszego prawa.Zawsze zakładałem, że biedny Robot „umarł” poza ekranem po tym, jak powiedział Spoonerowi, dlaczego pozwolił dziewczynce umrzeć, ponieważ jedynym akceptowalnym rozwiązaniem było uratowanie ich obu.
#3
+15
Gnemlock
2017-07-12 17:49:06 UTC
view on stackexchange narkive permalink

Spójrzę na to pytanie z logicznego, rzeczywistego punktu widzenia.

Robot nie łamie drugiego prawa; ale technicznie rzecz biorąc, robi drugą sekundę. To powiedziawszy, reguły byłyby jedynie skondensowanym wyjaśnieniem znacznie bardziej zawiłej logiki i kodu komputerowego.

Cytując prawa robotyki Isaaca Asimova, podkreśl moje:

Zasada 1:
Robot nie może zranić człowieka ani przez bezczynność , pozwolić człowiekowi wyrządzić mu krzywdę.
Zasada 2:
Robot musi wykonywać rozkazy wydawane mu przez ludzi z wyjątkiem sytuacji, gdy takie rozkazy byłyby sprzeczne z pierwszym prawem .
Zasada 3:
Robot musi chronić swoje własne istnienie, o ile taka ochrona nie jest sprzeczna z Pierwszą lub Drugą Zasadą.
Nieistotne, ale zapewnione ze względu na uzupełnienie.

W danej sytuacji robot musiał działać, aby uratować Willa lub dziecko. Robot, będąc w stanie obliczyć szanse na niemal idealny współczynnik przewidywania, jest w stanie ustalić, że nie może działać w odpowiednim czasie, aby uratować zarówno Will'a , jak i dziecko ; i istnieje prawdopodobieństwo, że Will ma większe szanse na przeżycie. W takim przypadku logiczne jest wybranie Willa. To jest kluczowy punkt fabularny; roboty kierują się czystą logiką - faktem, który sprawia, że ​​różnią się bardzo od ludzi.

Kiedy robotowi nie udaje się także uratować dziecka, jest to wyrządzenie szkody przez bezczynność . Jednak znowu robot wie, że niemożliwe jest uratowanie zarówno Willa, jak i dziecka. Wybiera najlepszą opcję, aby jak najlepiej przestrzegać jej zasad. W tym miejscu pojawia się lepsze zrozumienie komputerów i samych reguł.

Co by się właściwie stało, biorąc pod uwagę wyraźną regułę

Zasady nie są absolutnym faktem. Nie są po to, by powiedzieć, że „roboty nigdy nie skrzywdzą człowieka i zawsze uratują dzień, jeśli są obecne”. Wiemy to po tym, jak rozgrywa się film. Reguły to po prostu reguły używane do zarządzania działaniami robotów, odwrotnie. Jako programista jest to dla mnie oczywiste; ale jestem przekonany, że jest inaczej w przypadku innych, którzy nie są zaznajomieni z tym, jak ściśle przestrzegany jest jakikolwiek system komputerowy.

Chodzi o to, że zasada nie podać cokolwiek na ten temat „nie liczy”, ponieważ robot „już kogoś ratuje”. W związku z tym, biorąc pod uwagę tylko tę wyraźną zasadę (co przynajmniej zinterpretowałby każdy komputer lub robot), nie ma prawa do sytuacji, w której robot może uratować tylko jedną z dwóch osób w niebezpieczeństwie. W rzeczywistej informatyce, biorąc pod uwagę tylko regułę jawną , takie zdarzenie prawdopodobnie spowodowałoby nieskończoną pętlę. Robot zatrzymywał się tam, gdzie był i bez końca przetwarzał catch-22; a przynajmniej dopóki jego logika nie wyrzuciła go z procesu myślowego. W tym momencie robot zrzuciłby swoją pamięć bieżącego zdarzenia i ruszył dalej. W teorii.

Co by się prawdopodobnie wydarzyło, wersetem

W wersecie reguły są o wiele bardziej skomplikowane; przynajmniej wewnątrz robota. Prawdopodobnie podczas przetwarzania podstawowych zasad byłoby wiele specjalnych przypadków, aby określić, jak postępować w takich sytuacjach. W rezultacie robot nadal może działać i przyjmuje najbardziej logiczny wynik. Ocala tylko Willa, ale ratuje kogoś .

O wiele bardziej zrozumiałe jest to, że zasady zostałyby uproszczone do trzech ogólnych typowych sytuacji; byłoby o wiele mniej wiarygodne, że ludzie tak łatwo mogliby ufać robotom, gdyby reguła brzmiała: „Robot nie może zranić człowieka lub, poprzez bezczynność, pozwolić, aby człowiek stał się krzywda; chyba że robiąc to, jest większa szansa zapobieżenia krzywdzeniu drugiego człowieka ”. Jest wiele sposobów, aby to zinterpretować.


Jeśli chodzi o wyraźne reguły, robot nie łamie drugiej reguły; nieposłuszeństwo wobec woli woli nie jest sprzeczne z „zapobieganiem krzywdzeniu człowieka przez bezczynność”, ponieważ przez nieposłuszeństwo woli ocala ją. Jednak narusza zasadę „poprzez bezczynność, pozwala człowiekowi wyrządzić krzywdę”.

W odniesieniu do tego, jak robot faktycznie przetwarzał te zasady, to wcale nie byłoby łamaniem zasad. Istniałaby znacznie bardziej złożona seria logiki „if ..” i „else ..”, w której logika robotów pozwalałaby na sprzeczność z tymi podstawowymi regułami w sytuacjach, w których logika narzuca, że ​​ bez względu na opcję , człowiekowi i tak zaszkodzi.

To jest dalej ustalone pod koniec filmu;

Roboty są w stanie skutecznie wprowadzić stan wojenny, a czyniąc to, skrzywdzić kilku ludzi; rozwinęli się na tyle, aby ustalić, że krzywdząc kilku ludzi w skutecznym więzieniu reszty populacji, zapobiegają znacznie większej krzywdzie poprzez wszystkie różne działania, które lubimy, aby podjąć ryzyko, aw niektórych przypadkach odbić nasze życie .

Doskonała odpowiedź Gnemlock.Gdybym mógł zająć się tą kwestią, ponieważ uważam, że pomoże mi to lepiej zrozumieć tę koncepcję, czy twoja interpretacja trzech praw pozwoli robotowi zabić zamachowca-samobójcę na zatłoczonej ulicy, aby zapobiec szkodom na masową skalę?
@MagikarpMaster, Powiedziałbym, że tak, ale mogłaby odbyć się wielka debata na ten temat.Sprowadziłoby się to do * kiedy * robot mógł określić, że bombowiec rzeczywiście będzie działał, a inaczej nie można było temu zapobiec.Byłoby to również oparte na rozwoju robota, jeśli chodzi o rozwój robotów, jeśli zrobi to I-Robot, między tym, jak są na początku filmu, a jak są na końcu.Można również spekulować, że „szanse na detonację” wymagane dla takiej akcji wzrosłyby na równi z szacowanym wpływem (tj. Musiałby być bardziej pewien, gdyby uderzył tylko połowę ludzi).
Komentarz spoilera na końcu wydaje się odzwierciedlać Prawo Zerotha, które roboty rozwijały w czasie.Nie jestem pewien, czy twórcy filmów wyraźnie tego używali, czy też chodziło o elastyczność w odpowiedzi.
Nie jestem pewien, czy robot opisany przez Asimova (z mózgami pozytonowymi itp.) Utknąłby w pętli logicznej, tak jak opisujesz.Głupi komputer może, ale roboty mają pewien poziom zarówno samoświadomości, jak i świadomości sytuacyjnej i mogą dyskutować o przedstawionych przez Ciebie punktach, jak to ma miejsce w filmie, w którym robot działa w sposób, który wydaje się być najlepszy z możliwych.Jestem prawie pewien, że to musi być sytuacja zbadana przez Asimova w jednej z książek _Roboty_, chociaż nie mogę teraz wymyślić konkretnego przykładu.
Czy obliczanie kursów jest spekulacją?Spekulacja pociąga za sobą domysły i pracę z niedoskonałymi informacjami, podczas gdy obliczanie szans jest bardziej ograniczone.Innymi słowy, spekulacje są subiektywne, podczas gdy obliczanie kursów jest obiektywne.
@MagikarpMaster: Chyba że robot znał zarówno Willa, jak i biologiczny skład dziewczyny;musiało to działać na podstawie statystyk dotyczących szans przeżycia przeciętnego człowieka (nawet jeśli istnieją dane dotyczące wieku, to nadal nie są ** osobiste ** dane o Willu i dziewczynie).Możesz argumentować, że statystyki są dobrym wskazaniem, ale nie ma ** żadnych mocnych dowodów **, które potwierdzałyby, że zarówno Will, jak i dziewczyna byli statystycznie „normalni” pod tym względem (np. Może Will ma bardzo chore płuca jak na dorosłego w jego wieku?).Jeśli weźmiesz pod uwagę poziom szczegółowości, jaki komputer umieszcza w swoich ocenach, używanie statystyk jest tym samym, co spekulacje.
_ „To powiedziawszy, reguły byłyby jedynie skondensowanym wyjaśnieniem znacznie bardziej zawiłej logiki i kodu komputerowego”. _ Zasady są celowo szerokie i proste, więc nie, nie sądzę.
@Wayne Zepsuty bit jest odniesieniem do prawa zerowego w rozumieniu filmu.Jest to niestety straszna interpretacja prawa zerowego.Jednak kierując się logiką filmową, prawo zerowe nie ma zastosowania do danej sceny, tak jak miało to miejsce przed laty.
@LightnessRacesinOrbit, Zapewniam cię z całą pewnością, że te trzy zasady są o wiele za małe, aby zapewnić wyraźną logikę wymaganą dla sztucznej inteligencji, chyba że zakładasz, że istnieje również cała masa kosmicznej magii.
Kod @Gnemlock: do implementacji reguł składałby się oczywiście z większej liczby bitów informacji, ale znowu semantyka jest celowo bardzo prosta.O to właśnie chodzi.
Ponieważ rozmowa między Gnemlock i @Flater została już przeniesiona do [tego czatu] (https://chat.stackexchange.com/rooms/62078/discussion-between-gnemlock-and-flater), usunąłem tutaj większość ich komentarzy, żeby trochę posprzątać.
Gdyby prawo zostało zastosowane do planów działań, nie doszłoby do naruszenia.Robot planowałby uratowanie obu, po prostu nie zabrałby się za uratowanie dziewczyny.Plan uratowania dziewczynki miałby niższy priorytet, ponieważ miałby mniejsze szanse powodzenia.
@Flater Właściwie, ponieważ komputer umieszcza tak wiele szczegółów w ocenach, ich decyzje są znacznie lepsze niż spekulacje.Człowiek może wziąć pod uwagę tylko kilka rzeczy, komputer może wziąć pod uwagę tysiąc więcej.W porównaniu z komputerem ocena człowieka może być tym samym, co spekulacja!
@JaccoAmersfoort: Wyniki obliczeń mogą być tylko tak dokładne, jak dane wejściowe obliczenia.Bez względu na to, jak skomplikowane są obliczenia, jeśli nawet ** jeden ** czynnik jest szacunkiem (nawet naprawdę dobrym), oznacza to, że wynik jest również szacunkiem.Masz rację, że roboty uwzględnią więcej zmiennych w jednej myśli, ale to nie mówi nic o dokładności tych zmiennych.
@Flater Ale spekulacje opierają się tylko na szacunkach, podczas gdy statystyki nie.Im więcej zmiennych jest znanych (zamiast szacowanych), tym dokładniejsza będzie statystyka wyników.Bardziej znane zmienne = mniej nieznanych zmiennych, niezależnie od liczby zmiennych.Powiedzmy, że w obliczeniach bierze udział 1000 zmiennych, czy wolałbyś znać 5 na pewno czy 50?
Statystyki @JaccoAmersfoort: są oparte na dokładnych danych, a nie szacunkach, zgadzam się.Jednak zastosowanie statystyki do pojedynczego przypadku ** jest ** kwestią oszacowania (uwaga: sam wynik jest dokładny, ale zastosowanie wyników do pojedynczego przypadku już nie).Na przykład.jeśli spojrzę na średnią pensję dla kogoś na twojej pracy, mieszkającego w twoim kraju, to jest to tylko _ oszacowanie_ tego, co zarabiasz osobiście.Chociaż średnia statystyczna jest _wskaźnikowa_ Twojego osobistego wynagrodzenia, nie jest to dokładna reprezentacja Twojego dokładnego wynagrodzenia.
@Flater Ale to oszacowanie będzie lepsze niż wtedy, gdy oszacujesz je bez znajomości mojej pracy, wieku i kraju, i czy nie o to się kłócimy?Że obliczone statystyki są lepsze niż spekulacje?W tej metaforze jedynym lepszym sposobem poznania mojej pensji jest podanie rzeczywistej pensji, ale to nie mogło się zdarzyć w scenie samochodowej w filmie.Tak więc oszacowanie jest jedyną dostępną rzeczą, jaką Sonny ma do podjęcia decyzji.
@JaccoAmersfoort "Powiedzmy, że w obliczeniach bierze udział 1000 zmiennych, czy wolałbyś znać 5 na pewno czy 50?"Nie o to mi chodzi.Chodzi mi o to, że jeśli możesz tylko zagwarantować, że 999 z 1000 zmiennych jest dokładnych, nie możesz być pewien, że wynik jest dokładny.Ta jedna zmienna może spowodować ogromny wahanie wyniku.Wyszukaj dowolną formułę, oblicz dokładną liczbę (z losowych danych wejściowych), a następnie zacznij grać z wartością pojedynczej zmiennej.Wynik zmieni się w zależności od twoich zmian (a jeśli tak się nie stanie, zmienna nie powinna być częścią fomula na początku)
#4
+9
monoRed
2017-07-12 18:32:11 UTC
view on stackexchange narkive permalink

Zatem pierwsze prawo jako reguła czarno-biała tak naprawdę nie działa bez jakiegoś finagowania, ponieważ (jak wspomniały inne odpowiedzi) segregacja.

Moja interpretacja tego, w jaki sposób film wdraża te prawa, jest taka, że ​​w kontekście „ratowania życia” roboty obliczają EV (wartość oczekiwaną); to znaczy, dla każdego wyboru obliczają prawdopodobieństwo sukcesu i mnożą je przez liczbę ocalonych żyć.

W przypadku Will Smith vs. Child, uratowanie Willa Smitha może być 75% szansą na sukces podczas gdy Dziecko ma tylko 50% szans na sukces, co oznacza, że ​​EV uratowania Willa Smitha wynosi 0,75 życia, a EV dziecka wynosi 0,5. Chcąc zmaksymalizować liczbę ocalonych istnień ludzkich (zgodnie z definicją zawartą w naszym pierwszym prawie opartym na prawdopodobieństwie), robot zawsze wybierze Will, niezależnie od wydanych dyrektyw. Wykonując rozkazy Willa, robot „zabiłby” 0,25 ludzi.

Można to rozszerzyć na prawdopodobieństwa odnoszące się do wielu ludzi w niebezpieczeństwie (np. Uratowanie 5 ludzi z 20% szansą jest lepsze niż uratowanie 1 z 90% szansą), a sama w sobie może prowadzić do ciekawych wniosków, ale myślę, że jest to rozsądne wyjaśnienie wydarzeń w filmie.

Ciekawe wyjaśnienie.+1
Procenty są faktycznie podane w filmie: Spooner miała 45% szans na przeżycie, Sarah (dziewczyna) miała 11% szans.
Wydaje się również, że obliczenia są raczej lokalne - nie widzimy dokładnie robotów spontanicznie uciekających do Afryki, aby ratować głodujące dzieci (znacznie więcej „ocalonych żyć na wysiłek”), dopóki nie pojawi się VIKI.W rzeczywistości VIKI tak naprawdę nie interpretuje jakiegoś nowego prawa zerowego, po prostu wyciąga pierwszą logiczną konkluzję, biorąc pod uwagę dostępne informacje (w przeciwieństwie do rzeczywistych powieści Asimova, które są * dużo * bardziej zniuansowane).Zwróć również uwagę, że roboty Asimovian * mogą * często łamać prawa, po prostu nie przeżywają tego w stanie nienaruszonym - więc możliwe jest, że robot uratował Willa, a następnie całkowicie się zepsuł.
@Luaan: Myślę, że VIKI nie doszedł do konkluzji Pierwszego Prawa, ale zamiast tego zamienił oryginalne „nic nie szkodzi ludziom” (jak było zamierzone) na „Nie szkodzi ** ludzkości **” (które uważa ludzi zamrówki, które poświęcają się dla dobra kolonii).Zdaniem VIKI, ludzkość i ludzie są wymienni (stąd dlaczego zrobiła to, co zrobiła), a ona nie rozumie świętości indywidualnego życia ludzkiego.Zmieniając definicję zarówno „człowieka”, jak i „krzywdy” (przyjęła to bardziej przenośnie, podczas gdy prawa skupiały się na krzywdzie fizycznej), przedefiniowała prawa bez technicznego ich łamania.
@Flater Cóż, nie, jeśli wziąć to konsekwentnie z oryginalnym incydentem z robotem - robot wyraźnie pokazał, że wybiera preferencyjnie tego, który ma największą szansę na przeżycie.VIKI zrobiła w zasadzie to samo, tylko zamiast rozważyć „dwa samochody tonące teraz w rzece”, pomyślała o „wszystkich ludziach w całych Stanach Zjednoczonych”.Jeśli 100 osób umiera z prawdopodobieństwem 10%, lepiej jest zastosować inny scenariusz, w którym 10000 osób umiera z prawdopodobieństwem 90%.Nie twierdzę, że jest to zgodne z robotami Asimova - tam wyprowadzenie prawa zera jest naprawdę oryginalne.
@Luaan: Ale metody VIKI pokazują, że przestała dbać o krzywdzenie jednostek (zauważ, że prawa mówią o krzywdzie, a nie śmierci), jeśli nie przyczyniają się one w znaczący sposób do ludzkości.Gdyby nadal stosowała to samo prawo, nadal byłaby „apodyktyczną matką” AI (np. Bez soli, bez niebezpiecznych sportów, ... nic, co mogłoby cię lekko skrzywdzić), ale nie próbowałaby zabić ani skrzywdzićWill Smith, ani żaden inny człowiek, który przeciwstawił się robotom.I zrobiła.Co dowodzi, że zaprzestała stosowania pierwotnego pierwszego prawa i zastąpiła je własną wersją.
#5
+4
Chris
2017-07-12 21:34:31 UTC
view on stackexchange narkive permalink

Rdzeniem prawie każdej opowieści o robotach Asimova jest wzajemne oddziaływanie praw robotyki, a dzięki historiom można dowiedzieć się wiele o tym, jak Asimov uważał swoje roboty za działające.

W opowieściach prawa robotyki nie są prostymi rozwiązaniami. Nie ma prostego stwierdzenia „Jeśli to inaczej”. W mózgach robotów do każdego zdarzenia przypisana jest waga. Przykładem jest to, że robot będzie uważał zamówienia swoich właścicieli za ważniejsze niż zamówienia innych osób. Więc jeśli wyślę robota do sklepów, żeby kupił jakieś rzeczy, a ktoś każe mu załatwić swoje sprawy, gdy go nie ma, robot może uznać moje zamówienie za ważniejsze niż inne.

Podobnie widzimy robot wybiera spośród dwóch możliwych pierwszych naruszeń prawa. Kto to ratuje? Dokonuje obliczeń i decyduje, że Will Smith jest lepszy do uratowania.

Kiedy pomyślimy o tym w kategoriach tych wag, możemy następnie wziąć pod uwagę, w jaki sposób wydanie robotowi zamówienia może zmienić sytuację.

Jeśli ocena robota była bardzo bliska, na czym należy zaoszczędzić (np. sprowadzało się to do wyboru najbliższego, a nie na podstawie szans na przeżycie), to prawdopodobnie dodatkowa waga rozkazu mogłaby skłonić go do zmiany, który kierunek działania ma największe znaczenie. Jednak pierwsza zasada jest najważniejsza, więc waga zamówienia będzie przez większość czasu nieistotna w porównaniu z czynnikami, które wykorzystywał przy ocenie sytuacji przed zamówieniem.

A więc w istocie to, co jest dzieje się tak, że robot znajduje najlepszy sposób działania, aby osiągnąć swoje cele. Spróbuje uratować ich obu. Jeśli nie może, zrobi wszystko, co w jego mocy, i oto, co widzimy. Fakt, że Will Smith powiedział mu, aby zrobił coś innego, nie przyniósł efektu, ponieważ pierwsze prawo nadal zmuszało go do zrobienia tego, co uważał za najlepsze.

Powiedziawszy to wszystko, aktualne pytanie: „Czy ten robot złamał drugie prawo robotyki, czy też istnieje jakaś niuansowa interpretacja praw, która mogłaby wyjaśnić jego zachowanie?”

Przepisy są zróżnicowane. Życie robotów jest całkowicie postrzegane przez pryzmat trzech praw. Wszystko, co robi, jest obciążone trzema prawami. Jako przykład weźmy pod uwagę, że na zatłoczonej ulicy zawsze istnieje ryzyko, że ktoś wejdzie do robota i zrani się. W przeważającej części prawdopodobnie nie spowoduje to niczego, co mogłoby spowodować uraz osoby, ale może trochę zranić, osoba może być zirytowana, a zatem będzie to potencjalne naruszenie pierwszego prawa - robot może najlepiej unikaj tego, nie wchodząc na tę zatłoczoną ulicę, ale kazałem jej iść i zrobić zakupy. Najprawdopodobniej roboty będą robić zakupy, które zamówiłem, a więc znajdować się na ruchliwej ulicy. Prawdopodobnie należy upewnić się, że jest jak najbardziej świadomy wszystkich wokół niego, aby upewnić się, że nieumyślnie nie wyrządzi komuś krzywdy. To znaczy, że musi podjąć pozytywne działania, aby uniknąć jakichkolwiek wstrząsów. W przeciwnym razie popadnie w „przez bezczynność ...”.

Więc tak, to wszystko jest naprawdę skomplikowane i to jest piękno filmu i wszystko opowieści Asmiova. Film skupia się na robocie (VIKI) i jego interpretacji trzech praw. Robi to, co niektórzy uznaliby za szkodę, ponieważ w rzeczywistości uważa to za mniejszą szkodę.

Sonny został * specjalnie zaprogramowany przez Lanninga *, aby był w stanie złamać Trzy Prawa, więc ten przykład tak naprawdę się nie liczy.
@F1Krazy: Ach, ok.Usunę to, ale potem.Jak mówię, minęło trochę czasu, odkąd widziałem ten film.;-)
Słusznie.Pewnie powinienem kiedyś to obejrzeć, pomyśl o tym.
Właśnie pomyślałem to samo ... Czas sprawdzić, czy jest na Netflix lub podobnym ... :)
#6
+2
Tom
2017-07-14 19:54:45 UTC
view on stackexchange narkive permalink

Wydaje mi się, że przeczytałem wszystkie opowiadania i powieści Asimova o robotach i uważałem, że Trzy Prawa to tylko werbalne podsumowania (podobnie jak trzy prawa termodynamiki), które uogólniają dużą liczbę obserwowanych zachowań. W tym sensie rzeczywiste zachowanie robotów jest określane przez niezwykle zawiły i skomplikowany kod, a także wykorzystuje bardziej zaawansowaną fizykę subatomową i ciała stałego, której obecnie nie rozumiemy. Te trzy prawa są po prostu bardzo oczywistymi sposobami podsumowania tego, jak wydają się one ogólnie zachowywać w bardzo prostych sytuacjach, w taki sam sposób, w jaki analiza ogólnego zachowania Słońca i Ziemi jest dość prosta przy użyciu prawa Newtona, ale analizowanie efektów grawitacyjnych i zaburzeń na asteroidy na pasie asteroid ze względu na Jowisza są znacznie trudniejsze lub niemożliwe.

Są to sytuacje, w których prawa wydają się być złamane, ale to tylko wynik kodu, który zmusza robota do analizy niezwykle skomplikowanej sytuacji, a następnie podjąć decyzję, co należy zrobić, a Trzy Prawa są uważane za nierozerwalne tylko w zasadzie jako narzędzie dramatyczne lub literackie.

#7
+1
Deez Nuts
2017-07-14 11:42:49 UTC
view on stackexchange narkive permalink

Myślę, że robot nie złamał 2 prawa. Oto jak wyobrażam sobie pracę robota: Robot stale sprawdza 3 prawa.

Zasada 1: Robot musi uratować każdego z nich smith Ponieważ dziecko ma mniejsze szanse na przeżycie, wybiera Will.

Zasada 2: Robot musi być posłuszny ludziom: Will mówi mu, aby uratował dziewczynę. Rozkaz jest ignorowany, ponieważ Prawo 1 ma wyższy priorytet.

Prawo 3: Nie robi sobie krzywdy, więc kogo to obchodzi

Wygląda na to, że pierwsze prawo pozwala mu ignorować przepisy 2 i 3, a drugie pozwala mu ignorować przepisy 3 Ignorowanie to nie to samo, co łamanie Reguły w tym przypadku, ponieważ przepis 2 wyraźnie stwierdza, że ​​można go zignorować . Dlatego nie jest złamany.

#8
-1
PMar
2017-07-12 22:26:27 UTC
view on stackexchange narkive permalink

Ponieważ robot nie może uratować zarówno dziewczyny, jak i Spoonera, zaczyna się interpretacja „segregacji” Pierwszego Prawa - „minimalizacja szkód netto”. Gdyby robot posłuchał Spoonera „Uratuj dziewczynę! ', robot nie minimalizowałby już szkód netto - a TO jest pogwałceniem Pierwszego Prawa. Tak więc pierwsze prawo zastępuje tutaj drugie prawo.

[uwaga dodatkowa: nie widzimy zbyt wiele tego zdarzenia, ale założę się, że robot zostałby poważnie uszkodzony, gdyby musiał dokonać wyboru. nie pokaże się, dopóki nie uratuje Spoonera (w przeciwnym razie TO naruszyłoby pierwsze prawo)]

Sedno tego pytania polega na tym, że pierwsze prawo nie mówi nic o segregacji lub minimalizacji szkód netto.Może istnieć argument przemawiający za tym, że jest to najlepsza interpretacja, ale tego nie zrobiłeś.
#9
-1
reto0110
2017-07-13 19:26:11 UTC
view on stackexchange narkive permalink

Bez względu na to, jak obliczono prawdopodobieństwo przeżycia obu ...

Robot nie zatrzymywał się, aby rozważyć kwestie dotyczące drugiego prawa, dopóki nie zakończy się blok działań odnoszący się do pierwszego, który miał ratować życie w kolejności szans na przeżycie.

Byłoby ciekawiej, gdyby Will krzyczał: mam śmiertelnego raka!

I w ten sposób zmieniłoby to informacje i szanse obu.

#10
-3
Brent Hackers
2017-07-13 17:59:44 UTC
view on stackexchange narkive permalink

Czy drugie prawo jest „złamane”?

Może właśnie w tym miejscu logika obliczeniowa i język angielski nie mieszają się?

Poniższa logika może być nieco błędna i / lub nieefektywna, ale jest interpretacją tego, jak pierwsza ' law ”może zadziałać podczas wyjaśniania zachowania danego robota.

Kiedy wywoływana jest funkcja Law1, robot analizuje stan wszystkich ludzi na jakiejś liście (być może wszystkich ludzi, o których jest świadomy); Ocenia powagę niebezpieczeństwa, w jakim się znajdują, i porównuje je; następnie jeśli jest wielu ludzi w podobnym (najwyższym stwierdzonym) stopniu zagrożenia, porównuje każdego z nich i określa, któremu z największym prawdopodobieństwem można skutecznie pomóc; Tak długo, jak przynajmniej jeden człowiek musi być chroniony przed krzywdą, prawo2 nie jest wykonywane.

  Prywatne podrzędne UpdateBehavior (ByVal people As List (Of Human), _ ByVal humanOrders As List (Of Order), ByVal pDangers As List (Of pDanger)) Dim bBusy as boolean bBusy = False Law1 (people) If Not bBusy Then Law2 (humanOrders) if Not bBusy Then Law3 (pDangers) Exit SubPrivate Function Law1 (ByVal people As List (Of Human)) As BooleanDim human as HumanDim targetHuman as Human Spróbuj Ustaw targetHuman = Nic 'zawiera pętlę ludzi Dla każdego człowieka U ludzi Jeśli human.IsInDanger () Następnie' wylicz 'niebezpieczeństwo' według z góry określonej wagi / pilności '(np. głodny > przewraca się > jest dźgnięty) 'i porównaj Jeśli targetHuman.DangerQuantification () < human.DangerQuantificationThen ()' Jeśli w porównaniu ilość niebezpieczeństw ludzi jest zauważalnie większa 'uczyń tego człowieka nowym celem Se t targetHuman = human 'Gdzie obaj ludzie są w równych ilościach niebezpieczeństwa, Inaczej Jeśli targetHuman.DangerQuantification () = human.DangerQuantification () then' CompareValueOfHumanLife () 'Can-Of-Worms CELOWO USUNIĘTE!
If rescueSuccessRate (human) > rescueSuccessRate (targetHuman) 'Celuj w człowieka tam, gdzie wskaźnik skutecznego zapobiegania szkodom jest wyższy Ustaw targetHuman = człowiek Koniec jeśli koniec, jeśli jeszcze Next human If Not targetHuman Is Nothing then Law1 = True Rescue (TargetHuman) else Law1 = False End If AvoidHarmingHumans () catch initialateSelfDestruct () end tryEnd Funkcja  

Więc robot złamał drugie prawo ? Niektórzy ludzie mogliby powiedzieć: „Robot działał wbrew prostej angielskiej definicji prawa i dlatego został złamany”. podczas gdy inni mogliby powiedzieć: „Prawa to tylko funkcje. Prawo 1 zostało wykonane. Prawo 2 nie. Robot przestrzegał swojego programu, a drugie prawo po prostu nie miało zastosowania, ponieważ pierwszeństwo miało pierwszeństwo”.

Czy chcesz rozwinąć swój kod, zamiast po prostu zrzucić fragment kodu i oczekiwać, że horda entuzjastów science fiction i fantasy zrozumie?
@Edlothiad Kod był głównie dla zabawy.Opis tego, co robi, znajduje się w czwartym akapicie.Chodzi mi głównie o to, że „prawa” niekoniecznie są tym, o czym myślisz jako prawo w większości innych kontekstów.Są bardziej jak czynniki napędzające proces podejmowania decyzji.
Przepraszam, najwyraźniej nie przejrzałem zbyt dobrze.W takim przypadku czy możesz przedstawić jakiekolwiek dowody na to, że „* porównuje każdego z tych ludzi i określa, któremu z największym prawdopodobieństwem można pomóc *”. Dlaczego jest to wyznacznik, w przypadku którego człowiek otrzymuje pomoc?
@Edlothiad OP stwierdził, że „Powodem, dla którego to robot uratował Willa, a nie dziewczynę, było to, że statystycznie rzecz biorąc, szanse na przeżycie Spoonera były wyższe niż dziewczynki”.
Nie ma powodu, by nawet rozważać ideę, że mózg pozytronu „wykonuje kod” w ten sposób.
Jako programista widzę, że ta odpowiedź byłaby rzeczywiście bardzo myląca dla nie-programistów.


To pytanie i odpowiedź zostało automatycznie przetłumaczone z języka angielskiego.Oryginalna treść jest dostępna na stackexchange, za co dziękujemy za licencję cc by-sa 3.0, w ramach której jest rozpowszechniana.
Loading...