Pytanie:
Jak drugie prawo Asimova radzi sobie ze sprzecznymi rozkazami różnych ludzi?
Teleporting Goat
2019-07-31 20:31:10 UTC
view on stackexchange narkive permalink

Drugie prawo stanowi, że:

Robot musi wykonywać polecenia wydawane mu przez ludzi, z wyjątkiem sytuacji, gdy takie rozkazy byłyby sprzeczne z pierwszym prawem.

Ale nie mówi nic o własności. Co się stanie, jeśli robot będący własnością kogoś otrzyma zamówienie od kogoś innego?

Z pewnością, jeśli ta sama osoba wyda sprzeczne zamówienia, ostatnie zostanie wykonane:

Przenieś to pudełko na górze. Zaczekaj, nie, po prostu połóż go na werandzie.

Ale co, jeśli robot niesie zakupy na zewnątrz, a ktoś powie:

Hej ty, przestań robisz i zabierasz te artykuły spożywcze do mojego mieszkania.

Nie powinno się na to godzić.

Więc ludzie po prostu powiedz „ Tylko słuchaj mnie ”, gdy kupują robota? Czy to oznacza, że ​​robot ignoruje każde zamówienie złożone przez nie-właścicieli, nawet jeśli jest to niewielka pomoc, jak pomoc starszej pani w przejściu przez ulicę? Robot musiałby rozróżniać między nieszkodliwymi rozkazami od nieznajomych a rozkazami, które powodują niefizyczne szkody (takie jak kradzież ich rzeczy, rozbicie samochodu itp.)

Jeśli gospodarstwo domowe posiada robota, powiedzą coś w rodzaju „ Słuchaj tylko mnie i mojej rodziny ”, a co jeśli rozkazy są sprzeczne między członkami rodziny?

Jak to dokładnie działa? Czy jest zarządzany przez jakąś mniej fundamentalną część sztucznej inteligencji niż te 3 zasady?

Nigdy nie czytałem Asimova, przepraszam, jeśli zostało to wyjaśnione w pierwszym rozdziale pierwszej książki. Nie widziałem, żeby nigdzie o tym dyskutowano.

Potencjalne konflikty między trzema prawami są w rzeczywistości tym, co ja, Robot, spędzam najwięcej czasu na badaniu.Gorąco polecam przeczytanie.
Możesz sprawdzić odpowiedzi w [Czy możesz powiedzieć mojemu robotowi, żeby się zabił?] (Https://scifi.stackexchange.com/q/40718/101407). Niektóre z nich wyjaśniają, że wcześniejsze zamówienie ma większy potencjał niż późniejszezamówienie.A rozkaz, który nie obejmuje powodowania cierpienia ludzi, dla których pracuje, miałby również większy potencjał niż ten, który to robi.
https://en.wikipedia.org/wiki/Little_Lost_Robot i mniej, ale https://en.wikipedia.org/wiki/Liar!_(short_story) - ale tak ... prawie, przeczytaj książkę :) -Jak mówi Harabeck, głównym celem opowieści jest ustalenie, w jaki sposób konflikty w przepisach rozwiązują się same
Proponuję rozwiązać problem poruszony w ostatnim wierszu.Warto to zrobić.
Podejrzewam, że wydawanie robotowi nakazu złamania prawa byłoby nielegalne.Robot nie ma woli w tej sprawie i nie może być pociągnięty do winy - ale osoba wydająca bezprawny rozkaz może.Jest to podobne do tego, że dzieci nie mogą zostać pociągnięte do winy, jeśli rodzice kazali im kraść.
@KlausÆ.Mogensen Tak, ale firmy produkujące roboty nadal potrzebowałyby czegoś, co zakryłoby ich tyłki;ludzie będą woleli bezpieczne roboty od niebezpiecznych robotów.Dopóki nie dojdziesz do „Nie mogę ci na to pozwolić, Dave” przynajmniej: D
Poza wszechświatem, ale prawa Asimova nie są tak naprawdę zaprojektowane do regulowania zachowania robotów, ale do generowania konfliktów podczas opowiadania historii.Są ze swej natury sprzeczne, więc generują interesującą dyskusję na temat opowieści Asimova.
@KlausÆ Mogensen wywnioskowane przez prawo Zerotha: jeśli ludzkość wspólnie wymyśliłaby prawo, to złamanie go byłoby uważane za szkodliwe dla ludzi
@KlausÆ.Mogensen To nie jest takie proste.Po pierwsze, nie zawsze łatwo jest stwierdzić, czy coś jest legalne, czy nie.To trudne nawet dla ludzi.A co ze złamaniem prawa, aby uratować człowieka?Złamanie małego prawa, aby zapobiec przestępstwu?(Jak przejechanie na czerwonym świetle i zniszczenie czyjejś własności, aby zapobiec ucieczce mordercy).Zakazanie robotowi łamania prawa to zły pomysł i trudny do wdrożenia.
Obowiązkowe xkcd: https://xkcd.com/1613/
@JaccoAmersfoort Tak, ale żeby być uczciwym, tak wiele osób przyjęło je, ponieważ „to są zasady, które tworzą bezpieczną sztuczną inteligencję”, że jest to również świetny przykład tego, jak nie-oczywisty-trudny jest problem bezpiecznej AI.A historie badają ulepszenia struktury prawa, które zawsze dodają coraz więcej niuansów i złożoności, całkowicie wbrew ludzkiej intuicji, że wystarczy powiedzieć „nie zabijaj ludzi, prawda”.Szczególnie w przypadku „praw sformułowanych w języku angielskim” dla większości ludzi nie jest oczywiste, że takie przepisy nie wystarczą.
Trochę powtarzam to, co powiedzieli inni, ale trochę uogólniam.Moim zdaniem, głównym punktem Trzech Praw Robotyki Asimova jest to, że brzmią dobrze, jeśli nie zastanowisz się nad nimi głęboko, ale w rzeczywistości są tak niejednoznaczne, że są prawie całkowicie bezużyteczne.
@TeleportingGoat „łamanie prawa, aby uratować człowieka” - FAA zezwala dowódcy statku na wykonanie wszystkiego, co uzna za konieczne w sytuacji awaryjnej.Oczywiście później nastąpi przegląd i możliwe, że działania pilota zostaną uznane za nieodpowiednie.O ile nie są zaniedbani i nie robią niczego zbyt niestosownego, nie są oskarżeni o naruszenie przepisów lub prawa, które miały miejsce.Spodziewałbym się, że działania sztucznej inteligencji lub robota ratującego ludzi w sytuacji awaryjnej byłyby traktowane podobnie (nawet jeśli sztuczna inteligencja sama nie jest uważana za osobę prawną).
Osiem odpowiedzi:
#1
+74
Seretba
2019-07-31 22:13:05 UTC
view on stackexchange narkive permalink

Weź pod uwagę, że wszystkie historie o robotach to krótkie historie lub nowele opublikowane w bardzo długim okresie czasu, więc czasami nie są one w 100% spójne między sobą, chociaż ogólne ramy są.

Jak podkreślono w komentarzach , Reakcja pozytronowych mózgów na rozkazy, sytuacje i środowisko jest ogólnie opisywana we wszechświecie jako wynik „potencjałów” indukowanych przez nie w 3 Prawach. Nie ma sztucznej inteligencji w działaniu, jaką znamy dzisiaj, aby robot decydował się na zrobienie czegoś lub nie, ale bardziej przypomina przymus w kierunku ogólnej linii działania, napędzanej priorytetami między prawami a zrozumieniem otoczenia przez robota. Aby dać ci pomysł, w jednej z historii jest dyskusja, jeśli dobrze pamiętam potencjalny scenariusz, w którym wystarczająco silny rozkaz, powtarzany w sposób ciągły z różnymi sformułowaniami i wzmocniony informacją o tym, jak negatywny byłby dla wydawcy, gdyby nie przestrzegane, mogłoby potencjalnie doprowadzić do naruszenia Pierwszego Prawa poprzez zwykłe budowanie potencjału przestrzegania Drugiego Prawa. Pomysł jest odrzucany jako niemożliwy w praktyce, ale jest dyskutowany.

Weź również pod uwagę, że istnieje we wszechświecie ewolucja dotycząca egzekwowania praw przez projekt; w pierwszych opowieściach, które mają mieć miejsce wcześniej we wszechświecie, Prawa są sztywnymi, dosłownie absolutnymi absolutami bez miejsca na interpretację. Wraz z rozwojem wszechświatowej osi czasu stają się one bardziej elastyczne i otwarte na interpretację przez robota, częściowo jako próba firmy US Robotics, aby zapobiec scenariuszom takim, jak osoba trzecia zamawiająca robota, na przykład, aby „zdobyć ten rower i rzucić nim do rzeki ”, gdy właściciel roweru nie jest obecny, aby zanegować zamówienie.

Ta elastyczność jest często przedstawiana jako ponowna interpretacja Pierwszego Prawa, gdzie „uszkodzenie człowieka” jest pierwotnie przedstawiane jako oznaczające wyłącznie fizyczne uszkodzenie i powoli obejmuje pojęcie uszkodzenia psychicznego lub cierpienia. Zgodnie z tą implementacją pierwszego prawa, złamanie go oznacza zbudowanie wystarczającego negatywnego potencjału w porównaniu z nim, zgodnie z rozumieniem ludzkiego umysłu i konwencji społecznych przez robota, co prowadzi do zabawnych skutków ubocznych (przeczytaj książki!).

Więc rower nie zostanie wyrzucony do rzeki, ponieważ robot domyśla się, że właścicielowi się to nie spodoba (potencjał ujemny w porównaniu z pierwszym prawem).

A więc, co to wszystko oznacza dla twojego pytania:

  • Wczesny robot będzie postępował zgodnie z rozkazem dosłownie, jeśli nie ma wyraźnego naruszenia pierwszego prawa lub naruszenie silniejszego poprzedniego zamówienia. Sposobem ochrony robota przed nadużyciami byłoby wydanie drugiego rozkazu w zdecydowany sposób, aby nie wykonywać kontr-rozkazów. Spowoduje to wygenerowanie dwóch pozytywnych potencjałów, których pojedyncza kontr-rozkaz będzie trudna do uchylenia.
  • Późniejszy robot będzie miał tendencję do bycia bardziej świadomym negatywnego psychologicznego wpływu wykonywania rozkazu lub podejmowania działań, co prowadzi do zabawnej strony -efekty (serio, przeczytaj książki!).
  • Każdy robot z dowolnego okresu, w sytuacji, w której sprzeczne linie działania będą miały ten sam potencjał na wszystkich prawach lub nieuchronnie złamie pierwsze prawo (później interpretowane jako wiodące to negatywny wystarczająco wysoki potencjał w porównaniu z nim, niekoniecznie oznaczający fizyczne uszkodzenie), wejdzie w pętlę w poszukiwaniu niemożliwego rozwiązania i zostanie zablokowany.
Twoja jest najlepszą odpowiedzią.Należy przypomnieć, że te trzy prawa nie są jedynymi programami w robocie, a odpowiedź na OP zależałaby od okresu i modelu robota.
Rozwój w czasie jest kluczową częścią odpowiedzi na to pytanie.Do czasów powieści istniały pokolenia rozwoju pozytywronicznego mózgu do tego stopnia, że robot kosmiczny (który byłby wtedy właściwie jedynymi robotami) nie miałby konfliktu Prawa 2 ignorującego rozkaz od człowieka z Ziemi, ponieważnie postrzegają ich jako w pełni ludzkich.
@Echox Ponadto, o czym często się zapomina, te trzy prawa nie są w rzeczywistości zapisanymi prawami, które wszyscy pamiętają - są bardzo złożonymi programami własnymi, przeplatającymi się w całym mózgu.Sformułowanie to tylko uproszczenie z korzyścią dla ludzi.Jest to badane wiele razy, gdy muszą tworzyć wyspecjalizowane roboty, które ignorują niektóre prawa.Co naprawdę ładnie wynika, ponieważ aby zinterpretować rozsądnie poprawnie sformułowane przez ludzi trzy prawa, musisz przyjąć te same założenia, co rozsądny człowiek.
Warto zauważyć, że prawa, zgodnie z autorskim projektem, nie są doskonałe, ponieważ były impulsem do * opowieści *. Prawa były * konfliktem *, a nie * rozwiązaniem. *
Możliwe jest, że podczas aktywacji można nakazać robotowi, aby nie stał się narzędziem przestępstwa.Uniemożliwiłoby to wykonanie rozkazu, który doprowadziłby do kradzieży / wandalizmu.Oczywiście byłyby inne być może niepożądane skutki uboczne, które byłyby interesującym materiałem do dalszych historii.
Świetna odpowiedź, jedna rzecz to missong IMHO, że bierze się pod uwagę istnienie poprzedniego porządku (było to przedmiotem różnych opowieści o tym, czy nowy porządek miałby priorytet, czy nie, ponieważ pierwsze prawo wchodzi w grę)
#2
+35
usul
2019-08-01 07:25:44 UTC
view on stackexchange narkive permalink

W niektórych opowieściach roboty rozróżniają ważność zamówienia na podstawie stopnia pilności / ważności w języku oraz kto wydał polecenie .

Myślę o Little Lost Robot, o którym wspomniało NKCampbell w komentarzu. Założenie jest takie, że przełożony bardzo się złości na robota i każe mu „Zgubić się!”. używanie niezwykle mocnego i kolorowego języka; robot reaguje ukrywając się wśród innych identycznie wyglądających modeli. Wyjaśnia się, że zwykłe rozkazanie robotowi, aby się ujawnił, nie zadziała, ponieważ nie przeciwdziałaby bezpośredniemu rozkazowi zgubienia się wydanemu w najsilniejszym możliwym języku przez „osobę najbardziej upoważnioną do tego, by nim dowodzić”

„Są?” Calvin wziął ogień. "Oni są? Czy zdajesz sobie sprawę, że jeden z nich kłamie? Jeden z sześćdziesięciu trzech robotów, z którymi rozmawiałem, celowo mnie okłamał, po najsurowszym nakazie mówienia prawdy. Wskazana nieprawidłowość jest strasznie głęboko zakorzeniona i strasznie przerażająca ”.

Peter Bogert poczuł, jak twardnieją mu zęby. Powiedział: „Wcale nie. Popatrz! Nestor 10 otrzymał rozkaz, by się zgubić. Rozkazy te zostały wydane w trybie pilnym przez osobę najlepiej upoważnioną do wydawania mu poleceń. Nie możesz przeciwdziałać temu rozkazowi ani pilnością, ani nadrzędnym prawem dowodzenia. Oczywiście robot będzie próbował bronić wykonywania swoich rozkazów.

Wydaje mi się również, że w innym miejscu przypominam sobie komentarz, że ekspert w dziedzinie robotyki lepiej wiedziałby, jak sformułować rozkaz, aby był tak silny, jak to możliwe i prawdopodobnie przezwyciężył polecenie wydane przez zwykłą osobę .

Ogólnie rzecz biorąc, interpretacja, w jaki sposób prawa odnoszą się do określonej sytuacji, jest w dużej mierze częścią wyzwania we wszechświecie. Proste modele są narażone na spalenie mózgu, jeśli staną przed trudnym dylematem związanym ze sprzecznymi prawami, nakazami lub sytuacjami. Więc nie powinno być łatwej odpowiedzi na pytania, które zadajesz, ale są pewne rozsądne zasady, których należy przestrzegać.

W Little Lost Robot był trzeci element, że robot miał kompleks wyższości, który dodatkowo wzmacniał jego chęć skutecznego ukrycia się przed próbami znalezienia go przez ludzi.Ale to był znacznie mniej istotny czynnik niż autorytet czy pilność.
#3
+25
Mark Olson
2019-07-31 21:03:20 UTC
view on stackexchange narkive permalink

O ile dobrze pamiętam, nie.

Ważne jest, aby pamiętać, że Asimov pisał historie o robotach dla Niesamowite , a jego czytelnicy lubili logiczne łamigłówki, niespodzianka konsekwencje i sprytne sztuczki - z których żadna nie byłaby obecna w prostej historii dwóch różnych osób, które każą robotowi zrobić dwie różne rzeczy.

Najbliżej przypominam sobie: „ Robot AL-76 Goes Astray ”, gdzie robot zbudowany do użytku na Księżycu z jakiegoś powodu gubi się w lesie. Wymyśla narzędzie dezintegracji, powoduje spustoszenie i ktoś każe mu pozbyć się dezintegratora i zapomnieć o budowaniu więcej. Kiedy robot zostaje w końcu znaleziony, właściciele chcą wiedzieć, jak zbudował dezintegrator, ale nic na to nie poradzi - zapomniał o wszystkim.

To nie był przypadek sprzecznych zamówień, ale był to zamówienie przez osobę nieuprawnioną.

Ponieważ kolejność reguł jest tak znacząca, być może kolejność instrukcji też ma znaczenie.
@marcellothearcane: Może, ale w przypadku wspomnianym w tej odpowiedzi zwróć uwagę, że pierwsze zamówienie nie miało pierwszeństwa przed późniejszymi.Zamiast tego należało podjąć działanie („zapomnij” = usuń / wymaż pamięć), które uniemożliwiły realizację późniejszych zamówień.Chociaż przypuszczalnie biorąc pod uwagę ten sam czas i okoliczności, może na nowo wymyślić narzędzie dezintegracji z tego samego punktu wyjścia, chyba że ład „zapomnij o budowaniu więcej” nadal obowiązuje i nie jest dosłownie „zapomnij”, ale „nigdy nie buduj więcej”.
#4
+23
DaaaahWhoosh
2019-07-31 22:10:14 UTC
view on stackexchange narkive permalink

Był przypadek w opowiadaniu „ Runaround”, w którym robot miał dwa sprzeczne cele. W tym przypadku było to spowodowane tym, że został zbudowany na podstawie bardzo silnego trzeciego prawa, więc nie mógł zdecydować między wypełnianiem ludzkich rozkazów a samoobroną.

Zasadniczo stara się spełnić oba warunki, biegając odległość od jego niebezpiecznego celu, a poza tym zachowuje się chaotycznie i pijany.

Wydaje mi się, że podobnie stanie się w przypadku dwóch sprzecznych zamówień. Robot zrobiłby wszystko, co w jego mocy, aby zadowolić oba, ale mógłby utknąć, gdyby było to niemożliwe.

W powyższej historii impas zostaje rozwiązany, gdy ludzcy operatorzy narażają się na niebezpieczeństwo, odwołując się w ten sposób do pierwszego prawa . Myślę, że w większości przypadków popełnienie przestępstwa byłoby uważane za drobne naruszenie Pierwszego Prawa, więc wystarczająco inteligentne roboty będą próbowały tego uniknąć. Ale jak wspomniał Zeiss, tak naprawdę zależałoby to od modelu robota.

Nie było to mocne trzecie prawo, ale słaby porządek.Robot nie wiedział, że polecenie, które otrzymał, było kluczowe dla dalszego przetrwania ludzi na dłuższą metę.Został wydany jako „och, przy okazji, kończy nam się phlebotinum, czy możesz dostać więcej?”.zamiast: „Potrzebujemy uzupełnienia, zdobądź trochę”.
@Draco18s To było jedno i drugie;był to drogi robot, więc trzecie prawo było silniejsze.
#5
+15
Zeiss Ikon
2019-07-31 21:20:05 UTC
view on stackexchange narkive permalink

Odpowiedź na to pytanie zależy w dużej mierze od poziomu zaawansowania robota. Historie o robotach (większość z nich to opowiadania, ale wiele z nich było powieściowych) obejmowało wewnętrzny okres wieków - mimo że rdzeń opowieści dotyczył Susan Calvin od jej ukończenia studiów do późnej starości.

Na początku roboty nie były wystarczająco „sprytne”, aby odróżnić rozsądne rozkazy od bezsensownych. Później osiągnęli taki poziom wyrafinowania, że ​​mogliby dyskutować między sobą dokładnie co stanowi człowieka - i dojść do wniosku, że oni są bardziej kwalifikowani do tego przydomka niż którykolwiek z tych biologicznych podmioty. Gdzieś pomiędzy, Drugie Prawo rozwinęło się do pewnego poziomu kwalifikacji w stosunku do zleceniodawcy (polecenia od małych dzieci i znanych osób niekompetentnych można było zignorować). To właśnie z tej ostatniej zdolności roboty ostatecznie zdecydowały, że obawy o krzywdę ludzi (i ludzkości) przeważają nad wszystkimi ich rozkazami - ludzie muszą być chronieni przed sobą do tego stopnia, że ​​wszyscy zostali uznani za niekompetentnych. wydawać polecenia robotowi.

Nie zapomnij o opowieściach Elijaha Baleya (cztery powieści i jedno opowiadanie), które zawierały również roboty i jeszcze bardziej zgłębiały Trzy Prawa.
@gidds Prawda, tak - ale nie czytałem ich z wyjątkiem pierwszego i nie były częścią oryginalnej, nadrzędnej sagi o robotach.Wszystkie oprócz * The Caves of Steel * zostały opublikowane długo po „ostatniej historii o robotach”.
Tylko jeśli ograniczysz „historie o robotach” do tych, które znasz.Powieści Elijaha Baleya zostały opublikowane w 1954, 1957, 1983 i 1985;inne historie o robotach to „… That Thou Art Mindful Of Him” w 1974 r., „The Bicentennial Man” w 1976 r., „Robot Dreams” w 1986 r., „Cal” i „Kid Brother” oraz „Robot Visions” w 1990 r.
#6
+9
Ubik
2019-08-01 21:43:56 UTC
view on stackexchange narkive permalink

W skrajnym przypadku sprzeczne zamówienia mogą doprowadzić do trwałego wyłączenia robota. Zajęto się tym w Robots and Empire , gdzie robot R. Ernett Second miał surowy rozkaz, by nie mówić nic o swoim panu. Kiedy i tak zostanie mu to zmuszone, jego mózg zamarza nieodwracalnie.

„Czy odpowiesz na moje pytania i przyjmiesz moje rozkazy, Ernett?”
„Zrobię to, proszę pani, jeśli oni nie są przeciwdziałane przez konkurencyjny porządek. ”
„ Jeśli zapytam cię o lokalizację twojej bazy na tej planecie, jaką jej część zaliczasz do zakładu twojego pana - odpowiesz na to? ”
„ Mogę tego nie zrobić więc proszę pani. Żadnych innych pytań dotyczących mojego pana. Jakieś pytanie. ”
„ Czy rozumiesz, że jeśli nie odpowiesz, będę gorzko rozczarowany, a moje słuszne oczekiwania co do obsługi robotów zostaną trwale stępione? ”
„ Rozumiem, proszę pani ”- powiedział robota słabo. [...]
Gladia powiedziała głosem, który brzmiał z autorytetem: „Nie wyrządzaj mi krzywdy, Ernett, odmawiając mi podania lokalizacji twojej bazy na tej planecie. Rozkazuję, żebyś mi powiedział.
Robot jakby zesztywniał. Otworzył usta, ale nie wydał żadnego dźwięku. Otworzyły się ponownie i wyszeptał ochrypłym głosem: „… mila…” Otworzyły się po raz trzeci cicho - a potem, gdy usta pozostały otwarte, z oczu zabójcy-robota wyszedł blask i stały się płaskie i woskowane. Jedna ręka, która była nieco uniesiona, opadła w dół.
Daneel powiedział: „Mózg pozytonowy zamarzł”.

#7
+3
Stephen Collings
2019-08-02 09:33:28 UTC
view on stackexchange narkive permalink

Robot miałby tylko dwie rzeczywiste opcje.

Może działać nieprawidłowo. Na przykład, gdzie robot zachowywał się pijany. Albo może całkowicie się wyłączyć.

Lub może nadać priorytet jednemu zamówieniu nad innym. Kluczowe jest to, że schemat priorytetowy nie jest podyktowany przez same prawa. Oznacza to, że są elastyczne w zakresie projektu konkretnego robota i jego przeznaczenia. Priorytetyzuj według czasu, rangi, własności, bardziej złożonych schematów obejmujących szerokie zrozumienie sytuacji ...

Zasadniczo jest to obejście drugiego prawa poprzez zabawę z definicją „porządku”. „To polecenie, które otrzymałem, nie jest tak naprawdę rozkazem, ponieważ wydał je przestępca”. Ale jeśli z prawami można grać w ten sposób, można też na nie grać, definiując „człowieka” w bardzo wąski sposób, tak jak zrobili to Solarianie.

I nagle prawa mogą równie dobrze nie istnieć.

Istnieje fundamentalny konflikt między samymi koncepcjami absolutnej reguły zachowania a inteligentnym aktorem.

#8
  0
Goufalite
2019-08-02 17:45:54 UTC
view on stackexchange narkive permalink

W rzeczywistości istnieje cała historia Asimova na temat tego problemu: Roboty świtu

Odpowiedź jest prosta: blokada psychiczna , a następnie „ śmierć ”robota.

Zdarzają się dwie sytuacje:

  • najpierw robot ma rozkaz znaleźć Elijaha Baleya i gdzieś go poprowadzić, ale Baley ( człowiek) odmawia. Ta czynność sprawia, że ​​robot „robi błąd”, a Baley stosuje się do pierwotnego rozkazu, aby nie uszkodzić robota, co może być kosztowne. Jest to oczywiście sytuacja ekspozycyjna dla głównego wątku fabuły

  • i głównego wątku: Jander jest humanoidalnym robotem, który miał blokadę psychiczną, Elijah musi zbadać, dlaczego, ale ogólna hipoteza to sprzeczne porządki ...



To pytanie i odpowiedź zostało automatycznie przetłumaczone z języka angielskiego.Oryginalna treść jest dostępna na stackexchange, za co dziękujemy za licencję cc by-sa 4.0, w ramach której jest rozpowszechniana.
Loading...