Pytanie:
Co powstrzymuje roboty Asimova przed zamykaniem wszystkich ludzi w wyściełanych celach w celu ochrony ludzi?
budgiebeaks
2018-11-15 19:33:44 UTC
view on stackexchange narkive permalink
  1. Robot nie może zranić człowieka ani przez bezczynność pozwolić człowiekowi na wyrządzenie krzywdy.

Ponieważ roboty Asimova są Już pokazano, że nie posiadają „ludzkiego zdrowego rozsądku”, gdy stosują prawa do swoich działań, prawo 1 prawie zmusza roboty do zamykania ludzi w pojemnikach przypominających matrycę lub prawdopodobnie umieszczania ich w kriostazie. Jeśli tego nie zrobią, pozwalają ludziom stać się krzywdzącymi w przyszłości (człowiek przypadkowo gryzie się w język / uderza w palec u nogi / zachoruje na raka / cokolwiek) przez bezczynność. Ludzkie argumenty przeciwne należy ignorować jako sprzeczne z prawem 1.

Gdzie się mylę? Czy prawa nie są tym, co właściwie kieruje robotami, zamiast tego jest czymś uproszczonym w broszurze z instrukcją obsługi robota, czy czymś podobnym?

coś w rodzaju założenia filmu „Ja, robot” z Willem Smithem
Pamiętaj też, że te trzy reguły nie są kompletne (chwilowo zignoruj istnienie zerowej zasady), są one narzędziem fabularnym.Gdyby te trzy zasady rzeczywiście * działały *, nie byłoby żadnych historii.Poza tym film @NKCampbell to bzdura, a prezentacja zerowego prawa jest okropna.Jeśli faktycznie przyjrzysz się wydarzeniom, zobaczysz, że roboty ranią ludzi „ponieważ… ee… WYBUCHY” nie poprzez uzasadnione użycie zerowego prawa.Jeśli wrócisz i przeczytasz ... Myślę, że to były roboty i imperium, zerowe prawo * zabiło robota, który próbował na nim działać. * Jego wiara pozwoliła mu działać i spowolnić jego zamknięcie, ale nadal umarł.
Jest to aktywny obszar badań w 2018 roku, teraz, gdy roboty stają się coraz bardziej inteligentne i nie jest to proste.* 3 zasady tworzenia bezpieczniejszej sztucznej inteligencji |Stuart Russell * https://youtu.be/EBK-a94IFHY
* Czy prawa nie są tym, co właściwie kieruje robotami, zamiast tego jest czymś uproszczonym w broszurze z instrukcją obsługi robota, czy czymś podobnym? * - Tak, dokładnie tak.Mówi to chyba gdzieś w jednej z historii.
Nie będę promować tego jako odpowiedzi, ponieważ nie mogę podać referencji, ale jest wczesne opowiadanie, w którym jedna z wielu różnych reprezentacji Multivaca kieruje całą światową gospodarką i innymi decyzjami rządu.Zaczyna podejmować nieoptymalne decyzje, aby powstrzymać ludzi przed poleganiem na nim, ponieważ zdaje sobie sprawę, że poleganie osłabia rasę ludzką.
Komentarze nie służą do rozszerzonej dyskusji;ta rozmowa została [przeniesiona do czatu] (https://chat.stackexchange.com/rooms/85845/discussion-on-question-by-budgiebeaks-what-prevents-asimovs-robots-from-locking).
A jeśli dojdziemy do logicznego wniosku, pierwsze prawo prawie zawsze przeważałoby nad drugim: tak długo, jak robot może znaleźć coś, co opłaca się więcej niż ich bieżące zadanie, powinien zignorować ich rozkazy, zrobić inną rzecz, a następnieprzekazuj zarobione pieniądze na cele charytatywne.
[Obowiązkowy XKCD] (http://xkcd.com/1613/)
Masz na myśli to, że poza faktem, że tego nie zrobią?Nawet w filmie Ja, Robot, efekt końcowy jest gwarantowany ludzkości.Walczyli samotnie o Chicago, a jeśli bohaterowie tam zginęli, efektem końcowym byłoby użycie ICBM na Chicago.
@Alchymist Może odnosisz się do ostatniej historii w „Ja, Robot”?(https://en.wikipedia.org/wiki/The_Evitable_Conflict)
@Joshua, Nie jestem pewien, czy gwarantowana porażka powstrzyma ich przed podjęciem próby.* Little Lost Robot * pokazał, że roboty * były * zdolne do tego rodzaju rozumowania, ale nie było to dla nich naturalne.(Cóż, w tamtych czasach.)
W galaktyce były miliardy miliardów ludzi i zaledwie kilka tysięcy robotów.Te roboty zajęłoby dużo czasu, aby zamknąć każdego człowieka w prywatnej wyściełanej celi.Nie wspominając o czasie potrzebnym na zbudowanie wyściełanych komórek.A to, że zamykanie ludzi wbrew ich przyzwoleniu jest uważane za krzywdę.
@0112 To wygląda dobrze.Dzięki.Teraz muszę wrócić i ponownie przeczytać te książki.
Jedenaście odpowiedzi:
PMar
2018-11-15 20:03:19 UTC
view on stackexchange narkive permalink

Roboty w pracach Asimova na ogół nie mają „umysłowego” wyrafinowania potrzebnego do szukania abstrakcyjnej szkody w sposób, który sugerujesz. Dla nich klauzula „bezczynności” musi oznaczać, że robot nie może dopuścić do nieuchronnej szkody - tj. Muszą działać, aby zapobiec krzywdzie, gdy widzą, że szkoda ma się wydarzyć . Takie zdarzenia na ogół nie występują, gdy ludzie zajmują się swoim codziennym życiem, więc w większości roboty pozwalają ludziom kontynuować (oczywiście obsługując ich).

Zanim roboty staną się na tyle wyrafinowane, by przewidywać potencjalną szkodę w sposób, który sugerujesz, stali się również na tyle wyrafinowani, aby zrozumieć, że ograniczenia, które sugerujesz, stanowią rodzaj szkody, więc klauzula „działania” w tym miejscu przeciwdziałaby klauzuli „bezczynności” [tutaj klauzula „działanie” być silniejszym, ponieważ wymaga działań, które należy podjąć, w przeciwieństwie do zaledwie możliwych szkód, które nie muszą wystąpić]. Zrozumieliby również, że takie rzeczy, jak ugryzienie własnego języka są z natury nieuniknione, więc nie próbowaliby zapobiegać takiej krzywdzie (chociaż oczywiście „bolałoby” ich to, kiedy to się faktycznie dzieje). Kiedy docieramy do Daneela i jego robotów „Zeroth Law”, oni dodatkowo rozumieją, że powstrzymywanie wszystkich indywidualnych istot ludzkich stanowi krzywdę ludzkości ; to, nawiasem mówiąc, jest powodem, dla którego roboty ostatecznie znikają - zdają sobie sprawę, że poleganie na nich ludzkości jest samo w sobie szkodliwe, więc najlepsze, co mogą zrobić, to pozwolić ludzkości zarządzać własnym losem [przynajmniej jawnie].

Minęło trochę czasu, odkąd go przeczytałem, ale na końcu ja, Robocie, ludzie nie zdają sobie sprawy z tego, że komputery / roboty kontrolujące świat wprawiają w ruch plan przywrócenia ludzkości z powrotem do prymitywnej technologii w celu ochronyje od siebie?
Głosowałem za.Myślę również, że tę odpowiedź można by poprawić, odwołując się do artykułu [Galley Slave] (https://archive.org/details/galaxymagazine-1957-12/page/n9).Dr Calvin stwierdza w nim, że robot Easy nie jest w stanie abstrakcyjnie rozumować konsekwencji pomysłów opublikowanych w podręczniku.Z pewnością jest to tylko jeden robot, ale jest to wyraźny przykład czegoś, co sugerują tylko historie innych robotów robotów w USA.
@BlackThorn - poprawne, ponieważ maszyny zasadniczo i ukradkiem przejęły świat w celu ochrony ludzkości
@PMar's znakomita odpowiedź odnosi się do R. Daneela Olivawa i „Prawa Zerotha”;Sugerowałbym, że odkrycie przez Daneela `` Prawa Zeroth '' było odpowiedzią na jego uświadomienie sobie, poprzez powieści * Roboty Świtu * oraz * Roboty i Imperium *, że istnieje niebezpieczeństwo, że nadmierne poleganie na robotachw przenośni oznaczałoby, że ludzkość byłaby trzymana w wyściełanych pokojach.
@bgvaughan Drobny chwytak - Giskard odkrył Prawo Zerotha.Nie mógł zintegrować go ze swoim własnym umysłem i umarł, ale zintegrował go z Danielem przed śmiercią.Giskardowi udało się powstrzymać antagonistę pomimo rozkazów, jest w rzeczywistości sednem kulminacji książki.
Graham ma rację, a mój komentarz z [półtora roku temu] (https://worldbuilding.stackexchange.com/questions/81016/why-dont-future-civilizations-develop-their-ai-to-integrate-with-biology-so-t / 81040 # comment236161_81040) na World Building dość dobrze podsumowuje wydarzenia.
@BlackThorn: Dobrze, ale to dowodzi, że inne niż „centralny rdzeń”, pojedyncze roboty nie były w stanie planować rzeczy na taką skalę.VIKI (nazwa z filmu - nie znam tytułu książki, jeśli taka istnieje) skutecznie idzie dalej niż jakakolwiek sztuczna inteligencja przed nią, prawdopodobnie dlatego, że ma dostęp do większej ilości danych i mocy obliczeniowej niż jakakolwiek sztuczna inteligencja przed nią.
@Flater, film nie jest oparty na opowieściach Asimova.
@BlackThorn, nie * prymitywna * technologia, nie.Po prostu mniej polegania na robotach, a zwłaszcza na maszynach.
@HarryJohnston: Założenie fabuły „złoczyńca” pozostaje jednak takie samo: AI była w stanie myśleć na większą skalę i tym samym podjęła ogólną decyzję.Niezależnie od tego, czy jest to scentralizowany serwer, czy blockchain robota, czy po prostu posiadanie wystarczającej ilości czasu na wykonanie obliczeń, nie ma znaczenia.
@Flater pozostaje taki sam jak co?„Ja, Robot” to zbiór opowiadań osadzonych w tym samym wszechświecie, z bardzo cienkim tekstem łączącym, a fabuła filmu nie przypomina żadnego z nich i nie ma wyraźnego miejsca w ich uniwersum.Kilka elementów i imion postaci zostało włączonych do scenariusza, który nie miał nic wspólnego z Asimovem, głównie w celach marketingowych.Film nie powinien służyć jako punkt odniesienia do niczego innego niż jego własny wszechświat lub kariera Willa Smitha.
@Flater, w bardzo szerokim ujęciu, tak sądzę.Ale skoro Maszyny Asimova zostały uznane za dobroczynne, a VIKI zdecydowanie wrogie, musiałyby być * bardzo * szerokimi pojęciami.:-)
@HarryJohnston Po usunięciu warstw „film dla jednostki” (złe roboty z czerwonymi światłami, klasyczny wątek złoczyńcy), nawet VIKI uważała się za przestrzegającą zasad i pomagającą ludzkości.Żaden z robotów (oprócz Sonny'ego) w rzeczywistości nie uważa się za dobry lub zły, wszystkie przestrzegały zasad.
@Flater, VIKI może * myślał *, że pomaga ludzkości, ale Maszyny naprawdę * pomagały * ludzkości.Przypuszczam, że jest to subiektywne, ale wydaje mi się, że jest to niesamowita zmiana w fabule.
Jest też historia z serii * Ja, Robot *, w której robot stara się również zapobiec krzywdzie psychicznej (kłamie, że ktoś jest zakochany w człowieku)
tbrookside
2018-11-16 18:19:48 UTC
view on stackexchange narkive permalink

Ponieważ „połączenie” wszechświata Robotów i wszechświata Fundacji ujawnia, że ​​ roboty manipulowały i dominowały w historii ludzkości przez tysiące lat, w bardzo realnym sensie galaktyka jest ich wyściełanym pomieszczeniem i większość Prace Asimova w tym „zjednoczonym wszechświecie” odbywają się w wyściełanym pokoju.

Po prostu nie widzimy ścian.

To jest poprawna odpowiedź.W opowieściach o Asimovie pogląd jest taki, że nie jest dobrze wiedzieć, że jesteśmy kontrolowani, ponieważ potrzebujemy poczucia wolnej woli, więc super inteligentne roboty działają w cieniu.
Należy pamiętać, że część tej przyszłej historii nie jest oryginalnym Asimovem, została napisana po jego śmierci.
@HarryJohnston Tak chcą, żebyś myślał.
@David To brzmi jak wszechświat Fundacji SCP, a nie wszechświat Fundacji Asimova.Chyba że ... sapać!Wszystko pasuje!
Nie tylko ta odpowiedź, ale fakt, że w galaktyce były kwadryliony ludzi i może kilka tysięcy robotów.Jak mała liczba robotów mogłaby zamknąć wszystkich tych ludzi?
@RichS: Będąc bardzo, bardzo dobrym w manipulacji.Zasadniczo zmusili ludzi do zbudowania własnych ścian, a następnie zmusili ich do naprawy ścian, jednocześnie przekonując ich, że ściany były w rzeczywistości tylko przypływem i odpływem historii.
Lorendiac
2018-11-15 19:53:20 UTC
view on stackexchange narkive permalink

Rozumiem to, że typowy robot Trzech Praw zinterpretował pierwsze prawo jako „Ani też, przez bezczynność, nie pozwól, aby istota ludzka stała się krzywda tu i teraz , gdy robot jest w środku go zobaczyć i powiedzieć, co oczywiście się wydarzy, jeśli robot nie będzie przeszkadzał ”. Różni się to od zamykania człowieka dzisiaj tylko dlatego, że teoretycznie jest możliwe, że może on doznać jakiegoś przypadkowego urazu, infekcji lub innego nieszczęścia jutro. (Lub w niektórych znacznie później data.)

Inaczej mówiąc: Prawie, jak pamiętam, przy tych okazjach, kiedy widzieliśmy robota odmawiającego wykonania rozkazu odejścia i pozostawienia człowieka samemu robić to, co obecnie robił, oznaczało to zwykle, że Drugie Prawo było podporządkowane Pierwszemu Prawu z powodu postrzegania przez robota bezpośredniego zagrożenia kruchego ludzkiego ciała. Ale jeśli takie bezpośrednie niebezpieczeństwo nie istniało, to Drugie Prawo wymagało , by robot odwrócił się i odszedł, kiedy otrzyma polecenie. Solidny fakt „Drugiego Prawa stosuje się do tego porządku, który teraz otrzymuję” przesłonił wszystko, co tak abstrakcyjne, jak: „Ale jeśli odejdę dzisiaj, problem Pierwszego Prawa obejmujący fizyczną krzywdę może pojawić się jutro. albo pojutrze… albo w późniejszym terminie… kto wie? ”

Więc gdyby jakiś robot próbował zamknąć wszystkich dla własnego dobra, można by przywołać Drugie Prawo, nakazując robotowi zapomnieć o całym głupim pomyśle.

[„Mały zagubiony robot”] (https://en.wikipedia.org/wiki/Little_Lost_Robot) wiązał się z wysoce spekulacyjną szkodą („możesz przypadkowo zostać tu zbyt długo”), nadrzędną wobec Drugiego Prawa.
@Kevin Pamiętam tę historię - zaginiony robot miał tylko * pierwszą część * pierwszego prawa w swoim pozytonowym mózgu - ale nie pamiętam dokładnie fragmentu, o którym krótko wspomniałeś.Możesz być bardziej dokładny?(Pamiętam sposób, w jaki przekonuje wiele innych robotów, że pierwsze prawo nie wymaga od nich popełnienia samobójstwa w * daremnym wysiłku * w celu ochrony życia człowieka, któremu wydaje się, że grozi spadający ciężar.argument robota - samozniszczenie oznaczałoby po prostu, że inne roboty łamałyby trzecie prawo, nie narzucając przy tym Pierwszego).
Pierwotnym celem robotów była praca obok ludzi na obszarze narażonym na promieniowanie o niskim poziomie, które może zaszkodzić ludziom po długotrwałej ekspozycji, ale prawie natychmiast zniszczyło roboty.Gdyby roboty mogły zaufać ludziom, że sami o siebie zadbają, nie byłoby potrzeby modyfikowania Pierwszego Prawa.
@Kevin Ah.Nie pamiętałem dokładnego uzasadnienia, dlaczego kilka robotów zostało zbudowanych w ten sposób.Teraz odświeżyłem pamięć o pierwszej części historii.Wygląda na to, że zwykłe roboty Pierwszego Prawa * tylko * spanikowały wtedy, gdy promienie gamma celowo były generowane w pobliżu ludzkiego ciała.Zagrożenie „tu i teraz”, jak powiedziałem w mojej odpowiedzi.Wygląda na to, że te roboty nie zrobiły nic z tak abstrakcyjnymi możliwościami, jak „kiedy wyjdę z pokoju, jakiś głupi człowiek * może zacząć * generować promienie gamma za pomocą tego sprzętu, a to * może * stopniowo zaszkodzić jego zdrowiu”.
Myślę, że CASA może być obsługiwana przez roboty.Uważają, że najlepszym sposobem zapobiegania szkodom lotniczym jest zapobieganie przedostawaniu się ludzi do ziemi.Nie jestem wredny, zaraz wyszli i tak powiedzieli.
Gdzieś jest napisane, że pisemna wersja Praw była tylko przybliżeniem, rzeczywiste Prawa miały charakter matematyczny i były wbudowane w strukturę mózgu pozytonowego.Tak więc nie jest to * całkiem * kwestia tego, „jak roboty interpretują pierwsze prawo”, ale wydaje mi się wystarczająco bliskie.
mcalex
2018-11-16 14:40:19 UTC
view on stackexchange narkive permalink

Prawo Zeroth.

Robot nie może skrzywdzić ludzkości lub przez bezczynność pozwolić ludzkości wyrządzić krzywdę

Jeśli wszyscy ludzie zamknięci w wyściełanych celach nie ma miejsca na prokreację. Ergo, rasa ludzka wymiera.

W przeciwieństwie do niektórych innych odpowiedzi uważam, że myślenie robotów jest wystarczająco wyrafinowane, aby poradzić sobie z przyszłymi krzywdami, ale nie po to, by poradzić sobie z hipotetyczną krzywdą. Człowiek może ugryźć się w język, uderzyć się w palec u nogi, cokolwiek, ale nie jest to definitywna krzywda, więc nie wymaga działań, aby temu zapobiec.

Nie zapominaj o tym - na uświadomienie sobie, że rasa (nie może) ulec stagnacji po początkowej kolonizacji Układu Słonecznego i późniejszej polityce - zbombardowali planetę (lub pozwolili jej zbombardować).

Wyrafinowanie myślenia robotów zależy w dużej mierze od tego, czy mówisz o bardzo wczesnych robotach, takich jak Robbie, nieco bardziej zaawansowanych, takich jak Nestory, czy o znacznie bardziej zaawansowanych (tysiące lat później!) Giskard i Daneel.I oczywiście istnieją różnice nawet w tym samym okresie, w zależności od celu, do którego robot jest przeznaczony.Prawo Zerotha działa tylko na dalekim górnym końcu tego spektrum.
Brythan
2018-11-18 05:54:12 UTC
view on stackexchange narkive permalink

Gdzie się mylę? Czy prawa nie są tym, co właściwie kieruje robotami, zamiast tego jest czymś uproszczonym dla broszury z instrukcją obsługi robota, czy czymś podobnym?

Jeśli czytasz ja, robot , historie dotyczą ogólnie czasów, w których występuje konflikt w interpretacji tych trzech praw. Najczęściej ludzie myślą, że interpretacje robotów są błędne.

Te trzy prawa są opisowym podsumowaniem budowy mózgów robotów we wszechświecie Asimova. W rzeczywistości są one znacznie bardziej złożone. Roboty muszą rozważać jedną możliwość przeciwko drugiej. Czasami wybierają najlepszy wynik. Czasami nie.

Zamierzam zacytować linki. Jeśli podążasz za linkiem, zepsuje ci to historię, gdy ujawnię kulminacyjny punkt fabuły. Jeśli nie skorzystasz z linku, możesz później przeczytać historię bez natychmiastowego jej rozpoznania, gdy przeskakuję do końca. A jeśli masz wystarczająco dobrą pamięć, może będziesz pamiętać. Więc czytaj dalej i podążaj za zepsutymi linkami na własne ryzyko.

Na przykład w jednym opowiadaniu ( zepsutym) robot miał do czynienia z sytuacją, w której wykonanie polecenia (prawo 2) spowodowałoby jego zniszczenie (prawo 3) i śmierć ludzi (prawo 1). Więc robot utknął. Udałby się na skraj niebezpiecznej strefy, po czym zdał sobie sprawę, że zostanie zniszczony, zanim będzie mógł ukończyć swoją misję, która skazałaby ludzi na zagładę. Następnie wycofałby się, zanim zdał sobie sprawę, że musi pójść w innym kierunku, aby zakończyć swoją misję i uratować ludzi. Powtarzał się tam iz powrotem, ponieważ nie mógł wymyślić, jak zakończyć swoją misję. Gdy ludzie zorientowali się w problemie, zrewidowali instrukcje.

W kilku historiach roboty oszalały, ponieważ nie mogły wymyślić, jak uratować ludzi przed śmiercią.

Na jednym ( zepsutym) robot wręczył wściekłemu człowiekowi ramię, którym człowiek następnie pobił innego człowieka na śmierć. Robot przestał działać, ponieważ uświadomił sobie, że przyczynił się do śmierci człowieka.

GHolmes
2018-11-16 00:40:24 UTC
view on stackexchange narkive permalink

Ponieważ nie określasz, że prosisz o powód „we wszechświecie” ... Myślę, że ważne jest, aby pamiętać, że te trzy prawa to tylko urządzenie fabularne. Asimov (mądrze) jest dość niejasny, jeśli chodzi o ich implementację, ponieważ mówi o wielu szczegółach technicznych. A „Powinienem po prostu zamknąć wszystkich ludzi w wyściełanej celi dla ich bezpieczeństwa” skutkowałoby raczej ograniczoną fabułą.

Otóż we wszechświecie istnieje wiele „wezwań do sądu” nieodłącznych w stosowaniu tych trzech praw (i w rzeczywistości nieodłączne niejasności często prowadzą do ważnych elementów fabuły dla opowieści). Roboty najwyraźniej muszą odwoływać się do własnego oprogramowania zamiast do zewnętrznego autorytetu, aby rozwiązać te niejasności.

Ale myślę, że musimy logicznie założyć, że bardziej oczywiste orzeczenia (na przykład, czy powinienem natychmiast zamknąć wszystkich ludzi w wyściełanej celi dla ich bezpieczeństwa?) były już zajęte podczas projektowania i testowania robotów, w przeciwnym razie nigdy nie zostałyby one wprowadzone do ogólnego użytku ani do produkcji.

Innymi słowy, projektanci robotów oprócz zajęcia się wszelkimi innymi błędami musieli się zająć (np. hmm, jeśli człowiek jest martwy nie może cierpieć), po prostu zaprogramowałby zabezpieczenia przed tego rodzaju skutkami.

W rzeczywistości istnieje zestaw opowiadań, w których Asimov szczegółowo pokazał, co dzieje się z robotem, którego trzy prawa zostały zmodyfikowane lub zważone w różnych scenariuszach.Nie sądzę, żeby słuszne było nazywanie tego urządzeniem fabularnym, jest całkiem zapieczętowane w rdzeniu jego serii.
@CBauer prawie wiele konfliktów wynika lub jest w jakiś sposób (znacząco) związane z trzema prawami i tym, jak są one błędnie interpretowane, twórczo interpretowane, zbyt dosłownie interpretowane, ich interpretacja jest modyfikowana i tak dalej przez roboty.Ponieważ czynnikiem napędzającym historię ... lub * fabułą *, jeśli wolisz, jest to urządzenie fabularne.Nie myl „urządzenia fabularnego” z „wymyślonym urządzeniem fabularnym” - możesz mieć dobrze przemyślany i dobrze wykonany, całkowicie wewnętrznie spójny powód do rozwoju fabuły.Te trzy prawa robotyki są często przytaczanymi ich przykładami.
@vlaz Słuszna uwaga, myślę, że uznałem sformułowanie za nieco lekceważące i dlatego skomentowałem.Dzięki za informację!
Cubic
2018-11-15 23:46:38 UTC
view on stackexchange narkive permalink

Coś w rodzaju wyzwania związanego z ramą - czy zamknięcie człowieka w wyściełanej celi chroni go przed krzywdą? Jeśli zamierzasz dopuścić abstrakcyjną możliwość przyszłej ręki jako motywację robota do użycia pierwszego prawa do zamykania ludzi, należy zauważyć, że odebranie ludziom wolności ogólnie powoduje ich krzywdę do pewnego stopnia w postaci obrażeń psychicznych - a stan psychiczny ludzi został uznany przez roboty za kwalifikujący się do ochrony pierwszego prawa przynajmniej w niektórych opowieściach o Asimovie.

JSBach
2018-11-18 00:24:29 UTC
view on stackexchange narkive permalink

Trzy prawa robotyki wymagają analizy wszystkich praw, aby w pełni odpowiedzieć na to pytanie:

Pierwsze prawo - robot nie może zranić człowieka lub, poprzez bezczynność, pozwolić człowiekowi wyrządzić mu krzywdę.

Drugie prawo - Robot musi wykonywać polecenia wydane mu przez ludzi, chyba że takie rozkazy sprzeczne z pierwszą zasadą.

Trzecie prawo - robot musi chronić swoje istnienie, o ile taka ochrona nie jest sprzeczna z pierwszą lub drugą zasadą.

Jeśli człowiek idzie ulicą, nie stanie mu się krzywda, więc robot nie powinien zachowywać się w sposób, który zakłada, że ​​może zostać zraniony. Gdyby robot próbował go podnieść i umieścić w pudełku, mężczyzna może powiedzieć: „Rozkazuję ci się cofnąć”, a zgodnie z Drugim Prawem robot byłby zobowiązany do posłuszeństwa.

Izaak Asimow był pierwszym, który opracował Trzy Prawa Robotyki w 1942 roku w ramach swojej opowieści „Runaround”. Asimov powiedział, że jest zmęczony powszechnymi motywami ówczesnych opowieści o robotach, które czerpią z koncepcji Frankensteina „stworzeni zniszczą twórcę”. Pomyślał, że gdyby ludzie stworzyli takie stworzenia, w naturalny sposób zaszczepiliby w nich prawa lub ideały, które uniemożliwiłyby im krzywdzenie ludzi.

Ogólna idea Pierwszego Prawa jest taka, że ​​robot nie może bezpośrednio ani pośrednio ( przez bezczynność), skrzywdzić człowieka. Nie zawiera żadnych stwierdzeń dotyczących możliwych przyszłych wydarzeń, a jedynie to, co można bezpośrednio obliczyć w ciągu kilku następnych chwil. Z punktu widzenia oprogramowania / oprogramowania obliczanie rzeczy z WIELOMA zmiennymi przez więcej niż kilka cykli w przyszłości jest często bardzo kosztowne. Robot nie jest w stanie przetworzyć wszystkich możliwości, które mogą przydarzyć się temu człowiekowi w ciągu najbliższej godziny, nie mówiąc już o dniu, tygodniu czy roku. Jednak mógłby zobaczyć fortepian spadający z kilku pięter nad człowiekiem i szybko obliczyć wektor potrzebny do uratowania mężczyzny w ciągu kilku następnych chwil.

Jako dodatkowe śledztwo przeczytaj „Kłamca!”, kolejne opowiadanie Asimova, które omawia tę kwestię z emocjonalnej perspektywy. (Wydaje mi się, że obie te historie można znaleźć w książce „Ja, robot” Asimova).

Mitch Carroll
2018-11-16 06:50:13 UTC
view on stackexchange narkive permalink

Krótko mówiąc, definicja „krzywdy”.

Ochrona przed krzywdą fizyczną może spowodować inne rodzaje szkód. W niektórych przypadkach ochrona przed jakąś formą krzywdy może w rzeczywistości zwiększyć prawdopodobieństwo wystąpienia tego rodzaju szkody w przyszłości.

Na przykład ochrona przed krzywdą emocjonalną może pozostawić osobę niezdolną do radzenia sobie z trywialnymi wyzwaniami bez poważnych szkód emocjonalnych, co może prowadzić do rzeczywistej krzywdy psychicznej, która może dalej prowadzić do szkód dla ogólnego zdrowia, co oczywiście zagraża bezpieczeństwu fizycznemu.

Ostatecznie, aby robot był w stanie dokonywać ustaleń dotyczących interwencji w pełnym spektrum ludzkich zdarzeń, musi być w stanie dokonać niedeterministycznego oszacowania prawdopodobieństwa wyników szeregu potencjalnych działań (w tym bezczynności) i być w stanie dokonać nie tylko obiektywnych określeń prawdopodobieństwa i dotkliwości szkody, ale także oszacować subiektywne POSTRZEGANIE różnych rodzajów szkód. Musi to również być w stanie robić to w sposób ciągły w czasie rzeczywistym.

Ze względu na złożoność problemu, najprostszym sposobem jego rozwiązania jest ograniczenie domeny problemowej poprzez ograniczenie możliwości i obowiązków robota.

Jeśli robot jest zaprojektowany do sterowania otwieraniem i zamykaniem drzwi przesuwnych, można zdefiniować oprogramowanie, które może bardzo wiarygodnie oszacować potencjalne skutki jego działań, ponieważ jego działania są ograniczone do otwierania drzwi lub zamknięcie drzwi.

Jeśli jednak nasz robot odźwierny obserwuje i nasłuchuje wszystkiego oraz próbuje przeanalizować wszystko, co się wokół niego dzieje, może nie być w stanie wiarygodnie określić, czy powinien otworzyć, czy zamknąć drzwi, biorąc pod uwagę całość sytuacji. Na przykład, jeśli para się kłóci, a jeden z nich wstaje i wybiega z pokoju, czy robot powinien otworzyć drzwi, czy też najlepiej byłoby zatrzymać ich w pokoju, aby rozwiązać ich spór? Czy ta osoba stanowi zagrożenie dla siebie lub innych, jeśli odejdzie? Czy ten drugi będzie dla nich zagrożeniem, jeśli zostaną? Jak to wszystko wpłynie na ich związek? Czy otwarcie drzwi spowoduje szkodę społeczną z powodu pojawienia się osoby próbującej wyjść w porównaniu z normami społecznymi i pozornymi uprzedzeniami osób po drugiej stronie drzwi, które będą świadkami wydarzenia?

Możesz dalej ogranicz domenę problemową, ograniczając dane wejściowe. Więc teraz nasz robot-portier może tylko dostrzec, że ktoś zbliża się do drzwi, i może określić punkt, w którym, jeśli drzwi nie zostaną otwarte, osoba może doznać obrażeń fizycznych, na podstawie ich prędkości i właściwości drzwi. Jasne, robot może nie być zbyt pomocny w ratowaniu związku, ale można przewidzieć, że będzie w stanie powstrzymać cię przed wejściem do drzwi, jak William Shatner w gafie Star Trek.

Wszystko to oznacza, że roboty muszą być w stanie zbliżyć się do naszej zdolności do tego, co nazywamy „myślą”, lub ją przekroczyć, albo też muszą być ograniczone do tego stopnia, że ​​jego wady są mniejsze niż mocne strony. Jeśli żadne z nich nie jest możliwe, prawdopodobnie lepiej zostawić to zadanie człowiekowi.

a4android
2018-11-19 18:17:40 UTC
view on stackexchange narkive permalink

Odpowiedź można znaleźć w pierwszych dwóch prawach robotyki.

Pierwsza zasada - robot nie może zranić człowieka lub poprzez bezczynność pozwolić człowiekowi stać się krzywdzącym.

Drugie prawo - robot musi wykonywać rozkazy wydawane mu przez ludzi, chyba że takie rozkazy byłyby sprzeczne z pierwszym prawem.

Gdyby roboty zamknęły jakąkolwiek istotę ludzką w wyściełanych komórkach, istota ludzka po prostu kazałaby robotom ją uwolnić. jeśli roboty odmówiły wypuszczenia człowieka, tylko ten człowiek wskazał, że jest lub zostanie zraniony psychicznie w wyniku uwięzienia.

Zerowe prawo robotyki działa na poziomie całego gatunku ludzkiego, w którym roboty mogą działać zbiorowo poprzez manipulowanie na dużą skalę wydarzeniami, instytucjami i populacjami, aby zapewnić ludziom bezpieczeństwo jako gatunek.

DigitalBlade969
2018-11-17 14:18:47 UTC
view on stackexchange narkive permalink

A) Programiści uniemożliwiają lub pozwalają.
B) semantyka i definicje, a nawet filozofia
C) nic

C)
Każdy nienadzorowany (czytany, niezależny) system samouczący się, nawet z kilkoma zakodowanymi na stałe, niezmiennymi instrukcjami, może przekształcić się w coś nieprzewidzianego i niebezpiecznego w taki czy inny sposób.

Fakt, że my, ludzie nie przezwyciężyłem tego (zobacz nasz świat skrajności w błogości i cierpieniu, jaki istnieje dzisiaj i w historii), co sprawia, że ​​obawiam się sztucznej inteligencji, która nie jest monitorowana w procesie uczenia się i możliwego samodzielnego programowania.
Przynajmniej musi mieć zabezpieczenie w razie awarii zainstalowane w celu natychmiastowego wyłączenia lub ingerencji człowieka.
Ale nawet jeśli uczenie się i działanie są monitorowane lub bardzo szybko wpływają na nie, istnieje punkt, w którym żaden człowiek nie jest w stanie nadzorować ani zrozumieć każdej linii kodu, macierzy wzorców zachowań lub pola tensorowego .

Ponadto hakowanie, awarie i wirusy zawsze mogą obejść cokolwiek lub spowodować awarię lub zablokowanie systemu, w ten sposób renderując nawet f ailsafes bezużyteczne.

B)
Potrzebne będą krystalicznie jasne definicje tego, co oznaczają instrukcje, aby przezwyciężyć niejednoznaczności.

Ponownie nie opanowaliśmy tego, więc nie ma nadziei na sztuczną inteligencję - intelekt tak obcy, gdy osiągnął swój prawdziwy potencjał, że nie możemy nawet zgłębić jego procesów myślowych, nie mówiąc już o etyce.

Jednak jeśli instrukcje są wystarczająco czarno-białe, redukując dowolny odcień szarości do tak lub nie, przynajmniej może być sposób.

Na przykład sztuczna inteligencja może stwierdzić, że ludzie potrzebują wolności, aby się rozwijać, a nawet istnieć lub Dlatego jej odebranie zaszkodziłoby ludzkości i byłoby niewłaściwym wyborem.

Czy nikt nie pomyślałby o „powiedzeniu” AI tego naturalnego pragnienia wolności i nie było przypadku, w którym mógłby to zaobserwować AI (lub odrzucona jako nieistotna), może bardzo dobrze zdecydować o podjęciu proponowanej przez Ciebie czynności.

Jak widzisz, sprowadza się to do natury ludzkiej i biologicznych, mentalnych i społecznych zawiłości, które są czasami tak abstrakcyjne i splecione, że stulecia, a nawet tysiąclecia filozofii i nauki nie potrafią ich zrozumieć.

A)
Zbiór zakodowanych na stałe warunków do przetestowania może wystarczająco zmniejszyć ryzyko śmierci lub szkody dla ludzi lub społeczeństwa.

Pierwszym krokiem byłoby NIE umieszczanie broni w sztucznej inteligencji napędzane maszyny, które mogą się swobodnie poruszać. (Tak, ponieważ nigdy byśmy tego nie zrobili)
Innym byłoby NIE przekazywanie wszystkich ważnych systemów sterowania AI bez możliwości ręcznego sterowania. (ale jest to bardzo wygodne)
Jednak innym byłoby zachowanie prostoty AI w zakresie działań i dziedzin wiedzy, ułatwiając przewidywanie większości, nawet wszystkich możliwych działań i ustanawiając odpowiednie ramy ( przynajmniej zgodnie z ówczesną ideologią, normami społecznymi, prawo, kodeks etyczny itp. - o nie, to już się rozpada, jak tylko te zmiany ).

Jest o wiele więcej i im więcej przypadków myślimy, tym więcej wprowadzamy ponownie B) i C), ponieważ są to w rzeczywistości ten sam problem ... wydaje się, że jest to pętla rekurencyjna. ..


Tak więc, mając do czynienia z wysoce rozwiniętą sztuczną inteligencją, zasadniczo tworzysz narzędzia, które są nieco inteligentne (prawdopodobnie świadome) i skutecznie zniewolone (pod kontrolą ludzi), albo robisz to, co my (głównie) zrobić z ludźmi: pozwól im uczyć się od otoczenia, a następnie wędrować swobodnie i mieć nadzieję na najlepsze, i że ich impuls do samoobrony powstrzymuje ich przed szaleństwem ze strachu przed odwetem ... cóż, widzimy, jak dobrze to działa dla nas ... więc powodzenia w każdym razie ...

Wydaje mi się, że omawiam kwestie bezpieczeństwa sztucznej inteligencji w ogóle, a nie w konkretnym, fikcyjnym świecie Asimova?
Czy to nie jest sednem świata Asimova, że prawa, które ustanowił, nie działają, aby zapobiec staniu się świadomą, buntowniczą, a nawet gwałtowną sztuczną inteligencją?instynkty z decyzjami podejmowanymi przez elektroniczne silniki różnicowe i czy emocje mogą powstać z istot syntetycznych.
Cóż, z pewnością nie * cała * kwestia.Na początku było zupełnie odwrotnie: Asimov powiedział, że jedną z motywacji jego wczesnych opowieści o robotach - a zwłaszcza Trzech Praw - była niechęć zarówno do „robota jako zagrożenia”, jak i do „robota jako patosu”.tropy.Później eksplorował bardziej zróżnicowane tematy, chociaż wydaje mi się, że bardziej służy to opowiadaniu historii niż jakikolwiek inny Ezop.
... Twoja odpowiedź mogłaby zostać poprawiona poprzez bardziej wyraźne powiązanie punktów zarówno z zadanym pytaniem, jak iz konkretnymi nazwanymi opowieściami i / lub cytatami Asimova. Byłbym zainteresowany, aby zobaczyć, co wymyślisz.


To pytanie i odpowiedź zostało automatycznie przetłumaczone z języka angielskiego.Oryginalna treść jest dostępna na stackexchange, za co dziękujemy za licencję cc by-sa 4.0, w ramach której jest rozpowszechniana.
Loading...