A) Programiści uniemożliwiają lub pozwalają.
B) semantyka i definicje, a nawet filozofia
C) nic
C)
Każdy nienadzorowany (czytany, niezależny) system samouczący się, nawet z kilkoma zakodowanymi na stałe, niezmiennymi instrukcjami, może przekształcić się w coś nieprzewidzianego i niebezpiecznego w taki czy inny sposób.
Fakt, że my, ludzie nie przezwyciężyłem tego (zobacz nasz świat skrajności w błogości i cierpieniu, jaki istnieje dzisiaj i w historii), co sprawia, że obawiam się sztucznej inteligencji, która nie jest monitorowana w procesie uczenia się i możliwego samodzielnego programowania.
Przynajmniej musi mieć zabezpieczenie w razie awarii zainstalowane w celu natychmiastowego wyłączenia lub ingerencji człowieka.
Ale nawet jeśli uczenie się i działanie są monitorowane lub bardzo szybko wpływają na nie, istnieje punkt, w którym żaden człowiek nie jest w stanie nadzorować ani zrozumieć każdej linii kodu, macierzy wzorców zachowań lub pola tensorowego .
Ponadto hakowanie, awarie i wirusy zawsze mogą obejść cokolwiek lub spowodować awarię lub zablokowanie systemu, w ten sposób renderując nawet f ailsafes bezużyteczne.
B)
Potrzebne będą krystalicznie jasne definicje tego, co oznaczają instrukcje, aby przezwyciężyć niejednoznaczności.
Ponownie nie opanowaliśmy tego, więc nie ma nadziei na sztuczną inteligencję - intelekt tak obcy, gdy osiągnął swój prawdziwy potencjał, że nie możemy nawet zgłębić jego procesów myślowych, nie mówiąc już o etyce.
Jednak jeśli instrukcje są wystarczająco czarno-białe, redukując dowolny odcień szarości do tak lub nie, przynajmniej może być sposób.
Na przykład sztuczna inteligencja może stwierdzić, że ludzie potrzebują wolności, aby się rozwijać, a nawet istnieć lub Dlatego jej odebranie zaszkodziłoby ludzkości i byłoby niewłaściwym wyborem.
Czy nikt nie pomyślałby o „powiedzeniu” AI tego naturalnego pragnienia wolności i nie było przypadku, w którym mógłby to zaobserwować AI (lub odrzucona jako nieistotna), może bardzo dobrze zdecydować o podjęciu proponowanej przez Ciebie czynności.
Jak widzisz, sprowadza się to do natury ludzkiej i biologicznych, mentalnych i społecznych zawiłości, które są czasami tak abstrakcyjne i splecione, że stulecia, a nawet tysiąclecia filozofii i nauki nie potrafią ich zrozumieć.
A)
Zbiór zakodowanych na stałe warunków do przetestowania może wystarczająco zmniejszyć ryzyko śmierci lub szkody dla ludzi lub społeczeństwa.
Pierwszym krokiem byłoby NIE umieszczanie broni w sztucznej inteligencji napędzane maszyny, które mogą się swobodnie poruszać. (Tak, ponieważ nigdy byśmy tego nie zrobili)
Innym byłoby NIE przekazywanie wszystkich ważnych systemów sterowania AI bez możliwości ręcznego sterowania. (ale jest to bardzo wygodne)
Jednak innym byłoby zachowanie prostoty AI w zakresie działań i dziedzin wiedzy, ułatwiając przewidywanie większości, nawet wszystkich możliwych działań i ustanawiając odpowiednie ramy ( przynajmniej zgodnie z ówczesną ideologią, normami społecznymi, prawo, kodeks etyczny itp. - o nie, to już się rozpada, jak tylko te zmiany ).
Jest o wiele więcej i im więcej przypadków myślimy, tym więcej wprowadzamy ponownie B) i C), ponieważ są to w rzeczywistości ten sam problem ... wydaje się, że jest to pętla rekurencyjna. ..
Tak więc, mając do czynienia z wysoce rozwiniętą sztuczną inteligencją, zasadniczo tworzysz narzędzia, które są nieco inteligentne (prawdopodobnie świadome) i skutecznie zniewolone (pod kontrolą ludzi), albo robisz to, co my (głównie) zrobić z ludźmi: pozwól im uczyć się od otoczenia, a następnie wędrować swobodnie i mieć nadzieję na najlepsze, i że ich impuls do samoobrony powstrzymuje ich przed szaleństwem ze strachu przed odwetem ... cóż, widzimy, jak dobrze to działa dla nas ... więc powodzenia w każdym razie ...