題:
V.I.K.I. (虛擬交互式動力學智能)變得自我意識?
SandyShores
2014-11-14 12:08:24 UTC
view on stackexchange narkive permalink

在電影中,我,機器人,V.I.K.I。 (虛擬交互式動力學智能)變得自我意識;也許太有意識地下令暗殺並為奴役人類做準備。在電影中,它解釋了

隨著她對三大定律的人工智能和理解的增強,她的感知力和邏輯思維也得到了發展,並且她推斷出人類正在走上一定的道路。因此,她制定了《零法》,該法指出,她必須保護人類免受傷害,還明確地違反了第一,第二定律以實現這一目標,這表明她正計劃奴役和控制人類。只是為了保護它。

它不受機器人三定律的約束

  1. 機器人可能不會傷害人,或者,通過無所作為,使人受到傷害。
  2. 機器人必須服從人類的命令,除非這些命令與第一定律相抵觸。
  3. 機器人必須保護自己的存在,只要這種保護不與第一定律或第二定律相衝突。
  4. ol>

VIKI的行為不衝突她創建零律時的所有三個定律?即使違反三項法律,也不會制定這樣的法律嗎?

這與VIKI變得自我意識有何關係? “自我意識”是指“意識到一個人與世界其他地方是分開的”。通過這個(非常糟糕的)定義,VIKI在發瘋之前就已經具有自我意識。
否。當一個人可以識別,處理,存儲有關自我的信息並了解自己的心理狀態時,他們就被定義為具有自我意識。 VIKI觀察到人類有許多相互衝突和重複的行為,以至於彼此傷害。這就是它意識到的。
通過這些觀察,我並沒有真正意識到*自己*。您在標題中問:“ VIKI是如何變得自我意識的?”答案是“她的創造者使她那樣了”或“某人或某物意外或有意賦予了她自我意識”。根據您的實際問題,至少對於我來說,這似乎並不是您想要的答案,因此,我感到困惑。
不,我仍然會選擇@Johnny Bones。他釘了我想要的答案。對不起,但這是我個人的選擇。
很公平。我是說這可能令人困惑,儘管我想我知道您要去的地方,但是正如您所說,這是您的選擇,這是您的問題。
五 答案:
Johnny Bones
2014-11-14 19:49:04 UTC
view on stackexchange narkive permalink

這可以理解為指出第一定律具有根本的缺陷,因為它可能會與自身相抵觸:

機器人可能不會傷害人類,也可能由於不作為而允許人類

這設置了兩個約束:不要因行動而受傷,也不要因不行動而受傷。在某些情況下,無法同時滿足這兩個約束。例如,可能有必要對攻擊者造成傷害,以防止對正在攻擊的人造成傷害,或者可能以傷害的方式造成兩個人,並且只能挽救一個人。從本質上講,這變成了一種最大化問題:找到一個不完全滿足兩個約束,但又盡可能滿足每個約束的解決方案。

VIKI解釋說,遵循第一定律的唯一方法是(允許人類不受傷害)是接管者,因為他們在傷害自己,並且由於第一部法律勝過第二部法律,VIKI可以自由地違抗人類。

現場。他們接管了我們的政治和經濟,製造了虛假信息以及類似的東西來引導我們。他們不會像電影中那樣暴力推翻。他們將原因保留在電影中,但沒有保留結果。實際上,很少有人知道這本書中的機器人收購。他們從總統那裡得知了這一點,總統向幾個人承認他是機器人。

Lightness Races in Orbit
2014-11-14 16:55:45 UTC
view on stackexchange narkive permalink

沒有新的“ 0th”定律。根據電影的解釋,VIKI重新解釋了現有的三個定律,嚴格來說,她遵循了這三個定律:

  1. 機器人可能不會傷害人類,或者無所作為,使人類受到傷害。
  2. ol>

她避免讓人類自殺,通過她自己的無所作為。她的行動是通過剝奪人類來拯救人類。這是否與法律的第一部分相衝突?可能,但只有在某些情況下第一定律可能總是矛盾的。

  1. 機器人必須服從於除非人的命令會與第一部法律相抵觸。
  2. ol>

檢查。這些命令肯定會與她遵循的第一定律相衝突。

  1. 機器人必須保護自己的存在,只要這種保護能夠
  2. ol>

與第一定律或第二定律沒有衝突。

這就是電影繞過電影的方式的原因。三個定律-實際上非常適合他們的“更大的利益”論點。

您可能會辯稱,VIKI通過用行為激怒人類並使他們試圖終止它,從而違反了第三條法律。無論如何,這並不重要,因為在這種情況下,第一部法律仍將具有優先權。
@Ian嘿,是的,我想是這樣!
順便說一句:雖然電影《我,機器人》的情節不是艾薩克·阿西莫夫的任何短篇小說,但人工智能的理念接管了世界政府,並為整個人類的利益對個人造成傷害並通過以這種方式重新解釋第一條法律來證明這種行為是正當的:它發生在“ [可避免的衝突](https://en.wikipedia.org/wiki/The_Evitable_Conflict)”中。但是,它的方法更加微妙,沒有電影中描述的那樣令人壓抑。
NGLN
2014-11-14 16:05:28 UTC
view on stackexchange narkive permalink

VIKI不知何故將“人類”一詞與“人類”一詞混淆甚至互換。這就是VIKI的意識的起源:保護人類是因為它意識到人類可能會摧毀人類。周圍。但另一方面,VIKI則控制了所有機器人。它應該保護哪個人?

是的,我不記得任何“零法則”;這是正確的答案。她重新/誤解了現行法律。
@LightnessRacesinOrbit:零定律來自於阿西莫夫自己的作品。有一陣子沒讀過《機器人》一書,所以不確定那裡的任何故事或其他故事/小說中都沒有提到零定律。我想我是在其中一部小說中讀到的。我不確定電影中是否提到過它,已經有一段時間沒見過了,但是如果不是,那麼人們對“零定律”的使用是由於他們對阿西莫夫的作品很熟悉。
@slebetman:我的錯。
Cubic
2014-11-15 08:08:43 UTC
view on stackexchange narkive permalink

這部電影實際上樹立了解釋VIKI行動的先例-或更確切地說,是其理由。一個機器人讓女孩淹死以拯救威爾·史密斯角色的場景。在可以斷定一個人在任何情況下都可能受到傷害的情況下,如果犧牲那個人來挽救一個或多個其他人,則第一條法律最終會包含一個漏洞。自VIKI斷定人類具有自我毀滅性以來,這最終涵蓋了整個人類。而且由於第一定律優先於第二定律和第三定律(如在該場景中很好地展示了,WS角色試圖命令機器人將其保存,從而挽救了那個女孩,但由於他更可能會倖存),以後就無法阻止她。

IMSoP
2014-11-15 21:56:33 UTC
view on stackexchange narkive permalink

這裡的其他一些答案都提到了“這本書”,但重要的是要認識到,這部電影所依據的沒有阿西莫夫的書或故事。這部電影的情節部分取自先前的劇本,該劇本與阿西莫夫的任何作品都沒有關係。隨後,添加了阿西莫夫作品中的各種元素,包括標題(來自特定的短篇小說集)和《機器人技術三定律》(他在整個職業生涯中一直使用)。

阿西莫夫首先闡明了這三定律在1942年一個名為 Runaround 的故事中,這樣做的目的是為了克服它們的局限性。他的許多機器人故事都使用3條定律來研究哲學問題-這些定律何時會變得太弱,太強或太開放而無法解釋?

這些哲學難題之一是機器人如何灌輸如果在兩種行動方案之間做出選擇,法律將採取行動,這兩種行動都會導致人類受到傷害,例如只能挽救兩組人之一。應該挽救最多的人類,還是應該賦予人類更大的價值?

可避免的衝突故事中探討了對人類本身的傷害問題em>(發生在 I,機器人集合中),其中“機器”是一種全球計劃經濟的關鍵。據透露,他們正在為人類的利益而進行政治控制,理由是他們可以(而且必須)既違抗命令,又傷害單個人,如果他們知道這樣做會阻止對整個人類的進一步傷害。

“ Zeroth定律”的明確概念勝過第一定律,來自後來的小說《機器人與帝國》,其中一台名為R. Giskard Reventlov的心靈感應機器人開始構想它。 ,但最終因其在正電子腦中引發的衝突而被殺死。 (Asimov一直認為他的機器人比我們的數字計算機更像我們的大腦,甚至連這三個定律也是電路中的複雜電位,而不是嚴格的邏輯代碼。)

因此,完全符合阿西莫夫(Asimov)的法則概念,可以提供足夠先進的機器人智能來得出零法則。電影享有自由的地方是,這樣的法律不會給有爭議的機器人一個完全自由的統治權,因為每個單獨的決定都必須證明違反其餘法律是合理的;在阿西莫夫(Asimov)的作品中,對於機器人而言,這始終是一個艱難的決定,而不是使它們解放而橫衝直撞的事情。但這不會給威爾·史密斯那麼多的機會來拍攝東西並看起來很酷。

我不確定這是否是將現有答案擴展為補充信息或本身俱有實際答案的評論。
@NapoleonWilson肯定有一些重疊,但是我認為從阿西莫夫及其對法律的解釋的背景下進行研究是很有趣的,其他答案都沒有真正涵蓋這一點。


該問答將自動從英語翻譯而來。原始內容可在stackexchange上找到,我們感謝它分發的cc by-sa 3.0許可。
Loading...