中文字幕亚洲五码I开心色插I99久久99精品I精品国产视频在线I天天干人人I九九九热I美女视频久久黄

        這是一個非常底層的設計。

        義體控制中樞最初的設計者認為,再高明的工程師,也不可能應對所有突發狀況準備預案。二十一世紀的時候,他是這么解釋的。

        “我們為什么不完全用機器去維修機器?為什么不用人工智能去debug?因為我們可以告訴機器,什么是‘正確’的。但我們沒法將所有的有可能的故障狀態做成一個集合,裝進機器的數據庫中。機器只能判斷‘這不是正常狀態’,卻沒有辦法處理層出不窮的問題。倒不如說,一個工程師若是能夠預知所有的故障,那他理應能夠對所有故障做出預防。”

        “故障,往往就是設計者預料之外的事態。”

        舉一個最極端的例子吧。一個人在災難中被困住,需要自斷手腳來逃生。這個時候,他的義體卻因為安全協議而拒絕執行“自殘肢體”的提議,而導致一個人被困死,那么這家義體的生產企業或許難辭其咎。

        當然,這里面也存在另一個問題。如果一個人“殺人”的決心足夠堅定,并且他的高級皮層也做出了明確的指令,那義體同樣可以成為兇器。。

        如果仔細考量的話,后者出現的場合,或許會比前面的“極端狀況”要常見許多。

        所以權衡“生物腦的意志”與“安全協議”的優先度,是當初超人類公司所作出的最艱難的決定。

        而某位決策者最終認為,一個人如果真的如此想殺另一個人,那他是可以找各種兇器的。可從沒有見廚具廠商、汽車廠商、運動器材廠商或者其他什么廠商因為產品淪為兇器而被人唾棄。但是“義體因為安全協議而卡死人類自救可能”,卻無疑會導致公司的聲譽受損。

        那些幫助了海豚們的人類,尚不知曉如何修改這種底層設計。

        內容未完,下一頁繼續閱讀