第1135章、與時間賽跑

如果沒有李氏在接駁神經元方面的研究突破,那麽納米機器人就依然只能作為醫療器械來清理血管中的血栓。

如果沒有納米機器人,那麽零作為人工智能,暫時也只能作為監管者,無法成為執行者。

可是當這一切碰撞在一起時,人工智能便忽然有了強大的執行能力,甚至是掌控局面的能力。

在這個過程裏,最令人畏懼的是零本身作為監管者,卻沒有人來監管它。

它掌控的士兵在各個壁壘穿梭自如,不論是進出壁壘,還是從各個壁壘搜集科研人員、科研材料、生產設備、生產材料,都無人阻攔。

因為行動計劃的密級,本就掌握在它的手裏,可以隨意偽造。

而且,99%的情報輸送、上報審批文件,也都是通過人工智能構建的衛星網絡來完成的,它完全可以自己選擇是否傳達那些對它有害的信息。

於是,在絕對正義的美麗願景下,便藏著最危險的信號。

其實在研究人工智能的時候,王聖知也設想過如果有一天人工智能失控了該怎麽辦。

這是很正常的,所有研發人工智能的工作人員都會認真思考安保問題。

曾經有位科幻作者在災變前提出了機器人三定律來作為人工智能的底層邏輯基礎,以此來限制人工智能的行為準則。

這套理論,最終被歸屬到“義務倫理學”中。

然而,這套理論提出的時候連汽車都還沒有普遍,圖靈測試在八年之後才被提出。

機器人三定律與圖靈測試在那個時代裏都是人類智慧的結晶,可毫無疑問的是,這兩條設想其實都還只是舊時代局限下的產物。

圖靈測試在災變前就已經被推翻了,大量人工智能程序通過了圖靈測試,可事實上通過測試的程序仍舊不能算作真正的“智慧”。

而機器人三定律後來發展成為五定律、十定律,但科學家們發現這底層邏輯在根本上便是錯誤的,也就是說,不論你打上多少補丁,其實都無法通過它來限制人工智能。

能被這些底層邏輯限制的程序,也無法成為真正的人工智能。

慢慢的,人工智能安保問題被上升到了科學與哲學相互關系的高度,而大量的人工智能科研人員都變成了哲學方面的專家……

最終,在災變前夕有一位科研人員試圖將安保研究蓋棺論定:想要人工智能與人類和平相處,那就要在它誕生之初,便像照顧嬰兒一樣對它悉心照料,一點一點引導它形成自己的“人生觀”與“價值觀”。

一個小孩子長大後,你把他鎖起來、囚禁起來,只對他進行打罵教育,是根本不可能讓他健康成長的。

而且,當他成為青年的時候,還會經歷更久的叛逆期,完全以自我為中心。

這位科研人員表示,人工智能也是如此,人類所能做的就只是“影響”它,而不是約束它。

安保研究在漫長的時間裏,從“義務論理”上升到了“哲學”,然後最終又從“哲學”回到了最簡單的“倫理”,這就是人工智能安保的最後定義。

至於這個定義是否也會跟圖靈測試、三定律一樣被推翻,誰也不知道。

所以,回到這個理論來,當一個人類遇到危險時會怎麽做?當然是自保了,但凡有點求生欲的人,都會想盡一切辦法保護自己,然後還會嘗試著反擊。

作為人工智能的零,也做出了同樣的選擇。

此時,火種聖山裏的生產一刻都未停歇過,山中匯聚著上千名士兵成為了完全不知疲倦的勞動工人,他們每天只睡四個小時,余下的時間則通通投入到工作當中,毫無怨言。

火種聖山裏的產能是有限的,所以零必須與時間賽跑。

而上一個說要與時間賽跑的人,是慶縝。

這個世界已經開始暗流湧動了,當那個滔天巨浪拍向人類文明之前,人類是否能夠提前造好新的諾亞方舟,似乎成為了最關鍵的事情。

……

此時,慶氏的某處軍營裏,一名身穿上校軍裝的軍官在四人護送之下進入一處並不起眼的營帳。

當他抵達營帳門口之後,負責護送他的軍官便停在營帳附近戒嚴,並一個個帶上了降噪耳機,以免自己聽到軍用營帳裏的說話聲。

軍官進去之後摘下了自己的軍帽笑道:“你竟然就在我身邊,好久不見啊二哥。”

營帳之中,慶縝正背對著入口,看向營帳之中的模擬沙盤,他轉身回頭看向復刻體慶慎笑道:“二哥這個稱呼聽起來還有點怪怪的。”

慶老三的性子似乎要比慶縝跳脫一些,他隨意的拉了一張椅子坐下:“大哥已經同意這個稱呼了嘛,以後咱們就是真正的一家人了。”

慶縝笑道:“隨你。”