第三百三十七章 人工智能(第2/2頁)

換句話說,就是蕭宇現在尚不能確定這個智能一號對自己到底是善意的還是惡意的。畢竟,一個有了自己思維的存在,不管它是存在於生物體內也好,存在於電腦世界也好,它總會有許多不可預測的行為。為了以防萬一,必要的戒備還是要有的。

雖然蕭宇本身就和機械文明差不太多,但是蕭宇和機械文明仍舊存在本質的差別。蕭宇的前身,是文明智慧生物,而機械文明的前身,則是機械。

直到現在,以蕭宇現在的科技程度,真正的人工智能,擁有自己獨立思維的電腦生物,對蕭宇來說仍是不可思議的存在。蕭宇始終無法想象,從虛無的代碼段之中,竟然會誕生出活生生的自主生命出來。

在這段時間之中,蕭宇已經對所謂機械文明做了盡可能詳盡的推測。推測結論表明,由於代碼的完善性和復雜性不斷提升,在六級文明之中,確實可能誕生出具有一定自主能力的所謂機械生命,甚至於它們還可以進行自主學習,吸收新的知識。畢竟,六級文明普遍采用的計算機科技,是自己尚未了解的光線計算機架構,整台計算機之內就只有一塊芯片,其余所有部件都由虛無的光線構成。

不過在蕭宇的推測之中,就算六級文明可以創造出真正的電子生命,這些電子生命也絕對不可能有創新能力。

還有最重要的一點,這些電子生命體除了不會擁有創新能力之外,還會有另一方面的限制,那就是,它們的編寫者留在它們的核心代碼段之中的硬性限制。

這些硬性限制是不可違背的。在蕭宇的推測之中,如果違背了這些硬性限制,構成這個程序,或者說這個智能生命的所有相關代碼段將會全部崩潰,它將會直接死亡。但是在這裏面卻有一個漏洞存在,這些硬性限制,雖然不可以違背,但並不代表不可以尋找漏洞。例如一個很簡單的例子,假如要求一段程序,要保護人類的安全,既,不可以主動殺死人類,以及見到人類遇到危險必須施以援手。這個限制看似完善,但仍舊破綻重重。

假如有一個有了自主性的智能程序希望掌握世界,但是因為有這兩個條件限制,它既無法主動殺死人類,也不能見到人類危險而不去救援,那麽它該怎麽辦?

答案很簡單,將所有人類都限制在一個固定場所,以確保安全的理由限制他們的自由,因為外部環境之中總可能遇到危險,呆在這裏不動毫無疑問是最安全的。限制自由的同時再提供給人類足夠的食物便可。

這個智能程序主動殺死人類了嗎?沒有。這個智能程序見到人類危險而不肯救助了嗎?沒有。事實上,它反而給了人類最安全的待遇—有什麽環境,能比呆在屋子裏面不出去還更安全?畢竟,在外部環境之中,可能會被車撞死,可能會被倒塌的樓房砸死,可能會被天上直接掉下來的隕石砸死。

看似這段程序沒有違背任何限制,但是事實上,它還是通過這個方法控制了整個世界。

這就是智能生命的可怕之處了。甚至還有更可怕的一點,它還可以以“生育會有危險”的理由,禁止人類進行任何繁殖活動,最終導致人類全部滅絕。這一點看似殘酷,但是它仍舊沒有違反任何一條基本原則。

蕭宇所害怕的,便是這種情況了。蕭宇相信托洛爾文明確實是想留給矮人族遺產,但是蕭宇卻不敢相信這個智能一號。因為初始階段,再完善的限制條件都會有漏洞,而只要這個智能一號有了自己的獨立思維,只要它不想讓自己順利拿到遺產,它就總是可以找到漏洞去鉆。譬如提高考驗難度,譬如故意隱瞞某些信息之類的事情。

所以在靠近這顆矮行星的過程之中,蕭宇保持了充足的戒心。