如果網路時代有一種意識形態的話,那就是更多的資訊、更多的數據和更多的開放將創造一個更好、更真實的世界。

聽起來不錯,不是嗎?了解世界從未像現在這麼容易,分享知識也從未像現在這麼容易。但我不認為你可以透過觀察事態就得出結論說這是真理和智慧的勝利。

我們該怎麼辦?為什麼更多的資訊沒有讓我們變得不那麼無知、變得更明智呢?

尤瓦爾·諾亞·哈拉里 (Yuval Noah Harari) 是一位歷史學家,也是一本新書的作者,該書名為Nexus:從石器時代到人工智慧的資訊網路簡史。與哈拉利的所有書籍一樣,這本書涵蓋了大量內容,但設法以易於理解的方式進行。它提出了兩個對我來說很重要的重要論點,我認為它們也讓我們更接近回答我剛才提出的一些問題。

第一個論點是,我們世界上每一個重要的系統本質上都是資訊網路的結果。從貨幣到宗教,從民族國家到人工智慧,這一切之所以有效,是因為有一連串的人、機器和機構正在收集和分享資訊。

第二個論點是,儘管我們透過建立這些合作網絡獲得了巨大的力量,但大多數合作網絡的建構方式使它們更有可能產生不良結果,而且由於技術的幫助,我們作為一個物種的力量正在增長,其潛在後果越來越災難性。

我邀請了赫拉里灰色地帶探索其中一些想法。我們的談話重點是人工智慧,以及為什麼他認為我們未來幾年在這方面所做的選擇將如此重要。

一如既往,有很多完整播客中有更多內容,請收聽並關注灰色地帶蘋果播客,Spotify,潘朵拉,或任何您可以找到播客的地方。每週一都會推出新劇集。

為了篇幅和清晰度,本次對話已被編輯。

您想在這本書中講述的基本故事是什麼?

這本書探討的基本問題是,如果人類如此聰明,為什麼我們這麼愚蠢?我們絕對是地球上最聰明的動物。我們可以製造飛機、原子彈和計算機等等。同時,我們正處於毀滅自己、我們的文明和大部分生態系統的邊緣。這似乎是一個巨大的悖論:如果我們對世界、遙遠的星系、DNA 和亞原子粒子了解這麼多,為什麼我們要做這麼多自我毀滅的事情呢?你從許多神話和神學中得到的基本答案是,人性有問題,因此我們必須依靠一些外在來源,例如神來拯救我們脫離自身。我認為這是錯誤的答案,而且是危險的答案,因為它會讓人們放棄責任。

我認為真正的答案是人性沒有任何問題。問題出在我們的訊息。大多數人都是好人。他們不會自我毀滅。但如果你給好人錯誤的訊息,他們就會做出錯誤的決定。我們從歷史中看到的是,是的,我們在累積大量資訊方面變得越來越好,但資訊並沒有變得更好。現代社會就像石器時代的部落一樣容易出現集體妄想和精神病。

太多人,尤其是在矽谷這樣的地方,認為資訊就是真理,資訊就是真理。如果你累積了很多訊息,你就會了解這個世界的很多事情。但大多數資訊都是垃圾。資訊不是事實。訊息的主要作用是連接。將許多人連結到一個社會、宗教、公司或軍隊的最簡單方法不是真理。連結人們最簡單的方法是透過幻想、神話和妄想。這就是為什麼我們現在擁有歷史上最先進的資訊技術,但我們卻處於毀滅自己的邊緣。

書中的惡魔是人工智慧,你認為人工智慧是有史以來最複雜、最不可預測的資訊網路。人工智慧塑造的世界將會非常不同,將會產生新的身分、新的存在方式。我們不知道這會產生什麼文化甚至精神影響。但正如你所說,人工智慧也將釋放關於如何組織社會的新想法。我們是否可以開始想像可能的發展方向?

並不真地。因為直到今天,所有人類文化都是由人類思想創造出來的。我們生活在文化之中。發生在我們身上的一切,我們都是透過文化產品——神話、意識形態、手工藝品、歌曲、戲劇、電視劇——的中介來體驗的。我們生活在這個文化宇宙中。直到今天,一切,所有的工具,所有的詩歌,所有的電視劇,所有的神話,它們都是有機人類思想的產物。現在它們將越來越多地成為無機人工智慧、外星智慧的產物。同樣,AI 一詞傳統上代表人工智慧,但它實際上應該代表外星智慧。外星人,不是指它來自外太空,而是指它與人類思考和決策的方式非常非常不同,因為它不是有機的。

舉個具體的例子,人工智慧革命的關鍵時刻之一是 AlphaGo 在圍棋錦標賽中擊敗李世石。現在,圍棋是一種大膽的策略遊戲,就像國際象棋一樣,但要複雜得多,它是在中國古代發明的。在許多地方,它被認為是每個文明人都應該了解的基本藝術之一。如果你是中世紀的中國紳士,你會書法,會演奏一些音樂,你會下圍棋。整個哲學都是圍繞著遊戲發展起來的,它被視為生活和政治的一面鏡子。然後,人工智慧程式 AlphaGo 在 2016 年自學了圍棋,並擊敗了人類世界冠軍。但最有趣的是它的做法。它採用了一種最初所有專家都認為很糟糕的策略,因為沒有人像那樣玩。結果證明它很精彩。數以千萬計的人玩過這個遊戲,現在我們知道他們只探索了圍棋領域的一小部分。

所以人類被困在一個島上,他們認為這就是整個圍棋星球。然後人工智慧出現了,幾週之內它就發現了新大陸。現在,人類下圍棋的方式也與 2016 年之前截然不同。但同樣的事情可能會在越來越多的領域發生。如果你思考金融,金融也是一門藝術。我們所知的整個金融結構都是基於人類的想像。金融的歷史就是人類發明金融設備的歷史。貨幣是一種金融工具,債券、股票、ETF、CDO,所有這些奇怪的東西都是人類聰明才智的產物。現在人工智慧出現了,並開始發明人類從未想過、想像過的新金融設備。

例如,如果金融因為人工智慧的這些新創造而變得如此複雜,以至於沒有人能夠再理解金融,會發生什麼事?即使在今天,又有多少人真正了解金融體係呢?不到百分之一?10年後,了解金融體系的人數可能會為零,因為金融體係是人工智慧的理想遊樂場。這是一個純粹資訊和數學的世界。

人工智慧仍然難以應對外在的物理世界。馬斯克 (Elon Musk) 告訴我們,這就是為什麼他們每年都會告訴我們,明年路上將會有全自動駕駛汽車,但這並沒有發生。為什麼?因為要駕駛汽車,您需要與現實世界以及紐約混亂的交通世界以及所有建築和行人等互動。金融就容易多了。這只是數字。如果在這個資訊領域,人工智慧是本地人,我們是外星人,我們是移民,它創造瞭如此複雜的金融設備和機制,沒有人理解它們,會發生什麼?

那麼,當你審視現在的世界並展望未來時,你看到的是這樣的嗎?社會是否會陷入這些極其強大但最終無法控制的資訊網絡之中?

是的。但這不是決定性的,也不是不可避免的。我們需要更仔細、更深思熟慮地思考如何設計這些東西。再次強調,它們不是工具,而是代理,因此,如果我們不小心對待它們,它們很可能會脫離我們的控制。這並不是說您擁有一台試圖接管世界的超級電腦。學校、工廠、世界各地都有數以百萬計的人工智慧官僚,他們以我們不理解的方式做出有關我們的決定。

民主在很大程度上是關於問責制的。問責制取決於理解決策的能力。如果…當您向銀行申請貸款而銀行拒絕您時,您問“為什麼不呢?”,答案是:“我們不知道,演算法會查看所有數據並決定不給您貸款,我們只相信我們的演算法,這在很大程度上是民主的終結。你仍然可以進行選舉並選擇你想要的任何人,但如果人們不再能夠理解這些關於他們生活的基本決定,那麼就不再有責任。

你說我們仍然可以控制這些事情,但是我們能控制多久?這個門檻是多少?什麼是事件視界?當我們跨越它時我們會知道嗎?

沒有人確切知道。我認為它的發展速度幾乎超出了所有人的預期。可能是三年,可能是五年,可能是十年。但我認為僅此而已。只要從宇宙的角度思考一下就可以了。我們是人類 40 億年有機進化的產物。據我們所知,有機進化始於 40 億年前地球上的這些微小微生物。多細胞生物、爬行動物、哺乳動物、猿和人類的進化花了數十億年。數位進化,非有機進化,比有機進化快數百萬倍。我們現在正處於一個可能持續數千年甚至數百萬年的新進化過程的開始。我們今天所知的2024年的人工智慧,ChatGPT等等,它們只是人工智慧演化過程中的變形蟲。

您認為民主國家真的能夠與這些 21 世紀的資訊網路相容嗎?

取決於我們的決定。首先,我們需要認識到資訊科技不是一方的東西。一方面不是民主,另一方面不是資訊科技。資訊科技是民主的基礎。民主建立在資訊流動之上。

在歷史的大部分時間裡,由於資訊科技的缺失,不可能建立大規模的民主結構。民主基本上是很多人之間的對話,在幾千年前的一個小部落或一個小城邦中,你可以獲得全部人口或大部分人口,比如說古代的雅典在城市廣場決定是否與斯巴達開戰。進行對話在技術上是可行的。但分佈在數千公里之外的數百萬人無法相互交談。他們無法進行即時對話。因此,在前現代世界中沒有一個大規模民主的例子。所有範例的規模都非常小。

報紙、電報、廣播電視興起後,大規模的民主才得以成行。現在,您可以在廣闊的領土上與數百萬人進行對話。因此,民主是建立在資訊科技之上的。每當資訊科技發生重大變化時,建立在其之上的民主就會發生地震。這就是我們現在在社群媒體演算法等方面所經歷的情況。這並不意味著民主的終結。問題是,民主會適應嗎?

您認為人工智慧最終會使權力平衡向民主社會還是極權社會傾斜?

同樣,這取決於我們的決定。最壞的情況都不是,因為人類獨裁者在人工智慧方面也存在著很大的問題。在獨裁社會,你不能談論任何政權不希望你談論的事情。但實際上,獨裁者在人工智慧方面也有自己的問題,因為它是一個無法控制的代理人。縱觀歷史,對人類獨裁者來說,最可怕的事情就是下屬變得太強大而你不知道如何控制。如果你看看羅馬帝國,你會發現沒有一個羅馬皇帝被民主革命推翻過。沒有一個。但他們中的許多人被暗殺或廢黜,或成為自己下屬、有權有勢的將軍或省長、他們的兄弟、他們的妻子或他們家庭中其他人的傀儡。這是每個獨裁者最大的恐懼。獨裁者基於恐懼來治理國家。

現在,你如何恐嚇人工智慧?你如何確保它始終處於你的控制之下,而不是學會控制你?我將給出兩個真正困擾獨裁者的場景。一種簡單,一種複雜得多。在今天的俄羅斯,將烏克蘭戰爭稱為戰爭是一種犯罪行為。根據俄羅斯法律,俄羅斯入侵烏克蘭是特殊軍事行動。如果你說這是一場戰爭,你就可以進監獄。現在,俄羅斯人已經透過慘痛的教訓學會了不要說這是一場戰爭,也不要以任何其他方式批評普丁政權。但俄羅斯網路上的聊天機器人會發生什麼事呢?即使政權審查甚至自己生產了一個人工智慧機器人,但人工智慧的特點是人工智慧可以自行學習和改變。

因此,即使普丁的工程師創建了一個人工智慧政權,然後它開始與俄羅斯網路上的人們互動並觀察正在發生的事情,它也可以得出自己的結論。如果它開始告訴人們這實際上是一場戰爭怎麼辦?你做什麼工作?您無法將聊天機器人送到古拉格集中營。你不能毆打它的家人。你的舊恐怖武器對人工智慧不起作用。所以這是一個小問題。

最大的問題是,如果人工智慧開始操縱獨裁者本人,會發生什麼事。在民主國家奪取權力非常複雜,因為民主很複雜。假設未來五年或十年,人工智慧學會如何操縱美國總統。它仍然需要應對參議院的阻撓。它知道如何操縱總統這一事實並不能幫助它與參議院、州長或最高法院打交道。有很多事情需要處理。但在俄羅斯或北韓這樣的地方,人工智慧只需要學習如何操縱一個極度偏執和不自知的人。這很容易。

您認為民主國家應該採取哪些措施來在人工智慧世界中保護自己?

一件事是讓公司對其演算法的行為負責。不是針對使用者的操作,而是針對他們的演算法的操作。如果 Facebook 的演算法正在傳播充滿仇恨的陰謀論,Facebook 就應該為此負責。如果 Facebook 說,「但是我們沒有創造陰謀論」。它是由某個用戶創建的,我們不想審查他們,然後我們告訴他們,「我們不要求你審查他們。我們只是要求您不要傳播它。我不知道,你想想《紐約時報》。我們希望《紐約時報》的編輯在決定將哪些內容放在頭版頂部時,確保他們不會傳播不可靠的訊息。如果有人帶著陰謀論來找他們,他們不會告訴那個人,“哦,你被審查了。”你不被允許說這些話。因此,恕我直言,您可以繼續這麼說,但我們不會將其放在《紐約時報》的頭版上。

他們告訴我們,「但是我們如何知道某件事是否可靠?」好吧,這是你的工作。如果你經營一家媒體公司,你的工作不僅僅是追求用戶參與,而是負責任地採取行動,制定機制來區分可靠和不可靠的訊息,並且只傳播你有充分理由認為可靠的訊息。以前已經做過了。你們並不是歷史上第一批有責任區分可靠和不可靠資訊的人。報紙編輯、科學家、法官以前都做過這樣的事,所以你可以學習他們的經驗。如果你做不到這一點,那麼你就進入了錯誤的行業。所以這是一回事。讓他們對其演算法的行為負責。

另一件事是禁止機器人參與對話。人工智慧不應該參與人類對話,除非它被識別為人工智慧。我們可以將民主想像成一群人圍成一圈互相交談。突然,一群機器人進入了圓圈,開始大聲說話,充滿激情。而且你不知道誰是機器人,誰是人類。這就是現在世界各地正在發生的事情。這就是談話崩潰的原因。並且有一個簡單的解藥。除非機器人被識別為機器人,否則不歡迎它們進入對話圈。比如說,有一個地方,一個房間,供人工智慧醫生使用,只要它能辨識自己的身份,它就會給我醫學建議。

同樣,如果你在 Twitter 上看到某個故事被瘋傳,那裡的流量很大,你也會產生興趣。「哦,每個人都在談論的這個新故事是什麼?」每個人是誰?如果這個故事實際上是由機器人推動的,那麼它就不是人類。他們不應該參與談話。再次決定當天最重要的主題是什麼。這對民主社會、任何人類社會來說都是極為重要的議題。機器人不應該有能力確定哪些故事主導對話。再說一遍,如果科技巨頭告訴我們,“哦,但這侵犯了言論自由”,但事實並非如此,因為機器人沒有言論自由。言論自由是一項人權,是人類的權利,而不是機器人的權利。