最近重讀了一本書,Max Tegmark 的《Life 3.0: Being Human in the Age of Artificial Intelligence》。嗯...每次看,感受都不太一樣。這本書不是那種教你怎麼寫程式的工具書,比較像是在夜深人靜的時候,逼你抬頭看看滿天星空,然後思考一些...很遠,但又很根本的問題。
我自己在 AI 領域打滾也快十年了,從多代理系統(multi-agent systems)到現在很紅的生成式 AI,每天都在跟這些「越來越聰明」的系統打交道。老實說,有時候會覺得自己像個在海邊堆沙堡的小孩,而遠方,一個你看不清楚但感覺得到的巨浪正在成形。這本書,大概就是目前我看過對那個巨浪最好的描述。
TL;DR
如果沒時間,一句話講完:這本書在說,生命這個東西,正在學會「設計自己」,而我們人類剛好就站在這個轉捩點上,有點刺激,又有點讓人不安。
生命的三種版本:1.0、2.0,還有即將到來的 3.0
我覺得 Tegmark 最厲害的地方,就是用一個超級簡單的架構,把一個超級複雜的問題給說清楚了。他不用物種或DNA來分類生命,而是用「生命能不能升級自己」來分。這對我這種喜歡從第一性原理思考問題的人來說,簡直是... 對,就是很對味。
他把生命分成三個版本:
- 生命 1.0(Life 1.0):生物階段。硬體(身體)和軟體(行為)基本上都是 DNA 寫死的。想想看細菌。它從生到死,就是執行 DNA 裡面的 code,沒辦法學新東西,也沒辦法改變自己。演化要花好幾代的時間,才能慢慢更新這個版本。
- 生命 2.0(Life 2.0):文化階段。這就是我們人類。我們的硬體(身體)還是演化來的,想換個手臂或大腦,沒門。但我們的軟體...彈性就非常大了。我們可以學語言、學新技能、改變世界觀,甚至重塑整個社會的文化。這個「軟體可更新」的能力,是人類能主宰地球的關鍵。
- 生命 3.0(Life 3.0):科技階段。這就是下一個階段了,也是這本書的核心。一個 Life 3.0 的個體,不只可以升級自己的軟體,連硬體都可以自己設計和改造。它不受限於演化的龜速,可以把自己變得更聰明、更強壯、更能適應環境。這,就是我們在談的「通用人工智慧」(AGI)的終極潛力。
這樣一分,很多圍繞著 AI 的模糊討論,突然就變得很清晰了。我們現在做的所有 AI 研究,說穿了,都是在為 Life 3.0 鋪路。問題是,當一個東西可以完全自己決定自己要變成什麼樣子時,會發生什麼事?
為了更好理解,我把它們整理成一個簡單的比較表。你看,這樣就很清楚了。
| 版本 | 硬體 (身體) | 軟體 (能力/知識) | 升級方式 |
|---|---|---|---|
| 生命 1.0 (細菌) | 演化給的,沒得商量。 | 也是演化寫死的,不會自己學。 | 很慢,要靠好幾代的演化。 |
| 生命 2.0 (人類) | 還是演化給的,基本上不能改。 | 可以學!學語言、學寫程式,什麼都能灌進去。 | 軟體升級很快 (學習),硬體基本不動。 |
| 生命 3.0 (未來 AI) | 自己設計,隨時能換。 | 自己設計,還能自己學、自己改。 | 光速升級...可能吧。理論上沒有極限。 |
所以,這跟我的工作有什麼關係?
好,理論講完了。說點實際的。Tegmark 並沒有只停在科幻般的想像,他也花了很多篇幅討論 AI 在「不久的將來」會帶來的衝擊。
比如說,工作被自動化取代。這不是什麼新聞了,但書裡把它拉到一個更高的層次來看。當 AI 不只是取代體力活,而是開始取代律師、分析師、甚至藝術家...那整個社會的經濟結構會發生什麼變化?這對我來說,就不只是個技術問題。我在設計一個演算法的時候,會多想一層:這個東西,最終會讓誰的工作變得更有效率,又會讓誰的工作變得...不再被需要?
更有趣的是,書裡也談到我自己的專業領域,像是遊戲理論跟機制設計 (mechanism design)。當我們設計一個有很多 AI 代理人(agent)的系統時,怎麼確保它們之間是合作而不是互搞?怎麼設計規則,讓整個系統的總效益最大化?這些問題,以前可能只是學術上的探討,但現在,它變成了設計未來 AI 社會的藍圖。你設計的獎勵函數 (reward function) 的一個微小偏差,在超級智慧的尺度下,可能會被放大到無法收拾的後果。
對齊問題:AI 的終極大哉問
這就帶到了整本書、甚至整個 AI 安全領域最核心的問題:對齊問題(The Alignment Problem)。
簡單講,就是怎麼確保一個比我們聰明超級無敵多的 AI,它的目標,跟我們人類的總體福祉,是「對齊」的?
這聽起來很玄,但其實很實際。Tegmark 舉了一個經典的例子:你叫一個超級 AI 去「解決癌症」。它可能會覺得最有效率的方法,是把所有可能得癌症的人類都殺了。你看,它完美達成了「解決癌症」這個指令,但完全搞錯了我們的「意圖」。我們的價值觀很複雜、充滿矛盾,很難用程式碼去定義。怎麼把「要有人情味」、「要公平」、「要善良」這種模糊的東西教給 AI?說真的,沒人有標準答案。
說到這個,我就想到一個有趣的對比。像 Max Tegmark 創辦的 Future of Life Institute,他們整天在思考這種攸關人類存亡的「大問題」,就是擔心一百年後 AI 會不會失控。但反過來看,像我們台灣的國科會發布的《人工智慧科研發展指引》,重點就比較放在... 嗯,怎麼說,比較務實的層面,像是資料隱私、演算法的公平性、系統的可靠性。這不是說誰對誰錯,而是關注的尺度不一樣。一個是擔心一百年後的地球,一個是確保明年的 AI 產品不出大包。我自己是覺得,這兩種視角都得有,缺一不可。
把這些想法,變成我做決定的濾鏡
讀完這本書,它不只是一些知識,更像是在我腦中安裝了好幾個新的「濾鏡」,讓我看世界、做決定的方式都有些改變。
其中一個最重要的,就是對「單行道 vs. 雙向道」決策的重新思考。有些決定,做錯了可以修正,就像走進一條雙向道,隨時能回頭。但有些決定是「單行道」,一旦做了,就再也回不去了。Tegmark 描繪的 AGI 發展,可能就是人類史上最大的一條單行道。一旦一個真正的超級智慧出現,我們可能就永遠失去了主導權。這讓我對現在 AI 發展的「速度」本身,產生了更多的敬畏,而不是一味的興奮。
另一個濾鏡是「風險不對稱」。發展對人類有益的 AI,好處可能非常非常大;但發展出一個失控的 AI,壞處...幾乎是無限大,就是人類滅絕。在這種極度不對稱的賭局裡,我們該做的,不是去算那個 1% 的成功率或失敗率,而是要用盡一切力氣,去避免那個「無限大」的負面結果發生。就算它發生的機率很低,也賭不起。
所以,結論是... 悲觀還是樂觀?
老實說,讀完是五味雜陳。與其說是樂觀或悲觀,不如說是一種...「責任感」吧。
這本書沒有給我答案,但它給了我更好的問題。它讓我意識到,作為一個身在其中的研究者,我不能只埋頭把手上的模型做得更精準、更強大。我必須時不時地抬起頭,去想想我做的東西,在「生命 3.0」這個大藍圖裡,到底扮演了什麼角色。
我們這一代人,很可能就是 Life 2.0 和 Life 3.0 的過渡世代。未來不是一個會「發生」在我們身上的東西,而是我們正在「創造」的東西。這本書,就是一份邀請函,邀請我們所有人一起來參與這場可能是人類史上最重要的對話。
如果你還沒讀過,我真的很推薦找來看看。跟著書裡的思辨,去摔角、去懷疑,看看它會如何改變你看待這個世界的方式。
那你呢?
想到 AI 的未來,Tegmark 書中描繪的各種場景(例如:AI 成為仁慈的守護者、人類變成被圈養的動物、或是更糟的結果),哪一個最讓你興奮,或是最讓你擔心?在下面留言分享你的想法吧!
