人工智慧發展3.0趨勢 解析多智能體合作與決策挑戰

偶遇《Life 3.0》:科學人思路衝撞未來

有時候,人工智慧的世界裡幾乎每天都像在翻新定義邊界一樣,研究人員總是被推著往前走。大約十年光景吧,專注於技術和科學的人,在這領域摸索久了,也會對未來的智慧演化感到既期待又迷惘。那本叫《Life 3.0:Being Human in the Age of Artificial Intelligence》的書,不算小眾,但好像也不是每個同行都拿來細讀過。作者Max Tegmark談論的內容,其實不全是什麼冷冰冰的科技報告,更像是在聊人類遇上自己設計出來的智慧時,會怎麼看待自己。

回頭想,我當初應該是在一次偶然間翻開這本書——可能是因為最近太常和多代理學習或生成式人工智慧打交道吧。有些章節特別吸引我,不全是理論,而是一種很結構化但又充滿疑問的視角。對於習慣用基礎原理去分析問題的人來說,那種把複雜情境拆開再重組的方式,其實蠻親切。

文章寫到這裡,好像也不是純粹要整理書中的重點。反倒比較像是在分享一個一路參與、琢磨這些技術發展的人,他在閱讀之後產生的一些想法——有點私人,也摻著不少現場觀察。某些段落提到未來人工智慧會如何影響工作甚至生活,有部分推測,有部分則還得等時間檢驗。

說穿了,與其說是一份嚴謹梳理,更像邀請讀者一起繞進Life 3.0那些引人思考的小洞口,一邊走、一邊用自己的經歷碰撞那些概念。有時候話題不自覺就偏離主線,比如突然想到最近看到哪篇關於AI協作的新研究,又或者對某個假設抱持懷疑。但回過頭,再怎麼跳躍,好像還是少不了那句話:每次遇到新的技術突破,都讓人重新思考我們到底站在哪裡……至於答案,大概沒誰能說得準吧。

什麼是1.0、2.0、3.0,分類之外的混亂和啟發

有時候,人們會討論Tegmark的那些想法,怎麼影響我們對未來的想像,其實這些理論也悄悄地滲透到一些人的工作方式裡,好像在思考創新時自然而然會受到牽引。不是每個人都會把這本書當成手冊,但倒是有人說,它像個指南針一樣,在這種被AI改變節奏的新世界裡,或多或少給了大家點方向,雖然感覺還是有點迷失。

講到「Life 3.0」這本書,Tegmark用一種很簡單但又挺深刻的方法,把生命分成幾個層次。不是看外型,而是根據能不能學習、能不能改造自己來區分。這種分類方式,好像一下子就變成不少人腦中的座標軸。有些人在目睹AI領域那些突飛猛進的變化時,也開始試著用這角度來理解現況,有的人甚至把它當作參與創新的依據。

其實他那三階段,不算什麼複雜的理論:最早那類——有時候會叫做「Life 1.0」,大致上就是指細菌啦、病毒之類,比較原始的生命體。他們身體怎樣、行為怎麼樣,大多都是天生決定好的,也沒什麼機會更動。活著、繁殖——就差不多了。他們的一切好像都寫在基因裡頭,一代傳一代,很難說有什麼主動調整。

第二種狀態,就是目前人類的位置——有人稱作「Life 2.0」。至於第三階段嘛,還沒完全普及,有些爭議,但大概是……

Comparison Table:
主題內容
AI合作與獎勵設計利用機器學習設計環境和調整獎勵規則,以促進AI之間的合作,達成最佳成果。
未來情境與監督挑戰隨著深度強化學習代理人的提升,如何確保它們在無法監督的大型系統中發揮正面作用,變得越來越重要。
博弈論與機制設計的必要性這些理論提供基本原則,指導AI之間的互動,以避免潛在的風險。
對齊問題的重要性確保更自主且能自我提升的AI設定目標時符合人類價值觀,以防止意外後果。
倫理基礎與長期思考在快速創新的環境下,必須建立穩固的倫理基礎並進行前瞻性思考,以減少預期外狀況發生的可能性。

什麼是1.0、2.0、3.0,分類之外的混亂和啟發

從理論跑到現場,AI顛覆與我手下的小東西

人類的身體,好像一直都沒什麼大變,生理結構還是那一套,得靠演化慢慢來。可腦袋裡那些想法、知識還有整個社會的運作模式,其實彈性挺大的。你我隨時能學點新東西,比方說突然迷上外語、搞懂一門手藝,甚至換個活法也不是不可能。有些文化習慣好像只用幾年就能傳下去或變個樣,這種變化速度和靈活度,大概也是人類能夠在地球各處生活的原因之一。

至於人工智慧那邊,有種稱呼叫「第三階段生命」。據說如果真有哪天發展到那程度,就不是只能換想法、學技能而已了——連自己的身體,甚至本質都能動手改造。想像一下,一個系統可以自己決定要長成啥模樣,要不要加點新零件,環境怎麼變都能調整自己。不過這些聽起來離現在還有段距離吧,也許只是某些科幻小說裡才會看到。但假設真的有朝一日碰上了,人們應該會遇到不少前所未見的問題。

Tegmark談AI時常用一套分類方式,把自然和人工智能分得蠻清楚。對於喜歡把複雜問題拆解的人來說,他這種幾乎像數學定義的思考框架,其實滿方便整理頭緒。它不像坊間那些關於AI將來如何如何的空泛討論,而是給了大家一個比較容易抓住重點的方式。如果有人問,到底什麼才算智能?或者我們到底希望AI做到哪些事?這種系統化的方法或許能提供一些參考方向。不過,最終是不是真的適合所有情境,大概還要看未來怎麼發展才知道吧。

機制設計裡的公平正義?實驗室倫理小劇場

說到一個系統要徹底改變自己的本質,好像有點抽象,現實中這種事情也不常見。Tegmark 在《Life 3.0》裡談的未來藍圖範圍很大,但他其實還是會回頭講那些看起來已經在發生、或是快要變成日常的 AI 動盪。比方說,有人估計自動化可能讓好幾個產業重新洗牌,很多工作機會消失,也許就跟前幾次工業革命那樣,不過這一次速度快上不少。經濟型態、倫理規範都會被推著往前走,只是到底會怎麼演變,現在大家心裡也沒什麼把握。

而且高階 AI 出現之後,像自主機器人這類東西,恐怕在某些領域已經開始帶來新的困擾或機會。這些都不是「未來有一天」才需要面對的問題——現在就有人正在煩惱,要不要接受 AI 幫你做決策?用戶信任怎麼建立?公平到底誰說了算?尤其如果設計的是那種必須和人合作、甚至提升人的能力的智慧系統,那種微妙的不確定感就更明顯了。

自己如果是在應用研究領域打轉,大概每天都得想辦法把理論拉下來落地,所以對書裡預測近年內可能出現的新狀況特別有感。有時候開發工具時也忍不住猜:等這些東西真的進入社會,到底誰最先遇到麻煩?哪些需求是真的?Tegmark 的分析提供了一種角度,可以提前思考哪些趨勢值得注意,也可以提醒我們別忘了技術背後的人性。

還有就是,他談到的一些原則,比如強調設計時維持倫理標準——這點我覺得很難忽略。畢竟愈聰明的系統,一旦被拿去運用,各種影響力只多不少。如果沒有考慮清楚公平性、有益與否或者符不符合價值觀,很容易就和初衷南轅北轍。在我的專業領域(比如機制設計、賽局理論),AI 介入後結果是不是夠穩健、公平,好像真的得反覆檢查才安心。

總歸一句,《Life 3.0》提的一些想法,其實和我一直以來相信的事頗為接近:無論技術再厲害,都不能丟掉倫理或價值判斷。當然啦,人類自己的價值觀本身也常常搖擺,但正因如此,每次討論未來科技,不只是想像力,更要回頭看看那些可能支撐我們繼續向前走的小小信念。至於最後能不能真正落實,就留給時間吧……

機制設計裡的公平正義?實驗室倫理小劇場

超智慧閃現:爆炸、困惑,還有一點冷汗

如果說《Life 3.0》前面談到的那些人工智慧進展只是暖身,後面提到的事情就有點像是突然跳進了另一個世界。書裡討論的不僅是什麼深度學習、強化式學習這類現在比較常見的技術,而是直接把話題帶向更遠、更難預料的人工通用智能,也就是人們偶爾會說的那種“比人腦厲害很多”的超智慧體。有些地方會講到一種叫做“智慧爆炸”的概念,好像在說,如果哪天機器真的能自己優化自己,不曉得多久以後,就可能演變成一種能力遠遠超過我們想像的新生物。

不過,作者並沒有急著下定論。他舉了幾個不同狀況:有的情境比較溫和,也許AI願意當個引導者,跟人類一起合作;但也不排除有些版本比較無趣,例如所謂“動物園”式管理——意思大概就是機器掌權,人類被溫柔地保護起來,可卻慢慢失去了主導權。還有一些更讓人擔心的假設,比方說,如果這樣的超級智慧體跟我們價值觀完全對不上,那萬一出了差錯,人類社會可能陷入很被動甚至消失也說不定。

其實這些都不是什麼鐵口直斷的預測啦,比較像是在提醒大家去思考:萬一未來真的發展到那一步,我們是不是該提前準備一下?作為研究多智能體系統、博弈理論和深度增強式學習的人,看到這些議題時,很自然會聯想到目前手上正煩惱的一堆問題。有時候覺得這些討論離現實還蠻遙遠,但又好像隱約透露出某種重要訊號,只是到底怎麼應對,至今還沒有誰能給出非常明確的方法。

多智能體間暗潮湧動,合作或對抗?誰在操控規則

其實我做研究時,常常會碰到一種情況,就是得用機器學習去設計環境、調整獎勵規則,目標嘛,大概就是讓AI之間彼此合作、大家一起把成績弄到最好。可是等到想到Tegmark談的那些未來情境,這種事情的意義就突然變得明顯起來。比如說,如果有天這些深度強化學習(DRL)代理人真的變得很厲害,還被放進一些我們幾乎沒法監督的超大系統裡,那麼怎麼確保它們能夠真正幫上忙?要不然搞不好哪天亂搞一通也說不定。像博弈論啊、機制設計這一類東西,看起來就越來越重要了——也許可以提供某些基本原則,指導AI之間要怎麼互動。Tegmark提過有關AI動機和社會結構那一堆事,感覺上就是在提醒大家,要發展出不只理論、還包含實際操作的方法,好讓AI即使日後變得遠超過我們掌控,也不至於失控或走偏。所以他討論的那些內容,有時候會讓我跳脫眼前那些技術瓶頸,開始多想想以後如果AI自己組成社會、甚至參與建構新型態人類社會架構時,到底該注意什麼根本問題。

再講遠點,「Life 3.0」這本書其實還掀起不少爭議,不只是因為處理效率快,而是直接問到關於意識這個難題。Tegmark他倒沒有急著下結論,比如說到底人工智慧什麼時候才會「有意識」,或者機器是不是永遠都只能模仿。他比較像是在整理各派看法:有人認為,只要訊息處理夠複雜且統合,也許自然就產生主觀經驗,但也有人始終堅持,意識跟神經元好像扯不開。坦白說,目前科學界對這件事仍然眾說紛紜,我自己也是看了半天覺得,大概短期內很難搞清楚。

除了意識之外,其實還有另外一個問題很多人都掛心——所謂「對齊問題」。簡單理解就是,要怎樣確保未來更厲害、更自主甚至能自我提升的AI,它們設定的目標真的是跟人類價值一致?萬一稍微錯開一點點,那影響可能不是鬧著玩的。有些專家警告過,再聰明的系統,一旦偏離原先預期,有可能導致相當嚴重的後果。不過目前看來,要把所有細節都預想到,也並不是那麼容易;所以,各方現在就在摸索到底該怎樣才算穩妥地確保AI往好的方向走。不管怎樣,似乎只有繼續探究下去,才能漸漸靠近答案吧。

多智能體間暗潮湧動,合作或對抗?誰在操控規則

意識這件事,有沒有也許不重要但又很重要

Tegmark 講到要讓人工智慧學會人類的價值觀這件事,真的沒那麼簡單。人類的價值觀其實很細緻,有時候甚至互相衝突,而且也不是三言兩語就能寫進什麼程式碼裡。這些討論在他那本書《Life 3.0》裡出現,我自己讀起來,總覺得跟我平常碰觸過的那些靜心修行、還有關於意識哲學之類的話題,其實有點像。不少傳統修行、精神探究路徑,動輒追問意識是什麼、主觀經驗又是怎樣,或者甚至會聊到現實到底是真還是假——這種幾百年下來累積的想法,我倒覺得挺適合用來想像如果未來真的有「非生物」的自我意識該怎辦。

說真的,我對於科學層面上關於「意識」這個議題,不只是看個理論而已。反而覺得自己在思考人工智慧時,多少都會被這些東西影響。如果哪天我們真的弄出某種新型態的「意識」,或至少做出一套比現在厲害很多的人造模仿品,那是不是該更謹慎、更負責任?雖然關於 AI 能不能算有自我感知,目前大概還只能猜測,可萬一哪天失控了,大概也不只是哪小群人受影響,世界可能都跟著變了。所以單純把技術推到極限,好像遠遠不夠;與其說要打造強大的系統,不如講我們應該努力去培養「智慧型」系統吧,就算沒那麼完美,也至少讓它們能體現或協助人類本身積累下來的一點生活智慧。Tegmark 的反思好像一直提醒大家,在加速設計未來智能同時,也別忘記回頭認真搞懂我們內心真正重視的是什麼,到底希望哪些價值被保留下去。

至於閱讀《Life 3.0》這件事嘛,其實它帶給我的刺激不光只是腦袋上的收穫,比較像是一劑催化劑,把我原先習慣拿來判斷事情的一些基本信念又攪動了一遍。我們每個人在做選擇時,多多少少心裡都有一套規則,只是有人明白,有人沒特別想過而已。對我而言,有條理、有步驟地處理問題,以及專注在那些可以控制的小地方,一直都是重要原則——畢竟只要把握住好的前提和細節,後面的結果通常就比較容易往正面發展。不過最近看 Tegmark 討論 AI 發展方向之後,我發現自己對這些原則,好像開始多了一層急迫感。有些以前覺得「以後再說」的小問題,如今看起來卻不太能拖了。

偶爾也會跑神,比如想到人的判斷力到底靠的是什麼?是不是只靠理智就夠?AI 如果變得比現在複雜很多,我們能不能確保它理解那些微妙情境?不敢肯定啦,但大致就是——越讀下去,越覺得工程師、決策者或者普通使用者,本身好像更該花時間搞清楚:我們到底希望機器延續甚麼樣的人性與價值。

價值觀塞進AI腦袋的那些難題與一絲無力感

Tegmark在書裡提到那些關於超級智慧沒對齊的情境,坦白說,看完後腦中會突然浮現一種「這事真的不能大意」的感覺。AI越來越厲害時,大家其實比較少去細究過程本身——什麼安全規範、道德準則、價值觀校準等等,但如果照書裡的推敲,這些環節好像不只是重要而已,有可能跟整個人類社會未來都息息相關。設計每一步時得特別小心,有點像是在玩那種很難存檔的大型遊戲。

有時候分不清哪些決策是一條路走到黑、再也回不了頭?哪些又還能調整?有人把這叫「單向門」跟「雙向門」,好像也蠻貼切。人工智慧要發展到通用層級,書裡說這大概是最接近單向門的事情了吧。只要超級智能出現,我們要是想逆轉或控制它,可能就不是件容易的事。有些分析甚至懷疑根本做不到,所以一開始就得比以往謹慎許多,多討論、多預想各種情況,不然哪天無法回頭就麻煩了。

Tegmark還花不少篇幅聊各式各樣AI未來劇本,每種結局機率看起來都不太一樣,他講得蠻細,有些路線風險很大,有些則潛力無窮。思考下來,那種失控超級智能帶來災難性的後果,其實不用精算數據,大致也知道風險極高;反過來,如果能妥善引導,AI可能真能幫上很多忙。但因為兩邊落差太明顯,一邊糟到極點、一邊又充滿希望,所以怎麼避開壞結局,好像變成壓倒性重點,即使實際發生機率不到半數,也值得投入大量資源先預防。

另外還有個有趣角度,以前一直認為可持續發展就是健康長壽之類,但現在看,「長期適應能力」也許更廣泛——尤其AI進步速度比想像快很多。我們整體社會到底能不能跟上變化並且引導它,這問題以前沒特別放在心上;讀完這本書,好像開始意識到,人類適應與學習能力在未來某天說不定會變成主軸。不見得每項科技都有撤回鍵,對吧?

價值觀塞進AI腦袋的那些難題與一絲無力感

決策與原則—面對不可逆門檻時該怎辦才好呢

說起來,這本「Life 3.0」其實不只是聊人工智慧技術。有人翻了一下,大概會覺得它像是在邀請大家重新思考人類要往哪裡走,也讓不少讀者開始反省自己在這些變化裡能扮演什麼角色。或許書裡有些章節很早就提到過,對於生命分類的那種方式,不算全新,不過還是能啟發一些想法。而且,它對超級智慧和意識到底是怎麼回事,也講得比較坦率,只是細節有時讓人看了還會再猶豫一下。

其實,一路讀下來,理論倒不是唯一帶走的收穫。有人認為,「Life 3.0」更像是一個提醒──就是我們在做出更聰明的系統時,責任感不能丟掉。怎麼說呢?現在創新速度比以前快很多,但如果沒有一個比較穩固的倫理基礎,或者沒仔細想過長遠可能發生什麼事,很容易就會出現預期外的狀況。不光是技術,還要培養一種前瞻思考、倫理判斷和協作解決問題的能力,而且這規模也比以前大上好幾倍。

有些人在接觸這本書後,好像會慢慢把那些深刻問題融進自己原本的思維模式裡。有的人某些信念因此變得更加堅定,但也可能在其他地方打開了新的視野。偶爾回頭想想,如果一本書能引起這樣主動反省或推動一些行動,其實已經蠻不容易了。

最後,有關未來該怎麼走,目前也沒什麼標準答案。如果真的要樂觀,大概可以說,只要大家願意多花點心力去理解背後複雜性,再加上一點謹慎,其實面對AI世界的不確定,也許還可以找到屬於自己的位置吧。

抉擇之後,不確定裡的樂觀和下一步

「對齊問題」、「智慧爆炸的風險」,還有意識到底怎麼回事,這些問題在以前也許只是未來學者才會關心的某種假設;但到了現在,好像每個認真想投入人工智慧領域的人,都得面對這幾個議題。其實想想也不奇怪──討論 AGI 的人越來越多,大家開始擔心,這玩意如果發展太快,到底會變成什麼樣子?

我覺得像《Life 3.0》那本書帶來的討論就很有意思。有時候你會懷疑,是不是只有工程師或科學家要煩惱這些?可仔細想想,大概所有政策制定者、倫理學家,甚至普通大眾都該參一腳。畢竟 AI 的走向,不應該只是單方面被推著走,而是需要我們每個人一起思考、協調。

老實說,要理清楚所有複雜的挑戰,一點都不容易。AI 或許能幫忙處理許多棘手的難題,但同時也可能帶來新的困擾。我自己是打算繼續努力,希望能做出真正對社會有益處的東西,也不排斥跟各方交流,看看未來是不是可以讓人工智慧變成人類潛能的一種補充。

順帶一提,如果你還沒讀過《Life 3.0》,倒是可以找來翻翻。裡頭那些問題,有些看似遙遠,其實離現實並沒有太遠。有空就琢磨琢磨吧,也許會讓你重新思考現在科技發展的速度和方向。

講到最後,其實沒有人真的能預測 AI 未來會怎麼發展。不過只要大家都肯花點心思去討論、去修正路線,大約比較有機會朝著自己期待的位置前進吧。如果你剛好喜歡這篇文章,也許下面幾篇內容(像什麼《Sapiens》改變了我怎麼看待人類啦、生成式 AI 初探啦、強化學習初體驗之類)可能也適合你。不過說真的,每個人的感受都不同,看完後有什麼想法再聊囉。

Related to this topic:

Comments