嗯...今天要來聊聊一個,我自己最近想了很久的現象。
就是... 你有沒有過一種感覺,你的手機,或是 Google,好像... 比你還了解你自己?
我舉個例子。就上上禮拜吧,我一整個忙昏頭,完全忘了要固定打電話回家這件事。不是故意的,真的就是...事情一多,腦袋就亂了,你知道的。
p>然後呢,也沒人提醒我,我自己也沒設定行事曆。結果就在一個很尋常的下午,手機螢幕突然亮了,跳出一個通知,大概是寫「提醒:打電話給媽媽」。我當下真的...愣住了。我沒搜尋過,也沒跟誰傳訊息聊到這件事。它...它怎麼會知道?
這不是提醒,這感覺更像是一種...嗯...介入。它好像不是在等我下指令,它是在猜我想什麼,甚至,在我意識到自己需要做什麼之前,就先一步出手了。這就是所謂的「預測性運算」(anticipatory computing) 時代吧,感覺已經悄悄開始了。
重點一句話
簡單講,AI 不是真的會「讀心術」,而是透過分析你過去留下的海量數據——那些你可能早就忘了的數位足跡——去「統計」出你下一步最有可能的行為或需求。
所以,它到底怎麼知道的?
好,這聽起來很科幻對吧。但說真的,這背後不是什麼魔法,而是一些...嗯...很具體的技術組合。我們不用搞得太複雜,大概了解一下就好。
主要有三個東西在背後運作。
第一個,就是現在大家都在講的「大型語言模型」,也就是 LLM,像 Google 的 Gemini 就是其中之一。
很多人把 LLM 想得太神了,好像它有意識、會思考。但...我自己是覺得,你把它想成一個超級無敵強大的「自動完成」功能就好了。只是它完成的不是你的句子,而是...你的下一步行為。它讀了幾兆筆資料,從學術論文到網路廢文,它不懂什麼是「親情」或「愧疚」,但它知道「錯過電話」這個行為,跟「設定提醒」、「道歉訊息」這些字詞在統計上高度相關。它不是在串連情感,它是在串連數據點。
再來,光有 LLM 還不夠,因為它像個書呆子,只懂自己讀過的書(也就是訓練資料)。現實世界一直在變啊。所以就有第二個東西,叫「檢索增強生成」,RAG (Retrieval-Augmented Generation)。
這個...嗯...名字很饒口,但概念很簡單。就是給那個書呆子 AI 一張圖書館借書證,讓它可以隨時去網路上查最新的資料。比如說,它可以去掃描你 Gmail 裡的班機確認信,然後提醒你「欸,你媽不是要去義大利玩嗎?可以問她一下那不勒斯好不好玩」。RAG 讓一個靜態的 AI,變成一個可以跟你同步的動態夥伴。
最後一個,叫「多模態融合」。這就更好懂了。意思就是,現在的 AI 不只會讀文字,它還會看圖片、聽聲音。你拍一張生鏽的腳踏車鏈條,它不只認出那是鏈條,它可能還會去 YouTube 找修理教學影片,順便在論壇上搜一下哪個牌子的潤滑油CP值最高,甚至...它還記得你兩年前買的是哪一款腳踏車。在你開口問「這要怎麼修...」之前,答案就已經準備好了。
反例與誤解釐清
說到這裡,很多人會有幾個誤會。我覺得需要稍微澄清一下。
第一個誤會:「AI 真的在『讀』我的心」。這不對。就像前面說的,它沒有意識,它是在做數學題,算機率。它只是個超級厲害的模式辨識專家,你的「心事」對它來說,只是一組重複出現、可以被預測的數據模式。
第二個誤會:「我的資料很安全,因為都是匿名的」。嗯...這也很難說。你的數位足跡,就算拿掉了名字,組合起來也幾乎是獨一無二的。你的通勤路線、上網時間、常用的 App、說話的語氣...這些「元數據」拼湊起來,比你的身分證還能認出你。
還有一個誤會是:「這都是為了給我更好的服務」。是,也不是。出發點可能是為了方便,但最終目的...你知道的,大部分還是商業。它預測你想買什麼、需要什麼,然後在最精準的時機,把廣告推到你面前。方便的背後,總是有代價的。
是貼心還是讓人發毛?一個躲不掉的選擇
這就帶來了一個很矛盾的狀況。老實說,我自己也常常很掙扎。
一方面,我們超愛個人化。根據 Adobe 的研究,將近八成的使用者渴望「超個人化」的體驗。我們希望 App 知道我喜歡吃辣,推薦餐廳時就不要推清淡的;希望導航知道我討厭走小路,就幫我規劃大馬路優先的路線。
但另一方面,根據美國那個...嗯...皮尤研究中心(Pew Research Center)的調查,又有超過六成的人,其實根本不信任 AI 能好好處理他們的個人資料。這點跟我們在台灣看到的情況,我覺得有點像又有點不一樣。台灣人超愛方便,對新科技接受度很高,但同時對詐騙的警覺心又特別強。所以這種又愛又怕的感覺,可能更糾結。
所以,我們到底想要什麼?想要它懂你,但又怕它懂太多。這真的很矛盾。
| 場景 | 貼心的一面 (Helpful) | 讓人發毛的一面 (Haunting) |
|---|---|---|
| 健康 | 看你運動記錄跟天氣,提醒你今天可能太熱,跑步要多喝水...嗯,好像還蠻貼心的。 | 它怎麼知道我昨晚失眠?喔...從我半夜滑手機的頻率算出來的。然後就開始推我助眠課程廣告了。 |
| 社交 | 就像我前面說的,提醒我該打電話回家了。這真的...幫了大忙。 | 建議我「可以跟某某朋友聯絡」,因為演算法判定我們「互動率下降」。連友誼都要被 KPI 管理嗎? |
| 消費 | 知道我最近在看露營用品,主動推給我一些質感不錯又在特價的裝備。省了不少搜尋時間。 | 我只是跟朋友「聊到」想換吸塵器,手機放在旁邊,結果接下來三天所有 App 都被吸塵器廣告淹沒。 |
| 工作 | 分析我的行事曆,發現會議排太滿,建議我把其中一個延後,留點喘息空間。感覺有個聰明秘書。 | 「根據你的打字速度與錯字率,你的專注力正在下降,建議休息」。哇...連我分心都知道? |
那...我們還能怎麼辦?
聊了這麼多,好像很絕望,感覺我們都被演算法綁架了。但...我覺得也沒那麼糟啦。重點不是要回到沒有網路的時代,那不可能。重點是,拿回一點點...對,一點點主導權。
這裡有幾個我自己覺得可以試試看的方向,不是什麼標準答案,就是一些想法。
-
練習一點「無法被 AI 取代」的事:
AI 很會最佳化,但它不懂「意義」。試著一個月,就一個月,手寫一張卡片給朋友。那種筆跡、溫度,是 AI 算不出來的。或者,故意去做一件沒有「效率」的事,比如沒有目的地散步,讓自己迷路一下下。這種不確定性,是演算法最討厭,卻是身為人最寶貴的體驗。
-
定期大掃除你的「數位足跡」:
這很實際。你可以去 Google 的「我的活動」頁面(MyActivity.google.com)看看,真的會嚇到,它記錄了你幾乎所有的事。定期去刪除吧。還有,手機裡那些百年沒開的 App,把它們的權限關一關,或是乾脆刪掉。每個 App 都在你背後偷偷搜集資料,沒必要留著養它們。
-
當一個「數據懷疑論者」:
下次有 App 要求你開放定位或麥克風權限時,先停下來想一下:「它真的需要這個功能嗎?還是只是為了搜集我的資料?」很多時候,答案都是後者。可以的話,試著換一些更重視隱私的工具,像是改用 DuckDuckGo 搜尋,或用 Signal 傳訊息。不是說要完全杜絕,但至少讓自己有個選擇。
最後,還是要回到自己身上
說到底,那天 Google 提醒我打電話給我媽,它不是真的關心我,它只是執行了一個機率最高的建議。
真正該被提醒的,可能是我自己。提醒我自己為什麼忙碌,提醒我什麼事情才重要。
我覺得,真正的危險,可能不是機器有一天會取代我們。而是...我們在不知不覺中,把自己的「意圖」、自己的「選擇權」,都外包給了機器。
我們讓演算法決定我們該看什麼影片、該聽什麼音樂、該跟誰聯絡...久而久之,我們就懶得自己做決定了。
所以,未來的挑戰,或許不是去打造更聰明的 AI。而是,我們人類自己,要不要學著變得更清醒一點。知道什麼時候該聽 AI 的建議,然後,什麼時候...該把它關掉,拿起電話,去重新感受一下那種有點混亂、有點笨拙,但無比真實的人類連結。
換你說說看:
你有沒有被手機或 App「猜中」心事的經驗?是覺得很貼心,還是感覺毛毛的?在下面留言分享你的故事吧。
