從這裡開始行動 - 用機器學習自動發現資料規律,讓數據分析更快更準
- 蒐集至少三種不同來源的資料,每份樣本量達500筆以上
提升模型辨識多元規律的能力,減少單一來源偏誤
- 隨機預留10%原始資料作為測試集,全程不參與訓練
確保成效驗證時能反映真實未知情境,避免高估模型表現
- 每次訓練後檢查準確率、召回率兩項指標都超過80%
平衡正確預測與未漏掉重要訊息,防止只追求單一分數
- `k折交叉驗證`設定k值在5至10之間重複評估
有效利用有限資料避免偶然結果,提高模型穩定性
電腦學會找規律?機器學習是什麼
機器學習這東西,其實很多年以前,電腦都是乖乖照著人寫好的規則在跑。嗯,那時候沒啥意外,你叫它幹嘛就幹嘛,雖然偶爾還是會出點包啦。不過後來事情變了,人開始把一大堆數據倒進電腦裡——就是那種真的多到你不想看的那種資料,結果電腦居然能從裡面發現一些我們自己都沒察覺的規律。好像有點神奇,其實也只是機器學習罷了。
講到什麼叫機器學習?唉,有時候舉例比定義還有效…嗯,你可以試著想像你家狗。我沒有狗,不過有人說訓練狗撿球很像機器學習。一開始你把球丟出去,牠看著你,一臉茫然,好吧。可是多示範幾次,每次牠做對了就給獎勵,慢慢地牠好像懂了這個遊戲的套路。其實電腦也是差不多,只是主角換成冷冰冰的機械而已。我們灌給它一堆範例,它就自己摸索、推敲、找出那些關鍵模式,最後做到某些任務還真有模有樣。
啊對,有個詞常出現——特徵與標籤。有時候聽起來很專業,但其實簡單講就是:所謂資料集,就是拿來餵給那些機器學習模型用的一大坨數據,全世界的人都在搞這玩意兒。欸,我剛是不是岔題了?嗯,不管怎樣,重點就是要讓電腦看到夠多例子,它才抓得到箇中奧妙,不然真的什麼都別談。
講到什麼叫機器學習?唉,有時候舉例比定義還有效…嗯,你可以試著想像你家狗。我沒有狗,不過有人說訓練狗撿球很像機器學習。一開始你把球丟出去,牠看著你,一臉茫然,好吧。可是多示範幾次,每次牠做對了就給獎勵,慢慢地牠好像懂了這個遊戲的套路。其實電腦也是差不多,只是主角換成冷冰冰的機械而已。我們灌給它一堆範例,它就自己摸索、推敲、找出那些關鍵模式,最後做到某些任務還真有模有樣。
啊對,有個詞常出現——特徵與標籤。有時候聽起來很專業,但其實簡單講就是:所謂資料集,就是拿來餵給那些機器學習模型用的一大坨數據,全世界的人都在搞這玩意兒。欸,我剛是不是岔題了?嗯,不管怎樣,重點就是要讓電腦看到夠多例子,它才抓得到箇中奧妙,不然真的什麼都別談。
圖像裡的牛:特徵和標籤的奇怪比喻
在機器學習這一塊,好像大家都會講「模型」取代說是電腦吧,嗯,不知道是不是只是我這麼覺得。欸,其實想想也蠻有趣的,畢竟你跟朋友聊天也不會說「我的電腦幫我找出規律」,反正就是這個模型負責去資料裡挖東西。每次它分析,都偷偷變厲害一點,就是這樣。資料集就像它每天看的報紙?算了,怎麼突然想到報紙…拉回來啦——總之,它就是靠分析一堆數據,一次又一次地慢慢優化自己的表現。
然後模型還滿像偵探會找線索的,它要從那些照片或文字裡認出什麼叫特徵(Features)、什麼叫標籤(Labels)。好啦,我舉例好了,有時候講理論腦袋超脹…。假設你拿了一疊牛的照片給它看,你心裡可能只想著:「拜託,只要能判斷是不是牛就夠了!」結果那模型自己在那邊研究起來——「嗯,原來牛長這樣啊,有四條腿、一隻大鼻子、還拖著尾巴。」那種特徵就是我們說的所謂「特徵」。至於牠是哪隻牛,被歸類成什麼,就是「標籤」。嗯…為什麼我突然想到自己小時候畫動物都沒畫過鼻子?啊,好啦,再度岔題。
然後再談到訓練模型,大部分時間講到「訓練一個機器學習模型」其實意思很單純。不外乎是把準備好的大量範例資料丟給它,用力餵飽;讓它逐步摸索出應該怎麼分類或預測。唉,每次看到有人自信爆棚地說已經完全懂機器學習,我都忍不住懷疑他們是不是真的有試過手動整理一整包圖片檔案?……喔對,本段主旨是在解釋訓練嘛,差點又跑遠。
然後模型還滿像偵探會找線索的,它要從那些照片或文字裡認出什麼叫特徵(Features)、什麼叫標籤(Labels)。好啦,我舉例好了,有時候講理論腦袋超脹…。假設你拿了一疊牛的照片給它看,你心裡可能只想著:「拜託,只要能判斷是不是牛就夠了!」結果那模型自己在那邊研究起來——「嗯,原來牛長這樣啊,有四條腿、一隻大鼻子、還拖著尾巴。」那種特徵就是我們說的所謂「特徵」。至於牠是哪隻牛,被歸類成什麼,就是「標籤」。嗯…為什麼我突然想到自己小時候畫動物都沒畫過鼻子?啊,好啦,再度岔題。
然後再談到訓練模型,大部分時間講到「訓練一個機器學習模型」其實意思很單純。不外乎是把準備好的大量範例資料丟給它,用力餵飽;讓它逐步摸索出應該怎麼分類或預測。唉,每次看到有人自信爆棚地說已經完全懂機器學習,我都忍不住懷疑他們是不是真的有試過手動整理一整包圖片檔案?……喔對,本段主旨是在解釋訓練嘛,差點又跑遠。

模型訓練—資料、答案與調整參數之間
每個範例啊,基本上都會有一組輸入(就是特徵那類的東西)還有對應的正確答案,也就是標籤。嗯,有點像考試卷吧。模型自己在看這些訓練資料時,它就會開始想辦法找出裡頭藏著的什麼規律、模式什麼的……其實我也不太懂為什麼它行得通,但反正據說有效。
然後,在過程裡面,模型會慢慢地去調整它內部的一些「規則」或參數啦──這說法聽起來很抽象,可是你就把它想成一直修修改改自己的準則,目的當然是讓預測越來越準確,不過做到什麼程度算好誰知道呢?欸,我突然想到剛才還沒講完,先回到主題。總之等到訓練結束以後,那個模型大致已經吸收了之前所有學習內容,就可以拿去丟給那些全新的、以前根本沒見過的資料進行預測,看看到底能不能猜得對。
譬如說,你給他1000張動物照片,每張下面都寫清楚名稱,例如「dog」、「cat」,然後希望機器能分辨狗跟貓到底差在哪裡──大概場景就這樣,很無聊但挺典型。
再來講測試。唉,其實很多人常常忽略這部分,就是說啊,你在訓練模型時最怕就是它只會背熟老資料,結果一換新題目就亂七八糟。所以真正重要的是要確認模型用在全新資料集上的表現,而不是只盯著那些早就看過幾百次的舊範例。如果你一直重複餵它同一堆材料……呃,那其實根本沒意義。我記得大家通常怎麼做呢?喔對啦,一般都會把所有手上資料切成兩份或更多——
然後,在過程裡面,模型會慢慢地去調整它內部的一些「規則」或參數啦──這說法聽起來很抽象,可是你就把它想成一直修修改改自己的準則,目的當然是讓預測越來越準確,不過做到什麼程度算好誰知道呢?欸,我突然想到剛才還沒講完,先回到主題。總之等到訓練結束以後,那個模型大致已經吸收了之前所有學習內容,就可以拿去丟給那些全新的、以前根本沒見過的資料進行預測,看看到底能不能猜得對。
譬如說,你給他1000張動物照片,每張下面都寫清楚名稱,例如「dog」、「cat」,然後希望機器能分辨狗跟貓到底差在哪裡──大概場景就這樣,很無聊但挺典型。
再來講測試。唉,其實很多人常常忽略這部分,就是說啊,你在訓練模型時最怕就是它只會背熟老資料,結果一換新題目就亂七八糟。所以真正重要的是要確認模型用在全新資料集上的表現,而不是只盯著那些早就看過幾百次的舊範例。如果你一直重複餵它同一堆材料……呃,那其實根本沒意義。我記得大家通常怎麼做呢?喔對啦,一般都會把所有手上資料切成兩份或更多——
<pre><code class="language-yaml">- 訓練集(training set):這堆就是機器真的看到、照著去學習的部份;欸,我剛是不是打岔太多了?拉回主線。
訓練集、測試集,還有那個常被忘記的驗證集
- **測試集**:嗯,怎麼說呢,測試集這玩意兒其實就是把模型從來沒碰過的一堆資料丟給它看看會發生什麼事。有點像考試時老師突然拿出一份你完全沒見過的題目。你可能會想「那驗證集又是啥?」先等等,我自己都容易混淆。</code></pre>
- **驗證集**:也是訓練階段不讓模型偷看的資料,但主要用來在調參數時觀察表現,然後判斷模型是不是已經開始唬爛,比如出現過擬合或欠擬合。欸,我每次聽到「欠擬合」都覺得好像在形容某種生活狀態,其實不是啦,總之這套流程有點複雜,但也沒辦法,就是得照著規矩走。
### 過擬合
講到過擬合,有時候真的很煩啊——模型學東西學太認真了,連那些亂七八糟的雜訊都記下來。這就像背書只背範本答案,不懂意思還硬要裝懂。唉,好像我學生時代也常幹這種事。
比方說吧:
- 你搞了一個辨識貓咪照片的模型。
- 它死記住了訓練集中每隻貓的毛色、鬍鬚長度、耳朵角度……反正細節全塞進腦子。
- 可是一但換成一張新的、不在訓練裡面的貓照片,它就傻眼:「呃?這誰?」因為它根本沒弄懂什麼才叫做「貓」的共通特徵。
所以結果往往就是訓練時準確率高到爆棚,一旦遇上外面的世界就立刻掉鏈子。講真的,有時候人也是這樣,大概吧——只是我們更會掩飾而已。

過度背誦?訓練得太好可能出錯
欠擬合這詞,每次看到我都會想起那種還沒睡醒、腦袋一團糨的感覺。模型本來應該能學到點什麼吧,結果太簡單或者資料吃得不夠多,連訓練集都搞砸了。嗯,就是那種你明明有讀書但腦子像空白一樣的窘境,唉,其實滿常見的耶。它根本抓不到資料裡有意義的模式,所以錯誤率自然也就高到讓人搖頭。
話說回來——欸剛剛講哪?啊對,交叉驗證。有時候寫到這邊腦筋會打結,不過拉回來。交叉驗證聽起來好像很嚴肅,其實就是一種在資料有限時用來評估模型表現的方法,比起只有訓練集跟測試集分兩半,那種老方法更靈活。它把所有數據切成幾等份(他們叫fold),比如k個fold好了,你可以想成k片蛋糕啦,只是這蛋糕不能拿來吃,可惜。
然後呢,每一次拿其中一塊(也就是某個fold)當測試集,剩下那k−1塊拼起來做訓練集。我上次自己手賤算過流程,好麻煩。總之就是輪流換位置,把每個fold都跑過一遍,用不同組合讓模型訓練與評估,都要嘗試一下才不會漏掉潛在狀況。有時候真的很懷疑自己到底記住多少細節……不過反正重點是:這樣才能比較完整地看清楚模型可能出現什麼各式結果,也比較敢說你這個模型到底行不行,大概就這樣啦。
話說回來——欸剛剛講哪?啊對,交叉驗證。有時候寫到這邊腦筋會打結,不過拉回來。交叉驗證聽起來好像很嚴肅,其實就是一種在資料有限時用來評估模型表現的方法,比起只有訓練集跟測試集分兩半,那種老方法更靈活。它把所有數據切成幾等份(他們叫fold),比如k個fold好了,你可以想成k片蛋糕啦,只是這蛋糕不能拿來吃,可惜。
然後呢,每一次拿其中一塊(也就是某個fold)當測試集,剩下那k−1塊拼起來做訓練集。我上次自己手賤算過流程,好麻煩。總之就是輪流換位置,把每個fold都跑過一遍,用不同組合讓模型訓練與評估,都要嘗試一下才不會漏掉潛在狀況。有時候真的很懷疑自己到底記住多少細節……不過反正重點是:這樣才能比較完整地看清楚模型可能出現什麼各式結果,也比較敢說你這個模型到底行不行,大概就這樣啦。
沒學會就上場?欠缺理解的模型困境
機器學習啊,其實要驗證模型好壞,主要有三種途徑。監督式學習、非監督式學習,還有強化學習。我剛背的時候覺得這些名字真拗口,不過說穿了就是這三種分類啦。有點想喝水,先講第一個。
監督式學習吧,有人會用那種超積極的學生來類比它。嗯,就是你給他一堆題目跟正確答案,他就死命練、一直對照老師怎麼解,到後來答題越來越準。欸,可是這也太死板?不過在現實中,它真的就是靠大量標記資料在訓練模型—每個輸入配著一個標準答案,讓系統慢慢調整參數,追求預測正確率最大化。好像考前猛刷題但又老愛分心的感覺。
然後再提非監督式學習。唉,每次想到這個我都莫名其妙懷疑自己當初是不是根本沒搞懂。不給答案,直接丟一大堆數據進去,看模型能不能自己整理出什麼規律,比如自動把資料分類成幾群之類的,大概就像—欸,我高中的分組活動都很混亂—反正最後大家自然形成小圈圈吧。所以非監督就像完全沒人領路,只能靠直覺摸索世界長什麼樣。
至於強化學習咧,其實挺特別的,啊我腦袋常常跳針想起電動玩具角色拼命升級。模型在環境裡面不斷嘗試行動,每做一次選擇就得到獎勵或懲罰訊號,好像走錯路被扣分、走對了加分;累積經驗後慢慢找到最佳策略。唉,有時候人生也差不多吧,一邊犯錯、一邊賺經驗值?
總之啦,不管是哪一型機器學習方式,各自都有不同應用場景。如果突然忘記哪個是哪個,也不用太糾結,本來知識有時候就很雜亂無章—可能明天醒來又全忘光了,但今天總算大致理清楚。好累喔。
監督式學習吧,有人會用那種超積極的學生來類比它。嗯,就是你給他一堆題目跟正確答案,他就死命練、一直對照老師怎麼解,到後來答題越來越準。欸,可是這也太死板?不過在現實中,它真的就是靠大量標記資料在訓練模型—每個輸入配著一個標準答案,讓系統慢慢調整參數,追求預測正確率最大化。好像考前猛刷題但又老愛分心的感覺。
然後再提非監督式學習。唉,每次想到這個我都莫名其妙懷疑自己當初是不是根本沒搞懂。不給答案,直接丟一大堆數據進去,看模型能不能自己整理出什麼規律,比如自動把資料分類成幾群之類的,大概就像—欸,我高中的分組活動都很混亂—反正最後大家自然形成小圈圈吧。所以非監督就像完全沒人領路,只能靠直覺摸索世界長什麼樣。
至於強化學習咧,其實挺特別的,啊我腦袋常常跳針想起電動玩具角色拼命升級。模型在環境裡面不斷嘗試行動,每做一次選擇就得到獎勵或懲罰訊號,好像走錯路被扣分、走對了加分;累積經驗後慢慢找到最佳策略。唉,有時候人生也差不多吧,一邊犯錯、一邊賺經驗值?
總之啦,不管是哪一型機器學習方式,各自都有不同應用場景。如果突然忘記哪個是哪個,也不用太糾結,本來知識有時候就很雜亂無章—可能明天醒來又全忘光了,但今天總算大致理清楚。好累喔。

k折交叉驗證:資料有限下的評估小把戲
你一邊教他各式例題——每道都把問題和正確答案寫得清楚明白,怕他搞錯嘛。學生就這樣反覆看、試著理解那些範例,久了,好像突然間就抓到訣竅了,也開始會自己應付類似的考題,不再每次都偷瞄筆記本。嗯,有點像在機器學習裡面那種模式:輸入其實就是問題(特徵),然後輸出嘛,就是答案(標籤)。至於模型,那…姑且說是個認真想及格的學生,拼命想弄懂兩者到底怎麼連起來。
唉,腦袋偶爾很亂,但舉個實際點的喻好了。例如:
1. 房價預測——「現在桌上躺著1,000間房屋還有它們各自的價格,你能不能幫我算下一間應該值多少錢?」很煩對吧。
2. 垃圾郵件檢測——「給你一堆我們已經標好是不是垃圾信的電子郵件,看你懂不懂分辨之後遇到的新郵件。」這種分類遊戲,其實也挺機械。
但老師剛開始總是站在旁邊盯緊緊,每題都直接給正確解答——那叫監督啦。不過等模型(就是那學生)做久了,經驗多了,也許某一天就敢自己動手解決事情,不需要老師一直提醒。欸,我又扯遠了對吧?拉回來講。
### 無監督式學習
無監督式學習呢,大概有點像……嗯,你丟給那位熱心學生一整箱亂七八糟、沒頭緒的資料,他只能靠自己的直覺去找規律。唉,有時候真的蠻難受—尤其資料根本沒附答案,只剩下孤零零的一堆內容讓人皺眉。不過,有些人似乎天生愛挑戰這種神祕感;或者只是沒別的方法可選吧?
唉,腦袋偶爾很亂,但舉個實際點的喻好了。例如:
1. 房價預測——「現在桌上躺著1,000間房屋還有它們各自的價格,你能不能幫我算下一間應該值多少錢?」很煩對吧。
2. 垃圾郵件檢測——「給你一堆我們已經標好是不是垃圾信的電子郵件,看你懂不懂分辨之後遇到的新郵件。」這種分類遊戲,其實也挺機械。
但老師剛開始總是站在旁邊盯緊緊,每題都直接給正確解答——那叫監督啦。不過等模型(就是那學生)做久了,經驗多了,也許某一天就敢自己動手解決事情,不需要老師一直提醒。欸,我又扯遠了對吧?拉回來講。
### 無監督式學習
無監督式學習呢,大概有點像……嗯,你丟給那位熱心學生一整箱亂七八糟、沒頭緒的資料,他只能靠自己的直覺去找規律。唉,有時候真的蠻難受—尤其資料根本沒附答案,只剩下孤零零的一堆內容讓人皺眉。不過,有些人似乎天生愛挑戰這種神祕感;或者只是沒別的方法可選吧?
三大類型初登場,監督非監督強化各自精彩
這次嘛,你什麼都不告訴他們,也沒特別說明什麼到底有多重要,反正就只是很簡單地丟下一句:「嗯,這裡有一堆資料——自己去找出規律看看吧。想怎麼分類就怎麼分類,看能不能自己抓到什麼特別的東西。」我突然想到,以機器學習那套講法來解釋會變成:輸入的是資料,然後你完全不知道輸出會長什麼樣(其實也挺沒安全感的…)。模型在做什麼?唉,就是傻傻地探索那些數據、嘗試用某種方式組織起來,可是全程壓根沒有給你「正確答案」參考,那哪知道該往哪走?
舉個例子好了,不過我現在腦袋有點混亂(剛才咖啡喝太急),呃──比如說,把買東西習慣差不多的顧客自動聚在一起,這個過程,我們叫分群(Clustering)。然後,其實本來還想補充點啥,但扯遠了。總之啦,就是讓機器自己去摸索、亂中找序而已。好像人生也是類似吧?哎,好像離題了,算了拉回來……重點就在於你根本沒告訴它標準答案是啥,它只能靠自己的笨方法慢慢試。
舉個例子好了,不過我現在腦袋有點混亂(剛才咖啡喝太急),呃──比如說,把買東西習慣差不多的顧客自動聚在一起,這個過程,我們叫分群(Clustering)。然後,其實本來還想補充點啥,但扯遠了。總之啦,就是讓機器自己去摸索、亂中找序而已。好像人生也是類似吧?哎,好像離題了,算了拉回來……重點就在於你根本沒告訴它標準答案是啥,它只能靠自己的笨方法慢慢試。

老師在旁盯著教:監督式學習細節雜談
發現異常的信用卡交易 → 這其實就是異常偵測啦。然後,嗯…3. 偏好與用戶相似內容 → 用戶行為模式。突然想到前天我自己也差點被刷卡詐騙,真是煩人,唉。不過還是要拉回來講正事。
### 強化學習
強化學習這玩意兒有時候讓我聯想到訓練小狗的過程🐶——你不會每一步都手把手教牠,而是比較像這樣:欸,如果牠做了你想要的動作,就給個獎勵,比如說餅乾啊、點心什麼的;但如果牠偏離預期,有時就乾脆啥都不給(偶爾可能語氣嚴肅一點,但畢竟狗嘛)。講著講著,我居然想起上次陪朋友遛狗,那隻柴犬死都不肯坐下來,結果誰理牠啊。
時間一久,其實小狗多少會領悟哪些事情可以賺到零食,所以就會慢慢調整自己的舉止,只為了多吃幾顆心愛的小餅乾。嗯,有時候覺得我們人類是不是也差不了多少。
機器學習裡面,大致結構長這樣:
Agent(代理人)→ 學習者,不管是演算法還是真正的小狗
Environment(環境)→ 互動發生的那片世界
Actions(動作)→ 代理人能夠選擇去做的各種行為
Reward(獎勵)→ 環境丟回來的一些反饋,也許有好有壞啦,例如「哇你好棒」或「呃這不好喔」之類。有點像人生吧?欸又扯遠了,好啦收回主題。
### 強化學習
強化學習這玩意兒有時候讓我聯想到訓練小狗的過程🐶——你不會每一步都手把手教牠,而是比較像這樣:欸,如果牠做了你想要的動作,就給個獎勵,比如說餅乾啊、點心什麼的;但如果牠偏離預期,有時就乾脆啥都不給(偶爾可能語氣嚴肅一點,但畢竟狗嘛)。講著講著,我居然想起上次陪朋友遛狗,那隻柴犬死都不肯坐下來,結果誰理牠啊。
時間一久,其實小狗多少會領悟哪些事情可以賺到零食,所以就會慢慢調整自己的舉止,只為了多吃幾顆心愛的小餅乾。嗯,有時候覺得我們人類是不是也差不了多少。
機器學習裡面,大致結構長這樣:
Agent(代理人)→ 學習者,不管是演算法還是真正的小狗
Environment(環境)→ 互動發生的那片世界
Actions(動作)→ 代理人能夠選擇去做的各種行為
Reward(獎勵)→ 環境丟回來的一些反饋,也許有好有壞啦,例如「哇你好棒」或「呃這不好喔」之類。有點像人生吧?欸又扯遠了,好啦收回主題。
亂成一團與獎勵驅動:無監督與強化式拼圖
目標是什麼?欸,就是學習一種能夠隨時間累積最多總獎勵的策略,簡單來說——怎樣做才最划算啦。唉,有時想想這種「最大化」是不是太功利?但管他的,反正大部分理論都是這樣嘛。
### 監督式、非監督式與強化學習之間的差別
話說回來,機器學習剛開始入門時,大多數人應該都會先碰到監督式學習吧。我也是,一開始根本搞不清楚狀況,覺得很混亂。監督式學習主要分兩類:回歸和分類。嗯,我在這裡一直想著昨晚沒睡好,到現在腦袋都還有點發脹。
像線性回歸那個東西,其實就是用一條直線去預測結果,但我常常搞錯公式順序,不知道大家會不會也一樣?明明看起來很簡單(就真的是畫一條線啦),可是細節又超多。有時候看到網路上的教學連結也頭昏眼花。不過,說到底這是入門必經之路,只能硬著頭皮上了。
至於分類呢,又是另一回事了。唉,不知道為什麼每次複習到這邊就特別想喝咖啡,然後思緒又飄走…咳咳,再拉回來。所以啊,你只要記住:監督式學習靠已知答案訓練模型,而非監督式跟強化學習則另有各自玩法——以後慢慢講吧。
### 監督式、非監督式與強化學習之間的差別
話說回來,機器學習剛開始入門時,大多數人應該都會先碰到監督式學習吧。我也是,一開始根本搞不清楚狀況,覺得很混亂。監督式學習主要分兩類:回歸和分類。嗯,我在這裡一直想著昨晚沒睡好,到現在腦袋都還有點發脹。
像線性回歸那個東西,其實就是用一條直線去預測結果,但我常常搞錯公式順序,不知道大家會不會也一樣?明明看起來很簡單(就真的是畫一條線啦),可是細節又超多。有時候看到網路上的教學連結也頭昏眼花。不過,說到底這是入門必經之路,只能硬著頭皮上了。
至於分類呢,又是另一回事了。唉,不知道為什麼每次複習到這邊就特別想喝咖啡,然後思緒又飄走…咳咳,再拉回來。所以啊,你只要記住:監督式學習靠已知答案訓練模型,而非監督式跟強化學習則另有各自玩法——以後慢慢講吧。