如果你覺得 AI 懂你,那你誤會了
為什麼我討厭 "AI Inference" 這個詞
在 AI 產業的詞彙裡,習慣將模型的運作稱為 "Inference"(推論)
雖然我知道這是工程術語,專指模型訓練完畢後,輸入數據並獲得輸出的過程
但在心理層面,我非常討厭 AI Inference 這個詞
因為 Inference 暗示一種 LLM(大型語言模型)並不具備的能力 —— 邏輯演繹
當大眾聽到「推論」時,腦中會浮現愛因斯坦對著黑板推導公式,或是夏洛克・福爾摩斯抽絲剝繭抓出兇手的畫面
然而目前商用 LLM(Gemini、ChatGPT、Claude…)真正在做的,仍然只是 Prediction(預測)
為什麼這重要?因為無論是日常使用,或者像我正在探索會進化的 AI 寫作系統的人
不瞭解 LLM 會與不會什麼,不是無法發揮它的實力,就是被 AI 幻覺耍了還不自覺
Inference 是種昂貴的誤解
"Inference" 這個單字,容易讓人誤解 AI 具備因果觀念
實際上,它連最簡單的數學題都是靠預測,而不是邏輯運算給出答案
I. 它只是文字接龍大師
如果我問你:「1 + 1 等於多少?」
推論(Inference) 的運作是理解數學公理,進行運算得出 2
預測(Prediction) 的運作是因為看過數十億次「1 + 1 =」後面接的是 2,所以預測下一個字是 2
這是個致命的差異
如果我們認為 AI 是在推理,我們就會試圖跟它講道理,以為它懂得因果關係
當它答非所問時,我們會覺得莫名其妙,然後試圖用邏輯矯正它
但如果我們知道 AI 只是在做預測,就會原諒它時不時吐出的怪奇回應
畢竟它產出的不是「思考後的想法」,而是「出現機率最高的下一個字」
II. 為什麼它可以算沒看過的算式
一個常見的反駁:「如果它要看過才能答對,為什麼我給它一串訓練資料裡沒有的算式,例如 123456 + 789012,它還是算得出來?」
這是因為它在訓練過程中,把數字間的對應變化轉換成神經網絡裡的「參數權重(Weights)」
說白了,它只是暴力找出數字間的對應規律
我舉幾個好懂的例子來拆解這個「好像會算數」的過程:
地圖上的座標
在 LLM 眼中,1、2 不像數學課本裡的數字,更像是地圖上的座標(地點)
雖然它沒看過某個特定的長算式,但在它心中的地圖,數字之間的「距離」和「方向」是固定的
從 2 走到 4 的路徑,跟從 6 走到 8 的路徑長得幾乎一模一樣(例如都是「往東走兩步」)
有了這張地圖,就算你告訴它一個陌生地點(沒看過的長數字),它只要照著相似的方向走,就能找到正確地點
反射般的填空慣性
當你給它一串大數字做加法時,它會依靠一種「局部反射動作」
當它看到個位數是 ...6 加 ...2 時,AI 不必知道它們來自於哪兩筆億級大數字
AI 只需要知道在讀過的幾兆字資料裡,當 6 和 2 在加號兩邊相遇,接下來最常出現的符號是 8
就像小朋友聽到「床前明月光」,自動會接「疑是地上霜」一樣。不是因為小孩理解詩的意境,單純因為前面幾個字一起出現後,後面的字就被「慣性」填空出來
它會算錯,如果它會算的話…
如果 AI 真的在算數,那不管數字怎麼變,它都應該能吐出正確答案
但實際上,如果你給目前的 LLM 一個 20 位數乘 20 位數 的乘法,它幾乎百分之百會出錯
為什麼?因為當數字太長,進位的連鎖反應會傳得很遠
一旦超過它「只看眼前這幾個字」的反射填空能力,就會開始亂猜
III. 按下「思考」,AI 並沒有變聰明
那麼 ChatGPT 或 Gemini 的「思考型模型(Reasoning Model)」,難道不是在推論?
不是,它們依然是在預測
當你看著螢幕上顯示「Thinking...」並跑出一大串思路時,本質上是 AI 在自言自語,它在產生資訊餵自己
這可以用過河的概念來解釋:
一般模式:AI 試圖直接從「問題」跳到「答案」,如果河太寬(問題太難),它容易掉進水裡(產生幻覺)
思考模式(Chain of Thoughts):AI 為了不落水,先在河裡放一塊石頭(第一步思考),踩上去,再放第二塊
從機率的角度看,這是將一個「低成功機率的巨大預測」,拆解成「一連串高成功機率的微小預測」
一般模式時,方程式長得像這樣:
f(你的提詞) = AI 吐出的答案
一旦你給的資訊不足,問題又特別難的時候,答案幾乎沒有參考價值
換成思考模式時,函數就變成這樣:
f(你的提詞 + AI 持續自言自語) = AI 吐出的答案
它產生的那些碎碎念(思路),會持續更新 f(x) 裡的 x(變數),並且持續預測階段性的 y(答案)
這樣一直重複,直到吐給你在螢幕上看見的最終回應
Context 的本質是「圍堵」
既然 LLM 是在猜,為什麼當你回應它時,它表現得像是「懂你」?
很簡單,因為你協助它縮小了猜測範圍
一樣,想像 LLM 是個函數 f(x) = y
你的每次回應都在給它更多資訊,或者說建立更多細節的情境(Context),自然讓 LLM 輸出的 y 也跟著改變
這樣的即時性變化,給你一種它「理解語意」、理解你的錯覺
這讓許多人以為 Context 是為了讓 AI「學會」某樣人事物
並不是。對 LLM 來說,Context 的本質是在「圍堵」
當你什麼都不告訴 AI,它處於一個 360 度全開放的預測空間,它隨便猜個「網路上最常見的回答」都很合理
當你開始給它資訊時,就是在那個預測空間築起一道一道牆
你在用資訊封死各個通往「錯誤預測」的路線,不斷限制它,直到只剩下一條路
所以當 AI 給出一個精準到讓你起雞皮疙瘩的回答時,別以為它有靈魂,它只是無路可走
用「玩弄機率」的思維操作 AI
理解這點後,提示工程(Prompt Engineering)就不再是「下指令」,而是在「設局」
面對 LLM,你要轉變人設,從一個「下令者」變成「機率玩弄者」
相信 Inference 的「下令者」常會給出簡短指令(如:「寫一篇關於精實創業的文章」),期待 AI 吐出令人滿意的文辭、深刻的見解,結果通常是平庸的廢話;當他學習提示工程下長指令,但得到不滿意的結果時,會很氣的回應 AI 哪裡做錯、哪裡不對
利用 Prediction 的「機率玩弄者」清楚 AI 需要資訊來「限縮預測範圍」,所以當他在下提詞時,無論長短,滿腦子想的都是怎樣用 Context 來玩弄 AI 產生預測的機率分布
譬如,我在探索會進化的 AI 寫作系統時,看到許多 AI 寫作教學要你餵 LLM 自己的文章做為範例
他們說這是為了讓 AI 學習你的風格、你的價值觀等等
現在我知道,完全不是這樣
當我餵給 AI 我過去的幾十篇作品時,並不是:
在教它我的風格,而是努力封死出現「官腔敘述」的機率
在教它我的觀點,而是努力封死出現「大眾觀點」的機率
我真正在做的,是透過堆疊大量前置資訊(Context),把 AI 預測出不合我胃口的文字機率,盡可能壓到最低
認清事實,才更好拿捏工具
其實,從實用角度來看,爭論 AI 會不會推論沒什麼意思
事實就擺在眼前,Tesla 已經啟動無安全員 Robotaxi 路測、Codex 編程能力已經遙遙領先人類
或許 LLM 不見得非要像人類那樣推論,只要有用就好
只是說到底, AI 是個工具
如果誤解工具原理,用起來無法得心應手
Inference 這單字賦予 AI 過多人性光環,當你意識它只是個依賴前文的超強填字系統,這工具用起來才會更就手
別指望它的「智商」,指望你用智商寫給它的「Context」
— allexx



這真是一個很好提醒,也說明得非常清晰!