EP-47 為什麼瞭解 AI 的極限能力,這麼重要
本文從理查・薩頓對語言模型的批評出發,說明為何理解 AI 的極限能力至關重要,並以 clasp 實作案例提出低風險的 Coding with AI 流程與 Agent 使用原則,協助讀者在實務中降低幻覺與錯誤。
在上上週我開直播,使用 Claude Code 製作以 Google 試算表為核心的軟體,中途有點小差錯。
主因是我對於 clasp 不太熟,這是 Google 開發的工具,能讓使用者在本地端開發程式後,直接推送到 Google Apps Script 雲端。
我原本想說全部交給 Claude 處理,讓 Claude 使用 clasp ,連線到 Apps Script 去寫程式。但是它弄錯了一些內容,所以後來我又花了一點時間,才把程式搞定。
這說明了一件事,現階段我們沒辦法做到真正的 Vibe Coding ,也就是說不太可能完全在不理解程式內容情況下,讓 AI 自由地寫程式。
我們通常要做 AI Coding ,或者 Coding With AI ,成為 AI 的領導者。
為什麼會這樣?
我們的 AI 發展路線可能搞錯了?
最近看了一段 YouTube 影片,是在討論圖靈獎得主理查·薩頓(Richard Sutton)如何批判當前主流的大型語言模型。
薩頓認為語言模型,從根本上是走上了一條錯誤的人工智慧發展道路。
1. 語言模型缺乏目標和基本智慧的本質
薩頓認為,擁有目標是智慧的精髓。如果一個系統沒有目標,它就不是智慧,而只是一個行為系統。不會比你家的洗衣機還要聰明多少。
語言模型有底下幾個缺陷,
無實質目標
語言模型被認為沒有實質目標。雖然有人可能認為「預測下一個文字」是目標,但薩頓認為這不是一個目標。畢竟預測下一個詞元不會影響外部世界。
缺乏對錯感
語言模型試圖在沒有目標,或缺乏對錯的判斷標準下運行。
缺乏回饋與真實依據
大型語言模型在與世界的正常互動中,無法獲得關於「什麼是正確」的回饋。
如果沒有真實依據,就無法擁有先驗知識。
2. 模仿而非理解世界模型
薩頓認為,智慧的目標在於理解世界。
可是語言模型專注於模仿人類,而不是理解世界。
語言模型不像人類,擁有對世界的認知,它們只會模仿人類所說的話,並非真正建立了世界模型。
一個真正的世界模型應該能夠預測將會發生什麼。但語言模型只能夠預測一個人會說什麼,而不是他們做了某件事後,會發生什麼事。
既然無法預測會發生什麼事,即使真的發生了出乎意料的事情,它們也不會因此感到驚訝,甚至做出調整。
3. 學習來源的局限性:缺乏經驗
語言模型的學習來源是訓練資料,而不是像動物或強化系統那樣,從「經驗」中學習。
所以模型無法創造出真實世界從未出現的事物,也許它能夠把不同元素,依照使用者需求拼湊在一起,但是幻覺率也會很高。
4. 依賴人類知識的風險
儘管現在各大廠商紛紛投入研究語言模型,可是薩頓認為可能根本走錯路了。
薩頓期望的人工智慧,是能夠從純粹經驗中學習的系統,會比那些使用人類知識的系統表現得更好、更具可擴展性。
真正可擴展的方法,就是從經驗中學習,並在有目標的情況下判斷好壞或對錯。
薩頓認為語言模型最終會達到資料的極限,最後被能夠從經驗中獲得更多資料的系統取代。
我們是擷取語言模型的知識,不是讓它創造知識
要怎麼發展人工智慧,那是他們科學家的事,可是我們使用者,必須明白如何使用當前的 AI 工具。
從薩頓的言論中,我們可以確定語言模型只是人類的模仿者。
不過這不代表語言模型毫不可取,畢竟 AI 公司將他們能夠取得的人類知識,都已經大量輸入給語言模型。
語言模型等於是人類集體知識的鏡射。
我們只要輸入提示詞,就能讓語言模型產出預先儲存的知識內容。
回到上週的翻車經驗,我相信不管哪一家的語言模型,應該都已經知道 clasp 工具,所以只要跟 AI 說要使用 clasp ,它就能使用。
但是語言模型不可避免地,仍有幻覺,這是因為它背後的統計學機制。
因此我們如果沒有自己理解工具,讓 AI 主導操作,就可能會導致錯誤。
現在雖然各家廠商都在積極發展 AI Agent ,讓 AI 能夠使用工具,但是要降低錯誤,就必須理解語言模型的極限能力。
因此使用 clasp 更好的作法,是把官方文件放入系統提示詞中,讓 AI 直接從文件取得資訊。
接著先從 Apps Script 雲端,把空白檔案抓下來。讓 AI 在本地端修改此空白檔案,再用 clasp 把資料上傳到雲端。
問與答
Q1:為什麼需要了解語言模型的「極限能力」?
A1:因為語言模型本質上是「模仿人類語言的系統」,不具備面向世界的目標與可驗證回饋,容易在缺乏上下文與依據時產生幻覺。理解其邊界,才能設計安全的工作流程來補足它的弱點。
Q2:本文對「Vibe Coding」與「Coding with AI」的結論是什麼?
A2:目前難以完全不理解程式而把實作全交給 AI(Vibe Coding)。較可行的是由人類作為決策與驗證者,採用 Coding with AI:把需求拆小、明確提供規格與文件,並在每一步做檢查與測試。
Q3:理查·薩頓(Richard Sutton)的批評重點如何影響一般使用者?
A3:薩頓指出語言模型缺乏目標、對錯感與來自經驗的回饋,傾向「模仿」而非「理解」。對使用者的啟示是:把語言模型視為知識鏡射與草擬工具,而非自動正確的行動決策者,重要步驟要有外部依據與驗證。
Q4:面對工具操作(如 clasp)時,如何降低 AI 出錯?
A4:將「官方文件與關鍵範例」置入系統提示詞或提供明確連結來源。先由雲端產生最小可用的空白專案,下載到本地再讓 AI 依既定檔案結構修改,最後用 clasp 上傳;每一步都以指令輸出與日誌回饋作為驗證。
Q5:什麼時機應該交由 AI Agent 執行?
A5:當任務規則清楚、可觀測且有明確成功條件與回饋迴路時。若缺乏可驗證訊號或風險高,應改為人主導、AI 輔助,並在流程中加入斷點與人工審核。
工商時間
斗內
希望這篇文章能為你帶來價值!
你的支持是我創作的原動力,無論是訂閱還是分享,都能幫助我繼續產出更多內容。
當然,我也非常歡迎你贊助鳥食!嘎嘎!
付費社群
我把之前使用 Google 試算表與 Line Bot 製作家庭記帳軟體的詳細經過,加上圖片說明,放在了我的付費社群「一人公司 × AI 共學圈」。
這是我最近新創的社群,在這裡,我將提供:
🎓 精選付費文章
AI 自動化應用
AI 知識管理術
一人公司的實戰思考
🎥 不定期免費直播
🎟 進階課程與工作坊的專屬折扣
由於社群內容仍在建置中,我特別推出早鳥優惠:
只需一次性支付 10 美元,即可獲得永久會員資格。未來所有基礎課程都能免費觀看,無需額外付費。
此外,每次教學直播結束後,我會將內容重新剪輯並加上字幕,上傳至社群平台供會員觀看。
待基礎課程全部完成後,社群將恢復原價,改為每月 5 美元的訂閱制。
期待能在社群中與你相見,一起探索 AI 與一人公司的無限可能!