EP-64 你的龍蝦懂得你的心:拆解 AI Agent 大腦與記憶之謎
OpenClaw 會受到關注,其中一個原因是它把 AI 最常見的痛點——記憶不穩、聊久就失憶——用系統化方式補起來。它不是把所有內容硬塞進上下文,而是做分層記憶。
你認為 AI 聰明嗎?
最近在社群上有人會問 AI 一個問題:如果我要去洗車,而我家附近的洗車廠距離我很近,只有 50 公尺,你覺得我應該要走路去,還是應該要開車去?
這種問題,想當然每個人都知道答案是什麼,但是把這個問題拿去問 AI,大部分的 AI 都會答錯。他們居然說應該要走路去就好,那去洗車店幹嘛?洗澡嗎?
這顯示了 AI 其實擁有鋸齒狀的智力。
它可能在某些行為上表現得特別好,例如寫程式;
但是在某些常識,例如 9.11 與 9.9 哪個比較大,去洗車要走路還是開車,它簡直是低能
這還不是最致命的。更麻煩的是,所有的大型語言模型都有上下文的限制。
什麼意思呢?
你可以把它想成一張「當下可用的工作桌」:
桌面能放的資料有限
你每多聊一句,就像多放一份文件
桌子滿了,前面的文件就會被收走
所以,沒有「外接記憶」的 AI,就像一個超會推理、但短期記憶不穩的人。
跟 AI 聊天,就好像跟一個智力超群,但是沒有基本常識的天才說話,尤其他還喝得很醉,很快地就忘了前幾分鐘你跟他講過的事情。
儘管目前 ChatGPT、Claude、Gemini、Grok 等主流 AI,都有在他們的網站上做了「記憶」的設計。
通常我還是建議,只要聊天的方向已經偏離了原先的主題,還是新開啟一個對話框,以避免到最後輸入了過量的文字訊息,造成不必要的幻覺。
而我們在設計 AI 代理的時候,也必須注意系統的設計,看它的「大腦結構」有沒有把記憶系統接好。
幸好我們現在不需要自己造輪子,已經有許多現成的工具可以使用。最近火紅的 OpenClaw AI Agent ,就內建了記憶系統。
OpenClaw 內建 Memory 機制:不是「全記住」,而是「分層記住」
OpenClaw 的將記憶拆成短期與長期。
1. 短期記憶:Context(當下工作桌)
Context 就是 AI 這一刻看得到的內容。
速度快,但空間有限。聊太久,前面的內容一定會被擠掉。
所以它適合拿來做眼前推理,不適合拿來存長期知識。
2. 長期記憶:memory/YYYY-MM-DD.md + MEMORY.md
長期記憶拆成兩層:
memory/YYYY-MM-DD.md:每天的原始紀錄,像工作日誌MEMORY.md:從日誌整理後留下來的穩定知識,像偏好、規則、決策、教訓
所以 AI 在今天還沒結束的時候,每天都會去記工作日誌。只要你每一次呼叫他,有什麼事情他就會在每天的工作日誌上找,所以我通常在使用時,也會要求他有任何事就記在工作日誌上。
如果有什麼待辦事項,我也會要求他寫在日誌裡。例如,當我交代一個比較長期的任務時,我會要求他先記在工作日誌上;這樣如果他當下處理到一半中斷,起碼在 OpenClaw 的輪詢機制(也就是 heartbeat 機制)啟動時,他就會去讀取這份工作日誌。
至於 memory.md 這個檔案,則是拿來記錄我們希望他具備「長期記憶」的事情。在使用這個功能時要克制一點,不是想記什麼就記什麼,不然到最後這些內容在每一次工作時都會全部丟給 LLM,會非常消耗你的 token。
3. 怎麼把記憶叫回來
OpenClaw 的做法是先找片段,再讀原文,不會一開始就把整個記憶庫塞進來。
會用到兩個工具:
memory_search:先找相關片段,回傳來源位置memory_get:再去讀指定檔案、指定區段
這樣做是為了三件事:
第一,不把上下文塞爆。
第二,不浪費 token 在無關內容。
第三,回答時能指出資料是從哪裡來的。
4. 混合搜尋技術(Hybrid Search)
OpenClaw 的 memory_search 工具,使用了混合搜尋技術(Hybrid search),包含向量搜尋與全文關鍵字搜尋。
向量搜尋:負責「看懂意思」。
例如你問「主機連不到 gateway 要先查哪裡?」
就算文件裡沒寫「連不到」,而是寫「gateway handshake failed」或「連線初始化失敗」,它也有機會找到。
關鍵字搜尋(BM25):負責「精準對字」。
例如你要找錯誤碼
ENOENT、環境變數GOG_KEYRING_PASSWORD,或 commit IDa828e60。這種內容只要差一個字就可能是另一件事,所以要用關鍵字精準比對。
搜尋完成之後,最後把兩邊結果合併排序,就可以得到精確的結果。
不過,雖然 OpenClaw 有內建混合搜尋技術,但是需要使用 Embedding 模型,把文字轉成向量。
常見做法有三種:
用 OpenAI:效果穩定,但要付費先儲值;
用 Gemini:有免費額度可以用,但我不建議,怕你用到爆量
用 Ollama或其他開源模型:本地跑,免費,但要自己架
如果你沒有使用向量搜尋的話,它還是可以運作,只不過運作起來的效果可能就不太好。
我個人推薦你使用 ollama 下載離線模型,我使用 qwen3-embedding:4b,支援英語與繁體中文。
安裝的方式很簡單,讓你的 OpenClaw 去讀官方文件,跟他說你要使用 Ollama 的 embedding 離線模型,讓它自行下載設定。
⚠️ 付費內容提示
我後來實作了幾個能夠進一步強化記憶能力的方法,能有效提升 AI 能力,包含怎麼讓 OpenClaw 使用 NotebookLM ,安裝 Obsidian Cli 等方法與記憶提升技能。雖然鋸齒狀智力還是無法解決,但是有總比沒有好。 這部分會放在 Skool 付費社群完整釋出。



