【EP-29】使用 Obsidian + 大型語言模型建立本地端 AI 知識庫,並且實際應用在台海戰爭風險指標研究
Notion 固然好用,但是 Notion AI 差強人意。要從事專案研究,我認為應該使用 Obsidian ,接上大型語言模型,建立本地端的 AI 知識庫。
在上一期電子報中,以及追加的影片,我提到已經使用 n8n 自動軟體建立流程,把 Notion 資料庫的文章都抓下來了。
如果你跟我一樣,也大量使用 Notion 資料庫,需要把文章都抓取下來的話,可以參考EPX-28的影片,目前都還是免費的哦!
我抓取文章的目的,就是打算未來所有需要深入研究的工作,我都會搭配大型語言模型一起工作。
從今天起,我就是活腦+人工智慧的生化烏鴉(並沒有)。
結合大型語言模型的 Obsidian
平常你是怎麼寫文章呢?
傳統上我們就是打開 Word 直接寫,在我10幾年前還在當歷史所研究生時,就是這麼做的。
然後我的電腦就會保存一堆 Word 檔,可能會在檔名後面加上 V1、V2... ,代表版本號。
接著為了避免硬碟毀損或筆記型電腦被偷,還會另外上傳到 Google Drive 保存。
開始使用 Evernote、Notion 等筆記軟體後,我就都直接在雲端上作業了,可以在桌電、筆電、手機自由切換。
除非有需要排版,例如我身為社畜,經常要交報告給長官,才會需要把文字貼回 Word 編輯。
一直到大型語言模型出現後,出現了 Windsurf、Cursor 等 AI 程式編輯器,讓寫程式的過程變得無比順暢。
我就想,能不能把使用大型語言模型寫程式的過程,套用到寫文章這件事上呢?
於是我發現了 Obsidian。
Obsidian 是一款強大的筆記軟體,支援 markdown 語法,而且可以透過插件擴充功能。
下載後即可馬上使用,完全不需要付費,除非你有同步的需求。
如果需要同步,每月 4 鎂,如果需要公開到網路上,則是每月 8 鎂。
安裝大型語言模型套件
那要怎麼結合大型語言模型呢,你得使用 Obsidian 的第三方套件,請點選下方齒輪 -> 第三方外掛程式 ->瀏覽
我自己目前還在測試中,先找了網友推薦的兩個外掛:
Smart Composer
Text Generator
這兩個外掛都不需要額外再付費,當然你使用大型語言模型是要錢的,畢竟你要運算資料,會耗費大量運算資源。
所以你必須在裡頭加上 API。
API(應用程式介面)是一種讓兩個不同軟體溝通的橋樑。簡單來說,就是你需要把「鑰匙」(API 金鑰)交給 Obsidian,這樣它才可以跟大型語言模型的服務連線與互動。
哪一款語言模型,最適合呢?直接跟你說,就是能夠一口氣讀大量文章的,也就是超長的上下文長度。
OpenAI • GPT-4.1
Google • Gemini 2.0 Flash
這邊我尤其推薦使用 OpenAI ,因為要取得 Gemini API 的流程很麻煩,首先要到 Google AI Studio ,再到 Google Cloud Console 啟用,步驟很多,有夠麻煩。
要申請 OpenAI 的 API ,請到官方網站,點擊左上角的 Login -> API Platform,然後選擇右上角的 Dashboard,再點擊左側的 API Keys。
等到你取得 API 之後,回到 Obsidian ,照著剛剛的路徑,找到已安裝的外掛程式,點擊齒輪,就可以設定了。
示範 Smart Composer
這裡先測試 Smart Composer 套件,點擊左側的 Open Smart Composer,就可以開啟對話窗。
我這裡讓它幫我寫一段解釋 API 的句子,寫完後如果覺得沒問題,就可以按 Apply ,文字就會插在文章內,是不是非常方便啊?
為什麼不考慮用 Notion AI
就不夠好用啊。
我覺得拿來整理會議記錄錄音檔還不錯,其他如翻譯、整理摘要的表現都很不錯。
但是 Notion AI 的智能還不夠好,比起其他主流的語言模型還是有差距,而我之所以在本地端使用 Obsidian + 大型語言模型,主要的目的是為了要從事深度研究。
如果 Notion 有開放串接其他家的大型語言模型去串接資料庫,那我還可以考慮,但是從介面上來看,如下圖。
目前開放使用 GPT-4.1 以及 Claude 3.7 ,顯示會排除工作空間背景資訊,我猜就是只能問與答,那這樣沒什麼太大意義。
實際使用 AI 知識庫應用在台海戰爭風險指標
上個禮拜,我一時口嗨,在 Threads 上說台海戰爭風險儀表板的專案,應該要有更多文組的人進來,沒想到很多人都有興趣。
如果你不知道我做的台海戰爭風險儀表板,可以點這裡看看。
我原本的確是想招募一些伙伴,但是考量到我自己沒什麼時間,進度緩慢,恐怕拖累大家。
所以之後我會把研究記錄都公開上網,之後等風險儀表板二版做好之後,也會在 Github 上開源,大家可自行取用。
首先我發現類似的作品有兩個:
天下雜誌作的台海情勢儀表板,有夠漂亮!
不過我點進去看,他這個儀表板比較像是國防部即時軍事動態的視覺化版本,比較沒有後續的分析與預測。
根據網站內容,作者自稱是臺灣的數據科學家,他目前的分析方式跟我的很像,主要也是分析新聞,我猜也是用大型語言模型來分析語意。
然後他也有抓取一些共機、共艦的資料,就這樣。
不過網站比我的豐富許多啦,真的做得很好。
雖然已經有類似的網站了,不過我還是會持續研究,走出另外一條道路,因此這幾天都在思考怎麼從事研究。
由於我本科是歷史系,後來轉職做系統工程師,我完全沒有地緣政治研究的背景。
所以我打算一開始會先設法抓取,所有能夠公開取得的免費資料,然後一一呈現在網站上。
接著我才會閱讀地緣政治研究的相關書籍,這部分我也不打算自己讀,而是會靠 AI 先幫我篩選過濾後,我再做後續的整理。
我知道可能會有人說,AI 會有幻覺,我做的研究很可能有錯誤。
其實我很明白這一點,但是我不可能花太多時間在這項專案上,再者,人類也常有誤讀的現象,所以我打算徹底擁抱 AI 幻覺。
目前我已經請 Gemini 2.5 Pro 與 ChatGPT o3 ,從事深度研究,寫了兩份報告。
然後我在 Obsidian ,再使用 Smart Composer 彙整兩個研究報告,調整成符合我的需求。
因為文字太多,我就暫時先放在我個人的 Notion 筆記,提供有興趣的人閱讀。
之後我會依據此研究計畫從事後續研究:台海戰爭風險儀表板研究計畫