你會不會覺得,每次用 ChatGPT 或 Claude 都像在「租」別人家的電腦?你的對話紀錄、上傳的文件,全都存在對方的伺服器裡。更別提每個月還要繳月費,用多了還會被限速。

如果有一款 AI,完全跑在你自己的電腦上,不用網路、不用月費、資料不外洩,聽起來是不是很吸引人?

這不是夢想。現在,透過 Ollama 這個免費工具,任何人都可以在五分鐘內,把 DeepSeek V4、Qwen3.6 這些開源模型直接下載到你的筆電或桌機上執行。這篇教學就是要帶你一步一步完成這件事,讓你真正擁有自己的 AI。

為什麼你該在本地跑 AI?

先說個真實故事。我朋友阿明是自由接案的設計師,他習慣用 ChatGPT 來發想文案和整理靈感。但他客戶的資料很敏感,每次把合約貼進 ChatGPT 時,他心裡總有點不安。直到他發現,自己的 MacBook Air M1 其實跑得動開源模型——從那天起,他再也沒打開過 ChatGPT 網頁。

隱私是最大的理由。當 AI 模型在你自己的電腦上執行,所有資料都不會離開你的硬碟。對於處理個人信件、公司文件、甚至是客戶個資的人來說,這點至關重要。

成本則是另一個關鍵。雲端 AI 服務每月動輒 20 到 200 美元。而開源模型完全免費,你只需要負擔電費。長期下來,省下的錢相當可觀。

離線可用更是殺手級應用。想像你在飛機上、在沒有網路訊號的山區,或是遇到網路斷線,你的 AI 依然能夠正常工作。這對於需要隨時隨地生產的人來說,簡直是福音。

第一步:安裝 Ollama,就像裝個普通軟體

Ollama 是目前最簡單的本地 AI 執行工具,它把複雜的環境設定全部包裝成一個指令。你不需要懂 Python、不需要裝 CUDA,甚至不需要知道什麼是 GPU 加速。

首先,前往 ollama.com 下載對應你作業系統的版本。Windows、macOS、Linux 都支援。下載後雙擊安裝,跟安裝 Chrome 或 Spotify 一模一樣。

安裝完成後,打開你的終端機(Terminal)。在 Windows 上,你可以按 Win + R,輸入 cmd 後按 Enter;在 macOS 上,打開「應用程式 > 工具程式 > 終端機」。

輸入以下指令確認安裝成功:

ollama --version

如果看到類似 ollama version 0.5.7 的輸出,恭喜你,已經完成最難的部分了。

第二步:下載並執行 DeepSeek V4,一行指令搞定

現在來到最關鍵的時刻。我們要下載最近在 HuggingFace 上火熱的 DeepSeek V4 模型。這款模型在中文理解和程式碼生成上表現極佳,非常適合香港和台灣的使用者。

在終端機輸入:

ollama run deepseek-v4

系統會自動開始下載模型檔案。這個過程需要一些時間,取決於你的網路速度,模型大小約 4GB 到 7GB。你可以趁這個時間去泡杯咖啡。

下載完成後,你會看到一個對話提示符號 >>>,代表你已經成功啟動了 AI 模型!試著問它:「用繁體中文寫一封請假信,因為我要去日本旅行。」它會立刻回應你。

實際案例:我曾經在咖啡廳用 MacBook Air M1 跑 DeepSeek V4,旁邊的人以為我在寫程式,其實我只是讓 AI 幫我重寫一份英文履歷。網路斷線了三次,但我的 AI 完全不受影響。

如果你想要更輕量、更快的模型,可以試試 Qwen3.6-27BDeepSeek V4 Flash。指令只要換名字就好:

ollama run qwen3.6-27b

ollama run deepseek-v4-flash

Flash 版本體積更小,速度更快,適合硬體規格較低的電腦。

第三步:用 Open WebUI 打造 ChatGPT 般的介面

指令模式雖然好用,但大部分人還是習慣圖形介面。這時候,Open WebUI 就是你的救星。它是一個開源的網頁介面,看起來就跟 ChatGPT 一模一樣,但連接到你本地的 Ollama 模型。

安裝方式也很簡單,只需要一行指令(需要先安裝 Docker,或使用 Python 直接安裝):

pip install open-webui

然後啟動它:

open-webui serve

打開瀏覽器,輸入 http://localhost:3000,你就會看到一個熟悉的對話介面。在這裡,你可以選擇不同的模型、管理對話紀錄、甚至上傳檔案讓 AI 分析。

小技巧:你可以同時下載多個模型,然後在 Open WebUI 裡隨時切換。DeepSeek V4 適合寫程式,Qwen3.6 適合中文創作,Kimi K2.6 擅長長篇閱讀理解。一個介面,全部搞定。

常見問題

Q: 我的電腦跑得動嗎?需要什麼規格? A: 最低需求是 8GB RAM,建議 16GB 以上。MacBook Air M1/M2 或任何有 6GB 以上 VRAM 的顯示卡都可以順暢跑 7B 參數的模型。如果你只有 8GB RAM,可以選擇 DeepSeek V4 Flash 或 Qwen3.6-35B-A3B 這類輕量化模型。

Q: 下載的模型會占用多少硬碟空間? A: 每個模型約 4GB 到 8GB。DeepSeek V4 約 4.2GB,Qwen3.6-27B 約 5.5GB。建議保留至少 20GB 可用空間。

Q: 在本地跑 AI 會不會很耗電? A: 會比一般上網稍微耗電,但遠低於玩遊戲。MacBook Air 跑模型時約消耗 15-20W,連續使用 4 小時約耗費一度電,電費不到 3 元台幣或 1 元港幣。

Q: 這些開源模型跟 ChatGPT 比起來,誰比較強? A: 在一般對話和中文理解上,DeepSeek V4 和 Qwen3.6 已經非常接近 GPT-4。但在創意寫作和複雜推理上,GPT-4 仍然略勝一籌。最大的差別在於隱私和成本——開源模型完全免費且資料不外洩。

Q: 我可以在公司或學校的電腦上安裝嗎? A: 可以,但要注意公司 IT 政策。Ollama 不需要管理員權限即可安裝(可安裝在使用者目錄下),且所有資料都在本機,不會觸發網路監控。但建議先取得 IT 部門同意。

延伸閱讀

總結與鼓勵

你現在已經學會了如何在五分鐘內,用自己的電腦下載並執行開源 AI 模型。從安裝 Ollama、下載 DeepSeek V4,到用 Open WebUI 打造專屬的 AI 助手,每一步都不需要寫程式或懂技術。

這不僅僅是省錢的問題,而是你真正 擁有 了 AI 的能力。你的資料不會被上傳到未知的伺服器,你的對話不會被用來訓練別人的模型,你的生產力不再依賴網路連線。

試著今晚就裝起來,問它一個你一直想問但不敢問 ChatGPT 的問題——比如「幫我分析這份合約的風險條款」,或「用廣東話寫一篇食評」。你會發現,這感覺真的很不一樣。

現在,打開你的終端機,輸入 ollama run deepseek-v4,開始你的本地 AI 之旅吧。