五分鐘學會!|省你五小時
你還在每個月付一千塊給ChatGPT?
老實說,我懂你的痛。
每個月打開信用卡帳單,看到那筆「ChatGPT Plus」或「Claude Pro」的扣款,心都在淌血。更氣人的是,有時候只是問個簡單問題,它還要跟你說「服務忙碌中,請稍後再試」。
但你知道嗎?DeepSeek V4 Pro 這個在 HuggingFace 上剛衝到3480個讚的開源模型,效能已經逼近 GPT-4o 的水準,而且——完全免費。
不只免費,還能在你自己的電腦上跑。離線使用、沒有流量限制、不會被審查、資料不會上傳到中國或美國的伺服器。
聽起來很美好,但你可能會問:「在自己電腦跑AI?那不是很難嗎?」
今天我要告訴你一個秘密:用Ollama安裝DeepSeek V4 Pro,比安裝LINE還簡單。
你只需要會複製貼上指令,五分鐘內就能讓你的電腦變身一台私人AI伺服器。
第一步:下載Ollama——你的AI管家
Ollama 是什麼?你可以把它想像成「AI界的App Store」。
以前要跑一個AI模型,你得搞懂Python環境、CUDA設定、模型權重檔案——這些名詞聽起來就讓人頭痛。但Ollama把這一切簡化成一個指令。
首先,到 ollama.com 下載安裝檔。
- Windows用戶:下載 .exe 安裝檔,雙擊安裝,下一步下一步就好。
- Mac用戶:下載 .dmg 檔案,拖進應用程式資料夾。
- Linux用戶:打開終端機,貼上
curl -fsSL https://ollama.com/install.sh | sh。
安裝完成後,你會在工具列(Windows)或選單列(Mac)看到一個可愛的羊駝圖示。
小提醒:如果你用的是 Mac,建議至少有 16GB RAM;Windows 或 Linux 則建議 32GB 以上,並且要有 NVIDIA 顯示卡(至少 8GB VRAM)。如果硬體不夠強也沒關係,後面我會教你用「輕量版」模型。
第二步:一行指令安裝DeepSeek V4 Pro
安裝好Ollama後,打開終端機(Windows 按 Win+R 輸入 cmd,Mac 按 Cmd+空格 搜尋「終端機」)。
然後貼上這行指令:
ollama run deepseek-v4-pro
按下 Enter,神奇的事情發生了——Ollama 會自動下載 DeepSeek V4 Pro 的模型權重,然後載入到你的電腦記憶體中。
整個過程大概需要 3-5 分鐘,取決於你的網路速度(模型檔案大約 40GB)。
等等,40GB?我的硬碟裝得下嗎?
別擔心,Ollama 會把模型存在 ~/.ollama/models 資料夾裡。如果你硬碟空間不夠,也可以指定到外接硬碟。方法是在終端機輸入:
set OLLAMA_MODELS=D:\ollama_models
(把 D:\ollama_models 換成你的外接硬碟路徑)
第三步:開始用你的私人AI
下載完成後,你會看到一個 >>> 提示符號。恭喜你,你的私人AI已經上線了!
可以直接在終端機裡跟它對話:
>>> 用繁體中文解釋什麼是量子糾纏
它會立刻回應你——而且完全離線,不用連網路。
但每次都要開終端機打字,太麻煩了吧?
沒錯,所以我們要裝一個「聊天室介面」。
第四步:裝上漂亮聊天室——讓AI像ChatGPT一樣好用
在瀏覽器打開 open-webui.com,下載安裝。或者更簡單的方法:在終端機輸入:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
如果你沒有 Docker,也可以直接用 ChatGPT-Next-Web 這個專案。下載後設定 Ollama 的 API 位址(通常是 http://localhost:11434),就能在瀏覽器裡用一個超漂亮的介面跟DeepSeek V4 Pro對話。
介面長這樣:左邊是對話列表,中間是聊天視窗,右邊可以調整溫度、Top P 等參數。完全免費,沒有廣告,沒有用量限制。
第五步:進階調校——讓AI更聽話
DeepSeek V4 Pro 預設的「溫度」(Temperature)是 0.7,這個數值控制AI的創造力。
- 0.1-0.3:適合寫程式、翻譯、事實查詢——非常精準,幾乎不亂編。
- 0.5-0.7:適合一般對話、寫作輔助——平衡創造力與準確度。
- 0.8-1.0:適合創意寫作、腦力激盪——但容易「幻覺」(亂講話)。
在 Open WebUI 的設定中,你可以為每個對話調整這個參數。
實戰技巧:如果你要DeepSeek幫你寫一封正式郵件,把溫度設為 0.2;如果你要它幫你想IG文案,調到 0.8。
硬體不夠強?用輕量版V4 Flash
如果你的電腦沒有獨立顯卡,或RAM只有8GB,別擔心。
DeepSeek 還有一個 V4 Flash 版本,只有 7B 參數,效能比 V4 Pro 差一點,但速度快很多,而且只需要 4GB RAM。
安裝方法一模一樣:
ollama run deepseek-v4-flash
V4 Pro vs V4 Flash 怎麼選?
| 情境 | 推薦版本 | 原因 |
|---|---|---|
| 寫程式、分析資料 | V4 Pro | 準確度更高,邏輯更強 |
| 一般聊天、翻譯 | V4 Flash | 速度快,夠用就好 |
| 創意寫作 | V4 Pro | 詞彙更豐富 |
| 手機或舊電腦 | V4 Flash | 硬體需求低 |
總結:從今天開始,AI不用再付月費
五分鐘,你學會了:
- 下載Ollama——AI界的App Store
- 一行指令安裝DeepSeek V4 Pro——最強開源模型免費裝
- 裝上漂亮聊天室——告別黑底白字的終端機
- 調整參數——讓AI更聽話
- 輕量版方案——舊電腦也能用
你現在擁有的,是一個完全離線、完全免費、不會偷看你的資料、不會突然漲價的私人AI。
下次朋友抱怨ChatGPT又要漲價的時候,你可以淡淡地說:「我早就自己裝了。」
去試試看吧,真的只要五分鐘。
延伸閱讀
常見問題
Q: 我的電腦是MacBook Air M1,8GB RAM,跑得動嗎? A: 8GB RAM 跑 V4 Pro 會很喘,建議用 V4 Flash 版本。M1/M2 晶片因為有統一記憶體架構,跑 V4 Flash 其實很順暢,日常對話、翻譯、寫作都沒問題。
Q: 安裝過程中出現「command not found」怎麼辦?
A: 這代表你的系統沒有安裝 curl 或 docker。在 Mac 上可以透過 Homebrew 安裝(brew install curl),Windows 可以下載 Git Bash 來執行指令。最簡單的方法:直接用 Ollama 官方桌面版,圖形化介面一鍵安裝。
Q: 模型會佔用多少硬碟空間?之後可以刪掉嗎?
A: V4 Pro 約 40GB,V4 Flash 約 4.5GB。要刪除時,在終端機輸入 ollama rm deepseek-v4-pro 即可釋放空間。安裝前建議先確認硬碟有足夠空間。
Q: 離線使用時,可以上傳PDF或圖片給它分析嗎?
A: DeepSeek V4 Pro 本身是純文字模型,不支援多模態(圖片辨識)。如果要分析圖片或PDF,建議改用 Qwen3.6-27B(支援圖片+文字),安裝方式一樣:ollama run qwen3.6-27b。
Q: 這個模型跟ChatGPT比,哪裡比較強?哪裡比較弱? A: V4 Pro 在寫程式、數學推理、邏輯分析上已經超越 GPT-4o-mini,接近 GPT-4o。弱項在於創意寫作(詩詞、故事)和幽默感,ChatGPT 這方面還是比較自然。另外 V4 Pro 的中文能力極強,特別擅長繁體中文和文言文。