這篇教學不是翻譯官方文件。它來自一台 MacBook Pro M4 Max 128GB 上七個月、每天超過八小時的實際使用。
選這個規格不是炫耀。跑本地 AI 模型(32B 參數以上)需要至少 48GB 記憶體,128GB 讓你同時開著開發環境、瀏覽器、和 25 個並發推理請求也不會卡。這台機器上的每一個故障排除步驟、每一組效能數據、每一個自動化工作流,我都親手踩過。
你搜「OpenClaw 教學」會找到很多文章。問題是,大部分教學沒有實測數據、沒有故障排除、沒有告訴你裝完之後拿來做什麼。所以很多人裝好 OpenClaw,用三天就放著了。
「五階段成長路徑」(Five-Stage Growth Path),OpenClaw 的使用不是一次性設定。從「裝好」到「有用」到「離不開」,有五個明確的階段。多數人卡在第二階段就放棄,因為沒有人告訴他們第三階段之後才是真正的回報開始。
這篇教學涵蓋五個階段的全部內容。從安裝到你的第一個自動化工作流,每一步都有真實指令和故障排除。
階段一:安裝(30 分鐘)
前置條件
Mac 用戶:確認 Node.js 版本 22.12.0 以上。
node --version如果版本不對或還沒裝:
brew install nodeWindows 用戶:先裝 WSL2。
# PowerShell(管理員模式)
wsl --install重啟電腦後,打開 Ubuntu 終端機,然後所有後續步驟跟 Mac 一模一樣。
Linux 用戶:確認 Node.js 22+ 和 git 已安裝。
安裝 OpenClaw
curl -fsSL https://openclaw.ai/install.sh | bash安裝完成後驗證:
openclaw --version看到版本號就成功了。
故障排除:安裝失敗
問題:curl 指令沒反應
檢查網路連線。如果在公司網路後面,可能被防火牆擋住。換用手機熱點試一次。
問題:Node.js 版本太舊
# 用 nvm 管理 Node.js 版本
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.3/install.sh | bash
source ~/.bashrc
nvm install 22
nvm use 22問題:permission denied
不要用 sudo。如果出現權限問題,通常是 npm 的全域安裝路徑設定問題。
mkdir ~/.npm-global
npm config set prefix '~/.npm-global'
echo 'export PATH=~/.npm-global/bin:$PATH' >> ~/.bashrc
source ~/.bashrc階段二:基本設定(20 分鐘)
選擇 AI 模型
選項 A:雲端模型(最簡單、最快)
# 用 Claude
openclaw config set ai.provider anthropic
openclaw config set ai.api_key sk-ant-xxxxx
# 或用 GPT
openclaw config set ai.provider openai
openclaw config set ai.api_key sk-xxxxx選項 B:本地模型(免費、隱私)
先裝 Ollama:
# Mac
brew install ollama
# 啟動
ollama serve下載模型(推薦 qwen2.5:32b,需要 48GB 以上記憶體):
ollama pull qwen2.5:32b接上 OpenClaw:
openclaw config set ai.provider ollama
openclaw config set ai.model qwen2.5:32b如果你的記憶體不夠跑 32B,用 qwen2.5:14b(需要 16GB 以上)或 qwen2.5:7b(需要 8GB 以上)。
想要更完整的模型選擇指南和效能調校?讀「Ollama 教學 2026」。
連接 Telegram(必做)
OpenClaw 裝在電腦上沒有接聊天軟體,等於買了手機不裝 SIM 卡。
打開 Telegram,搜尋 @BotFather,發送 /newbot。
# 拿到 Token 後
openclaw config set channels.telegram.token 7123456789:AAHxyz...
# 查你的 User ID(搜尋 @userinfobot)
openclaw config set channels.telegram.allowed_users 123456789allowed_users 是安全設定,不要跳過。不設定的話,任何人找到你的 Bot 都能控制你的電腦。
測試
在 Telegram 裡找到你的 Bot,發送:
「現在幾點?」
看到回覆,恭喜。你的 AI 助理上線了。
故障排除:Telegram 連不上
問題:Bot 不回覆
檢查 Token 有沒有貼錯(多一個空格就會失敗)。確認 OpenClaw 正在運行。用 openclaw status 檢查狀態。
問題:Bot 回覆但是亂碼或錯誤
通常是 AI 模型沒設好。openclaw config get ai 確認 provider 和 api_key 正確。
階段三:日常使用(第 1 週)
這是多數人放棄的階段。因為裝好之後不知道要用來做什麼。
以下是我實際用過、確認好用的 10 個指令:
檔案管理
「幫我看看桌面上有哪些檔案。」
「把桌面上所有 PDF 搬到文件/PDF 資料夾。」
「桌面上那份 budget.xlsx,幫我讀一下裡面的數字,整理成文字摘要。」
資訊查詢
「幫我查明天台北的天氣。」
「查一下最近 Apple 的股價。」
「幫我找三家台北的日本料理餐廳,要有包廂的。」
文字處理
「把這段英文翻成中文:[貼上英文]」
「幫我寫一封回覆信給客戶,告訴他會議改到下週三。語氣要專業但友善。」
「幫我把昨天的會議筆記整理成待辦清單。」
提醒和排程
「明天早上九點提醒我打電話給 Amy。」
從簡單的開始。用了一週,你會自然發現哪些重複性工作可以交給它。
階段四:自動化(第 2-4 週)
這是 OpenClaw 從「偶爾用的工具」變成「離不開的系統」的轉折點。
Heartbeat 自動化
OpenClaw 的 Heartbeat 機制:每 30 分鐘讀取 HEARTBEAT.md 檔案,判斷是否需要主動行動。
在你的 OpenClaw 資料目錄裡建一個 HEARTBEAT.md:
# 每日任務
- 早上 8:00:查看今天的行事曆,用 Telegram 發給我
- 每 2 小時:檢查有沒有新的重要信件
- 晚上 10:00:整理今天的待辦進度這不是 cron job,是用自然語言定義的自動化。OpenClaw 讀了之後自己判斷該不該執行。
搭配 n8n 做複雜工作流
OpenClaw 擅長需要判斷的任務。n8n 擅長固定流程的任務。兩個搭配是最強組合。
例如:n8n 設定一個工作流,每天固定時間觸發,呼叫 OpenClaw 去做「需要判斷」的步驟(分析信件內容、決定是否需要回覆、草擬回覆),然後 n8n 負責「不需要判斷」的步驟(格式化、寄出、存檔)。
想看完整的一人公司自動化架構?讀「一人公司 AI 團隊架構」。
階段五:進階調校(第 2 個月起)
到了這個階段,你已經每天在用 OpenClaw,開始在意回應品質和速度。
效能調校(本地模型)
如果你用 Ollama 跑本地模型,M4 Max 用戶必做:
# GPU Wired Memory 上限(M4 Max 128GB)
sudo sysctl iogpu.wired_limit_mb=121000
# Ollama 環境變數
export OLLAMA_NUM_PARALLEL=25
export OLLAMA_NUM_GPU=99
export OLLAMA_FLASH_ATTENTION=1第一行是 90% 的教學不會告訴你的。不設這個,你的 M4 Max 跑 AI 只能用到一半的記憶體。
我的實際效能數據
我的主力機是 MacBook Pro 16″ M4 Max(規格見本文開頭)。以下是實際跑出來的數字。
實測數據(qwen2.5:32b,25 並發請求):
- 推理速度:30 到 45 tok/s(MLX 加速)
- 批次處理:400 個請求約 16 分鐘完成
- 成功率:96.5%
- 記憶體使用:模型約 35GB + 運行約 15GB,還有 78GB 的餘裕
546 GB/s 的記憶體頻寬是關鍵。AI 推理的瓶頸不是算力,是記憶體頻寬(Memory Bandwidth)。M4 Max 的頻寬比 M3 Max 高 33%,直接反映在推理速度上。
想要完整的效能調校指南?讀「Mac Mini M4 能跑 AI 嗎?128GB 統一記憶體實測」。
24/7 持續運行
Mac 用戶用 launchd 讓 OpenClaw 開機自動啟動:
# 建立 plist
cat > ~/Library/LaunchAgents/com.openclaw.agent.plist << 'EOF'
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN" "http://www.apple.com/DTDs/PropertyList-1.0.dtd">
<plist version="1.0">
<dict>
<key>Label</key>
<string>com.openclaw.agent</string>
<key>ProgramArguments</key>
<array>
<string>/usr/local/bin/openclaw</string>
<string>start</string>
</array>
<key>RunAtLoad</key>
<true/>
<key>KeepAlive</key>
<true/>
</dict>
</plist>
EOF
# 載入
launchctl load ~/Library/LaunchAgents/com.openclaw.agent.plist如果你用的是 MacBook 而不是 Mac Mini,可以設定蓋上螢幕不休眠(clamshell mode):系統設定 → 電池 → 選項 → 關閉「當蓋上螢幕時讓電腦睡眠」。接上電源和外接螢幕,蓋上螢幕就變成一台不關機的 AI 伺服器。我自己就是用這個方式讓 MacBook Pro M4 Max 24/7 運行 OpenClaw 和 Ollama。
想看完整的伺服器設定?讀「Mac Mini 24/7 伺服器全記錄」。
安全加固
五件必做的事:
1. 用 Docker 跑 OpenClaw(隔離主系統)
2. 設好 allowed_users(每個平台都要)
3. 只裝 verified 標誌的技能
4. 用 Tailscale VPN 取代直接暴露端口
5. 每週檢查一次更新
想看完整的安全設定指南?讀「OpenClaw 安全完整評估」。
五個階段的時間軸
| 階段 | 時間 | 你的狀態 | 解鎖的能力 |
|---|---|---|---|
| 1. 安裝 | 30 分鐘 | 「裝好了」 | 基本對話 |
| 2. 基本設定 | 20 分鐘 | 「能用了」 | 手機遠端指揮 |
| 3. 日常使用 | 第 1 週 | 「偶爾用」 | 取代部分手動操作 |
| 4. 自動化 | 第 2-4 週 | 「天天用」 | 24 小時自動執行任務 |
| 5. 進階調校 | 第 2 個月起 | 「離不開」 | 效能最大化、安全加固 |
80% 的 OpenClaw 用戶停在階段 2 就放棄了。原因是他們裝好之後不知道拿來做什麼。階段 3 的「10 個真實指令」就是為了幫你跨過這個門檻。
一旦你到了階段 4,你會突然發現自己每天多出 2 到 3 小時。因為那些「花五分鐘就能做完但每天都要做」的事,全部被自動化了。
這篇教學比市面上任何一篇都長。因為「教學」不是告訴你怎麼按安裝鈕。教學是帶你從零走到你自己能跑起來,包括中間會踩到的坑。
如果你在某一步卡住了,先看那個步驟下面的故障排除。90% 的問題都是那幾個原因。
剩下的 10%?歡迎來 Dean Today 的其他文章找答案。每一篇都是從真實使用經驗裡寫出來的。
想先了解 OpenClaw 是什麼?讀「OpenClaw 是什麼?完整解析」。
想看更多應用場景?讀「一人公司 AI 團隊架構」。
想知道值不值得投資?讀「雲端 vs 本地 AI 成本分析」。
