快速跳轉

    Dean Today 讀者 Dean Today 讀者 Dean Today 讀者

    訂閱 AI 週報

    每週收到最新的 AI 技術趨勢與實作技巧

    OpenClaw 教學:從零安裝到 AI 自動化(50hr 實測)

    比 ohya.co 更深、比 Grenade 更新。M4 Max 128GB 實測,從安裝 OpenClaw 到接 Telegram 到跑本地模型到日常自動化工作流,每一步都有指令和故障排除。附 10 個真實使用場景和效能調校秘訣。|AI 全端實戰

    莊東碩 Dean 莊東碩 Dean in 本地 AI 部署教學 · Feb 18, 2026
    史上最完整 OpenClaw 教學:從零到自動化

    這篇教學不是翻譯官方文件。它來自一台 MacBook Pro M4 Max 128GB 上七個月、每天超過八小時的實際使用。

    MacBook Pro M4 Max 訂單確認出貨
    2025 年 7 月 30 日下單,8 月 5 日取貨。16 吋 MacBook Pro M4 Max,太空黑色。16 核 CPU、40 核 GPU、128GB 統一記憶體。

    選這個規格不是炫耀。跑本地 AI 模型(32B 參數以上)需要至少 48GB 記憶體,128GB 讓你同時開著開發環境、瀏覽器、和 25 個並發推理請求也不會卡。這台機器上的每一個故障排除步驟、每一組效能數據、每一個自動化工作流,我都親手踩過。

    你搜「OpenClaw 教學」會找到很多文章。問題是,大部分教學沒有實測數據、沒有故障排除、沒有告訴你裝完之後拿來做什麼。所以很多人裝好 OpenClaw,用三天就放著了。

    「五階段成長路徑」(Five-Stage Growth Path),OpenClaw 的使用不是一次性設定。從「裝好」到「有用」到「離不開」,有五個明確的階段。多數人卡在第二階段就放棄,因為沒有人告訴他們第三階段之後才是真正的回報開始。

    這篇教學涵蓋五個階段的全部內容。從安裝到你的第一個自動化工作流,每一步都有真實指令和故障排除。

    階段一:安裝(30 分鐘)

    前置條件

    Mac 用戶:確認 Node.js 版本 22.12.0 以上。

    node --version

    如果版本不對或還沒裝:

    brew install node

    Windows 用戶:先裝 WSL2。

    # PowerShell(管理員模式)
    wsl --install

    重啟電腦後,打開 Ubuntu 終端機,然後所有後續步驟跟 Mac 一模一樣。

    Linux 用戶:確認 Node.js 22+ 和 git 已安裝。

    安裝 OpenClaw

    curl -fsSL https://openclaw.ai/install.sh | bash

    安裝完成後驗證:

    openclaw --version

    看到版本號就成功了。

    故障排除:安裝失敗

    問題:curl 指令沒反應

    檢查網路連線。如果在公司網路後面,可能被防火牆擋住。換用手機熱點試一次。

    問題:Node.js 版本太舊

    # 用 nvm 管理 Node.js 版本
    curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.3/install.sh | bash
    source ~/.bashrc
    nvm install 22
    nvm use 22

    問題:permission denied

    不要用 sudo。如果出現權限問題,通常是 npm 的全域安裝路徑設定問題。

    mkdir ~/.npm-global
    npm config set prefix '~/.npm-global'
    echo 'export PATH=~/.npm-global/bin:$PATH' >> ~/.bashrc
    source ~/.bashrc

    階段二:基本設定(20 分鐘)

    選擇 AI 模型

    選項 A:雲端模型(最簡單、最快)

    # 用 Claude
    openclaw config set ai.provider anthropic
    openclaw config set ai.api_key sk-ant-xxxxx
    
    # 或用 GPT
    openclaw config set ai.provider openai
    openclaw config set ai.api_key sk-xxxxx

    選項 B:本地模型(免費、隱私)

    先裝 Ollama:

    # Mac
    brew install ollama
    
    # 啟動
    ollama serve

    下載模型(推薦 qwen2.5:32b,需要 48GB 以上記憶體):

    ollama pull qwen2.5:32b

    接上 OpenClaw:

    openclaw config set ai.provider ollama
    openclaw config set ai.model qwen2.5:32b

    如果你的記憶體不夠跑 32B,用 qwen2.5:14b(需要 16GB 以上)或 qwen2.5:7b(需要 8GB 以上)。

    想要更完整的模型選擇指南和效能調校?讀「Ollama 教學 2026」

    連接 Telegram(必做)

    OpenClaw 裝在電腦上沒有接聊天軟體,等於買了手機不裝 SIM 卡。

    打開 Telegram,搜尋 @BotFather,發送 /newbot。

    # 拿到 Token 後
    openclaw config set channels.telegram.token 7123456789:AAHxyz...
    
    # 查你的 User ID(搜尋 @userinfobot)
    openclaw config set channels.telegram.allowed_users 123456789

    allowed_users 是安全設定,不要跳過。不設定的話,任何人找到你的 Bot 都能控制你的電腦。

    測試

    在 Telegram 裡找到你的 Bot,發送:

    「現在幾點?」

    看到回覆,恭喜。你的 AI 助理上線了。

    故障排除:Telegram 連不上

    問題:Bot 不回覆

    檢查 Token 有沒有貼錯(多一個空格就會失敗)。確認 OpenClaw 正在運行。用 openclaw status 檢查狀態。

    問題:Bot 回覆但是亂碼或錯誤

    通常是 AI 模型沒設好。openclaw config get ai 確認 provider 和 api_key 正確。

    階段三:日常使用(第 1 週)

    這是多數人放棄的階段。因為裝好之後不知道要用來做什麼。

    以下是我實際用過、確認好用的 10 個指令:

    檔案管理

    「幫我看看桌面上有哪些檔案。」

    「把桌面上所有 PDF 搬到文件/PDF 資料夾。」

    「桌面上那份 budget.xlsx,幫我讀一下裡面的數字,整理成文字摘要。」

    資訊查詢

    「幫我查明天台北的天氣。」

    「查一下最近 Apple 的股價。」

    「幫我找三家台北的日本料理餐廳,要有包廂的。」

    文字處理

    「把這段英文翻成中文:[貼上英文]」

    「幫我寫一封回覆信給客戶,告訴他會議改到下週三。語氣要專業但友善。」

    「幫我把昨天的會議筆記整理成待辦清單。」

    提醒和排程

    「明天早上九點提醒我打電話給 Amy。」

    從簡單的開始。用了一週,你會自然發現哪些重複性工作可以交給它。

    階段四:自動化(第 2-4 週)

    這是 OpenClaw 從「偶爾用的工具」變成「離不開的系統」的轉折點。

    Heartbeat 自動化

    OpenClaw 的 Heartbeat 機制:每 30 分鐘讀取 HEARTBEAT.md 檔案,判斷是否需要主動行動。

    在你的 OpenClaw 資料目錄裡建一個 HEARTBEAT.md:

    # 每日任務
    - 早上 8:00:查看今天的行事曆,用 Telegram 發給我
    - 每 2 小時:檢查有沒有新的重要信件
    - 晚上 10:00:整理今天的待辦進度

    這不是 cron job,是用自然語言定義的自動化。OpenClaw 讀了之後自己判斷該不該執行。

    搭配 n8n 做複雜工作流

    OpenClaw 擅長需要判斷的任務。n8n 擅長固定流程的任務。兩個搭配是最強組合。

    例如:n8n 設定一個工作流,每天固定時間觸發,呼叫 OpenClaw 去做「需要判斷」的步驟(分析信件內容、決定是否需要回覆、草擬回覆),然後 n8n 負責「不需要判斷」的步驟(格式化、寄出、存檔)。

    想看完整的一人公司自動化架構?讀「一人公司 AI 團隊架構」

    階段五:進階調校(第 2 個月起)

    到了這個階段,你已經每天在用 OpenClaw,開始在意回應品質和速度。

    效能調校(本地模型)

    如果你用 Ollama 跑本地模型,M4 Max 用戶必做:

    # GPU Wired Memory 上限(M4 Max 128GB)
    sudo sysctl iogpu.wired_limit_mb=121000
    
    # Ollama 環境變數
    export OLLAMA_NUM_PARALLEL=25
    export OLLAMA_NUM_GPU=99
    export OLLAMA_FLASH_ATTENTION=1

    第一行是 90% 的教學不會告訴你的。不設這個,你的 M4 Max 跑 AI 只能用到一半的記憶體。

    我的實際效能數據

    我的主力機是 MacBook Pro 16″ M4 Max(規格見本文開頭)。以下是實際跑出來的數字。

    實測數據(qwen2.5:32b,25 並發請求):

    • 推理速度:30 到 45 tok/s(MLX 加速)
    • 批次處理:400 個請求約 16 分鐘完成
    • 成功率:96.5%
    • 記憶體使用:模型約 35GB + 運行約 15GB,還有 78GB 的餘裕

    546 GB/s 的記憶體頻寬是關鍵。AI 推理的瓶頸不是算力,是記憶體頻寬(Memory Bandwidth)。M4 Max 的頻寬比 M3 Max 高 33%,直接反映在推理速度上。

    想要完整的效能調校指南?讀「Mac Mini M4 能跑 AI 嗎?128GB 統一記憶體實測」

    24/7 持續運行

    Mac 用戶用 launchd 讓 OpenClaw 開機自動啟動:

    # 建立 plist
    cat > ~/Library/LaunchAgents/com.openclaw.agent.plist << 'EOF'
    <?xml version="1.0" encoding="UTF-8"?>
    <!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN" "http://www.apple.com/DTDs/PropertyList-1.0.dtd">
    <plist version="1.0">
    <dict>
        <key>Label</key>
        <string>com.openclaw.agent</string>
        <key>ProgramArguments</key>
        <array>
            <string>/usr/local/bin/openclaw</string>
            <string>start</string>
        </array>
        <key>RunAtLoad</key>
        <true/>
        <key>KeepAlive</key>
        <true/>
    </dict>
    </plist>
    EOF
    
    # 載入
    launchctl load ~/Library/LaunchAgents/com.openclaw.agent.plist

    如果你用的是 MacBook 而不是 Mac Mini,可以設定蓋上螢幕不休眠(clamshell mode):系統設定 → 電池 → 選項 → 關閉「當蓋上螢幕時讓電腦睡眠」。接上電源和外接螢幕,蓋上螢幕就變成一台不關機的 AI 伺服器。我自己就是用這個方式讓 MacBook Pro M4 Max 24/7 運行 OpenClaw 和 Ollama。

    想看完整的伺服器設定?讀「Mac Mini 24/7 伺服器全記錄」

    安全加固

    五件必做的事:

    1. 用 Docker 跑 OpenClaw(隔離主系統)
    2. 設好 allowed_users(每個平台都要)
    3. 只裝 verified 標誌的技能
    4. 用 Tailscale VPN 取代直接暴露端口
    5. 每週檢查一次更新

    想看完整的安全設定指南?讀「OpenClaw 安全完整評估」

    五個階段的時間軸

    階段時間你的狀態解鎖的能力
    1. 安裝30 分鐘「裝好了」基本對話
    2. 基本設定20 分鐘「能用了」手機遠端指揮
    3. 日常使用第 1 週「偶爾用」取代部分手動操作
    4. 自動化第 2-4 週「天天用」24 小時自動執行任務
    5. 進階調校第 2 個月起「離不開」效能最大化、安全加固

    80% 的 OpenClaw 用戶停在階段 2 就放棄了。原因是他們裝好之後不知道拿來做什麼。階段 3 的「10 個真實指令」就是為了幫你跨過這個門檻。

    一旦你到了階段 4,你會突然發現自己每天多出 2 到 3 小時。因為那些「花五分鐘就能做完但每天都要做」的事,全部被自動化了。


    這篇教學比市面上任何一篇都長。因為「教學」不是告訴你怎麼按安裝鈕。教學是帶你從零走到你自己能跑起來,包括中間會踩到的坑。

    如果你在某一步卡住了,先看那個步驟下面的故障排除。90% 的問題都是那幾個原因。

    剩下的 10%?歡迎來 Dean Today 的其他文章找答案。每一篇都是從真實使用經驗裡寫出來的。

    想先了解 OpenClaw 是什麼?讀「OpenClaw 是什麼?完整解析」
    想看更多應用場景?讀「一人公司 AI 團隊架構」
    想知道值不值得投資?讀「雲端 vs 本地 AI 成本分析」。

    看不完?讓 AI 幫你抓重點

    選一個你常用的 AI,3 分鐘掌握這篇核心框架

    已有 53 人用 AI 分析這篇文章

    分析完了?覺得有用的話
    更新於 2026年03月02日

    © 2026 Dean Today 版權所有

    轉載請註明出處並附上原文連結

    分享:
    AI 全端框架
    AI 全端框架
    免費下載

    讀到這裡,你可能會問

    OpenClaw 安裝到真正好用需要多久?五個階段分別是什麼?
    從「裝好」到「離不開」有五個明確階段:安裝(30 分鐘)、基本設定(20 分鐘)、日常使用(第 1 週)、自動化(第 2-4 週)、進階調校(第 2 個月起)。多數人卡在第二階段就放棄,因為沒有人告訴他們第三階段之後才是真正回報開始的地方。完整走完五個階段大約需要一到兩個月的日常使用。
    為什麼很多人裝好 OpenClaw 用三天就放著了?
    因為大部分教學只教安裝,沒有教「裝完之後拿來做什麼」。缺乏真實的使用場景和自動化配方,用戶裝好之後不知道下一步是什麼。這篇教學的不同之處在於:每個階段都有真實的指令和故障排除,從七個月、每天超過八小時的實際使用中提煉出來,而不是翻譯官方文件。關鍵是要撐過第二階段進入日常使用。
    M4 Max 128GB 跑 OpenClaw 的實測效能數據如何?
    在 M4 Max 128GB 上,搭配 qwen2.5:32b 本地模型,25 個並發推理請求可以穩定運行,Token 吞吐量達 700-900 tok/s,單次請求回應約 4-6 秒。同時開著開發環境、瀏覽器和 OpenClaw 也不會卡。這篇教學的每一組效能數據都是作者在這台機器上親手測出來的,不是理論值。

    © 2026 Dean Today — 版權所有

    本文為原創內容,受著作權法保護。轉載請註明出處並附上原文連結:https://deantoday.com/full-stack-ai/openclaw-complete-tutorial-2026-m4-max/

    Dean Today 讀者 Dean Today 讀者 Dean Today 讀者

    訂閱 AI 週報

    每週收到最新的 AI 技術趨勢與實作技巧