はじめに
2026年になって一番話題になったAIエージェントといえば、やっぱりOpenClawですよね。
WhatsAppやDiscord、Telegramから「明日のフライトのチェックインして」「未読メール全部優先度順に並べて」「このPDFの内容を要約してNotionに放り込んで」みたいな指示を出すだけで、本当に勝手に動いてくれるヤツ。
でも…みんながぶち当たる壁がこれ。
「Claude OpusとかGPT-4o使うとAPI代がエグい」
1日に何十万トークンも消費する日もあるので、ヘビーユーザーだと月3〜8万円とか普通に飛んでいきます。 「こんな便利な秘書、維持費が高すぎる…」って絶望している人も少なくないはず。
そこで今回は、OpenClawを完全にローカルLLMだけで動かして、API代0円生活を実現した方法を全部公開します。
生成AI導入をお考えのお客様はお気軽にご相談ください。
結論から言うと「できるし、意外と実用的」
- Ollama + そこそこ強いモデル(Qwen2.5-72B, Llama-3.1-70B, DeepSeek-R1など)
- 最低でもMac mini M4 24GB 以上推奨 → 月額0円でClaude並みのエージェントが自宅で24時間動く
実際に私の環境(Mac mini M4 24GB)で動かしてみた感想も交えて書いていきます。元々日常で使っているのもなので私の場合、投資費用はありませんが。2026年3月時点でこの機種はapple storeで15万円程度です。
必要なもの(2026年3月現在のおすすめ構成)
| 項目 | おすすめ | 理由・コメント |
|---|---|---|
| OpenClaw本体 | 最新版(curlインストール) | 簡単コマンド |
| ローカルLLMサーバー | Ollama or LM Studio or vLLM | Ollamaが一番簡単。vLLMは速度最優先なら |
| モデル | Qwen2.5-72B-Instruct / Llama-3.1-70B-Instruct | ツール呼び出し精度が抜群に高い。DeepSeek-R1-0528もかなり強い |
| 必要VRAM | 最低40GB以上(72Bなら) | 4bit量子化でもOKだが、できれば8bitかfp16で回したい |
| コンテキスト長 | 64k〜128k推奨 | OpenClawは長文コンテキストをかなり食うので短いとすぐ忘れる |
ぶっちゃけ一番コスパ良いのは Ollama + Qwen2.5-32B-Instruct (q4_K_M or q5_K_M) これで十分「使える秘書」レベルになります。
実際にやった手順(全部無料)
OpenClawのインストール
公式のワンライナーで終わり
curl -fsSL https://openclaw.bot/install.sh | bashOllamaのインストール & モデルダウンロード
Ollama公式サイトからインストール(Mac/Linux/Windows全部対応)
curl -fsSL https://ollama.com/install.sh | sh強めのモデルを引っ張ってくる
ollama pull qwen2.5:32b-instructOpenClawにローカルモデルを認識させる
OpenClawの設定ファイル(通常は ~/.openclaw/config.yaml)を開いて以下のように書くだけ
models:
primary: "ollama/qwen2.5:32b-instruct-q5_K_M"
# fallbackも同じでOK
fallback: "ollama/qwen2.5:32b-instruct-q5_K_M"
providers:
ollama:
base_url: "http://127.0.0.1:11434/v1"
api_key: "ollama" # ダミーでOK(Ollamaは認証なし)または openclaw onboard コマンドで対話形式で設定してもOKです。
テスト起動
openclaw startDiscordやTelegramでボットに話しかけてみて 「今何時?」「今日の天気教えて」「デスクトップのスクショ撮って説明して」 とか適当に投げてみてください。ちゃんと動けば成功!
実際の使用感・リアルな限界と強み
良かったところ
- API代がで0円になった
- 深夜2時に「明日の予定整理して」と投げても即反応
- ファイル読み書き・シェル実行・ブラウザ操作が全部ローカルで完結
- プロンプトインジェクション対策も自分で強化できる
微妙だったところ(正直話)
- Claude Opus 4やGPT-4oと比べると「賢さ」は1〜1.5段階落ちる
- 複雑なマルチステップ推論でたまに迷子になる
- コンテキストが128kでも長時間会話すると徐々に忘れっぽくなる。64kがいいみたいです。
でも「日常の雑務全部丸投げ」レベルなら、もう十分すぎるくらい実用的です。
まとめ:2026年は「ローカルエージェント元年」かも
正直、OpenClaw + Claudeで暮らしてた頃は「未来の秘書キター!」って感動してましたが、 今は「ローカルでこれだけ動くならもうクラウドいらないかな?」って気持ちの方が強いです。
今回の検証で使ったMAC mini M4 24GBメモリ搭載品の価格はおおよそ 月15万円です。月5万のAPI代が浮いたら、3ヶ月で償却できます。
