コンテンツへスキップ

OpenClawをローカルLLMで完全無料化! 月数万円のAPI代を0円にした話

  • by

はじめに

2026年になって一番話題になったAIエージェントといえば、やっぱりOpenClawですよね。

WhatsAppやDiscord、Telegramから「明日のフライトのチェックインして」「未読メール全部優先度順に並べて」「このPDFの内容を要約してNotionに放り込んで」みたいな指示を出すだけで、本当に勝手に動いてくれるヤツ。

でも…みんながぶち当たる壁がこれ。

「Claude OpusとかGPT-4o使うとAPI代がエグい」

1日に何十万トークンも消費する日もあるので、ヘビーユーザーだと月3〜8万円とか普通に飛んでいきます。 「こんな便利な秘書、維持費が高すぎる…」って絶望している人も少なくないはず。

そこで今回は、OpenClawを完全にローカルLLMだけで動かして、API代0円生活を実現した方法を全部公開します。

生成AI導入をお考えのお客様はお気軽にご相談ください。

結論から言うと「できるし、意外と実用的」

  • Ollama + そこそこ強いモデル(Qwen2.5-72B, Llama-3.1-70B, DeepSeek-R1など)
  • 最低でもMac mini M4 24GB 以上推奨 → 月額0円でClaude並みのエージェントが自宅で24時間動く

実際に私の環境(Mac mini M4 24GB)で動かしてみた感想も交えて書いていきます。元々日常で使っているのもなので私の場合、投資費用はありませんが。2026年3月時点でこの機種はapple storeで15万円程度です。

必要なもの(2026年3月現在のおすすめ構成)

項目おすすめ理由・コメント
OpenClaw本体最新版(curlインストール)簡単コマンド
ローカルLLMサーバーOllama or LM Studio or vLLMOllamaが一番簡単。vLLMは速度最優先なら
モデルQwen2.5-72B-Instruct / Llama-3.1-70B-Instructツール呼び出し精度が抜群に高い。DeepSeek-R1-0528もかなり強い
必要VRAM最低40GB以上(72Bなら)4bit量子化でもOKだが、できれば8bitかfp16で回したい
コンテキスト長64k〜128k推奨OpenClawは長文コンテキストをかなり食うので短いとすぐ忘れる

ぶっちゃけ一番コスパ良いのは Ollama + Qwen2.5-32B-Instruct (q4_K_M or q5_K_M) これで十分「使える秘書」レベルになります。

実際にやった手順(全部無料)

OpenClawのインストール

公式のワンライナーで終わり

curl -fsSL https://openclaw.bot/install.sh | bash

Ollamaのインストール & モデルダウンロード

Ollama公式サイトからインストール(Mac/Linux/Windows全部対応)

curl -fsSL https://ollama.com/install.sh | sh

強めのモデルを引っ張ってくる

ollama pull qwen2.5:32b-instruct

OpenClawにローカルモデルを認識させる

OpenClawの設定ファイル(通常は ~/.openclaw/config.yaml)を開いて以下のように書くだけ

models:
primary: "ollama/qwen2.5:32b-instruct-q5_K_M"
# fallbackも同じでOK
fallback: "ollama/qwen2.5:32b-instruct-q5_K_M"

providers:
ollama:
base_url: "http://127.0.0.1:11434/v1"
api_key: "ollama" # ダミーでOKOllamaは認証なし

または openclaw onboard コマンドで対話形式で設定してもOKです。

テスト起動

openclaw start

DiscordやTelegramでボットに話しかけてみて 「今何時?」「今日の天気教えて」「デスクトップのスクショ撮って説明して」 とか適当に投げてみてください。ちゃんと動けば成功!

実際の使用感・リアルな限界と強み

良かったところ

  • API代がで0円になった
  • 深夜2時に「明日の予定整理して」と投げても即反応
  • ファイル読み書き・シェル実行・ブラウザ操作が全部ローカルで完結
  • プロンプトインジェクション対策も自分で強化できる

微妙だったところ(正直話)

  • Claude Opus 4やGPT-4oと比べると「賢さ」は1〜1.5段階落ちる
  • 複雑なマルチステップ推論でたまに迷子になる
  • コンテキストが128kでも長時間会話すると徐々に忘れっぽくなる。64kがいいみたいです。

でも「日常の雑務全部丸投げ」レベルなら、もう十分すぎるくらい実用的です。

まとめ:2026年は「ローカルエージェント元年」かも

正直、OpenClaw + Claudeで暮らしてた頃は「未来の秘書キター!」って感動してましたが、 今は「ローカルでこれだけ動くならもうクラウドいらないかな?」って気持ちの方が強いです。

今回の検証で使ったMAC mini M4 24GBメモリ搭載品の価格はおおよそ 月15万円です。月5万のAPI代が浮いたら、3ヶ月で償却できます。

関連記事