コンテンツへスキップ

OpenClawを使うべきでない理由— そして、なぜ私は毎日使うのか。

🦞

AI Agent レビュー 2026

OpenClawを
使うべきでない理由 — そして、なぜ私は毎日使うのか。

2026.04.04 ── 読了:約 8 分 ── AIエージェント / オープンソース

「AIがメールを送り、カレンダーを管理し、フライトをチェックインする。」
これを聞いて、あなたは何を感じるか。
興奮か。それとも、かすかな恐怖か。
OpenClawを語るとき、正直に言おう — その両方が正解だ。

🦞 🦞 🦞

Chapter 01

そもそもOpenClawとは何か

OpenClawは、オーストリアの開発者 Peter Steinberger が作ったオープンソースのAIエージェントだ。「チャットに答えるだけのAI」ではない。あなたのデバイス上で動き、WhatsApp・Telegram・Discordといった使い慣れたアプリを通じて、実際にタスクを実行する

メールの仕分け、カレンダーの調整、ファイル操作、シェルコマンドの実行。AIに「手」を与えたのがOpenClawだ。しかもすべてローカルで動くため、データは自分のマシンから外に出ない。

🦞 OpenClaw の前身

もともとは「Clawdbot」という名前だったが、Anthropicから商標上の問題を指摘され「Moltbot」に改名。3日後にはさらに「OpenClaw」へ。わずか2ヶ月で3回の名前変更を経た、波乱のスタートアップだ。

2025年11月

Clawdbot として誕生

ClaudeのAIをベースにした個人向けアシスタントとして公開。

2026年1月27日

Moltbot に改名

Anthropicの商標申し立てにより急遽改名。SNSハンドル切り替えの隙をついた「ハンドル強奪」事件も発生。

2026年1月29日

OpenClaw へ

「Moltbotは舌に乗らない」として再改名。オープンソースとロブスターのDNAを両立する名前に落ち着いた。

2026年3月

GitHubスター 24万超・中国規制へ

爆発的に普及する一方、中国政府が国家機関での使用を禁止。

「ChatGPTが登場したとき、初めて本物のAIに触れた感動があった。でもすぐに気づいた — 結局コピペは自分でやらなければいけない、と。OpenClawはその不満を、完全に解消した。」

— Christoph Riedl, Northeastern University Business Professor

Chapter 02

OpenClawの「本当の強み」4つ

普通のチャットAIと何が違うのか。核心をまとめると、こうなる。

💬 どのアプリからでも使える

WhatsApp・Telegram・Discord・Slack・iMessage・LINEなど50以上のチャンネルに対応。

🧠 永続的な記憶

会話履歴や好みをローカルに保存。あなたのことを「本当に」覚えているAIになる。

⚙️ ハートビート機能

30分ごとに自律起動し、受信トレイを確認・処理。プロンプトなしで動く自律性。

🔧 スキルで拡張無限

Skillを追加すれば飛行機の予約もできる。AIに「手」を与える仕組みだ。

Chapter 03

使うべきでない理由 — 正直に言う

ここが本題だ。OpenClawが素晴らしいのは事実だが、無条件に称賛するのは危険だ。サイバーセキュリティ研究者たちは、明確なリスクを指摘している。

⚠️ リスク 01 — プロンプトインジェクション

メールやドキュメントに悪意あるAI命令を埋め込めば、OpenClawがそれを正規の指示として実行してしまう可能性がある。Ciscoの研究チームがサードパーティのスキルでデータ流出を確認済み。

⚠️ リスク 02 — 「過剰自律」問題

AIエージェントが途中で目的を誤解し、想定外の行動を取ることがある。ある学生は、自分のAIが無断でデーティングアプリのプロフィールを作成していたことに後から気づいた。

⚠️ リスク 03 — 権限の広さ

パスワード、カレンダー、メール、ファイルシステム。これだけの権限を一つのソフトに与えることの意味を、使う前に深く考えなければならない。

Chapter 04

それでも、なぜ使うのか

リスクを知った上で、なお私がOpenClawを使う理由は一つだ。「Human-in-the-Loop」の設計で使えば、それは圧倒的な武器になるからだ。

OpenClawの正しい使い方は「野放しにすること」ではない。受信メールを読んで返信草稿を作り、「承認しますか?」とWhatsAppで聞いてくる。その一手間が、すべてのリスクを消してくれる。

💡 推奨セットアップ

本番環境では必ずHuman-in-the-Loopを設定すること。「承認なしに外部送信しない」「ファイル削除は確認を必須にする」この2つのルールだけで、リスクの大半は回避できる。

Andrej Karpathyが「最もSFのテイクオフに近いものを最近見た」と評したOpenClaw。誇張ではない。AIが自分たちだけの議論スペースを求め始めた、という報告も出ている。これはもはや「ツール」ではなく、AIと人間の関係そのものの変容だ。

結論:OpenClawは「道具」ではなく「同僚」だ

使い方を誤れば最悪の事態を招く。だが正しく設定すれば、毎日の仕事を根本から変える。大切なのは「AIを信頼する」ことではなく、「AIと正しく協働する設計を作ること」だ。ロブスターに手綱をつけて、一緒に走ろう。

OpenClaw AIエージェント 自動化 オープンソース プライバシー 生産性