メインコンテンツまでスキップ

よくある質問

本ページでは、OpenClaw の初心者から上級ユーザーまで、最も多く寄せられる質問をまとめています。


基本概念

Q:OpenClaw とは何ですか?ChatGPT との違いは?

A: OpenClaw はオープンソースの自律型 AI エージェントプラットフォームで、あなた自身のコンピュータ上で動作します。ChatGPT との主な違いは以下の通りです。

比較項目ChatGPTOpenClaw
実行場所OpenAI クラウドあなたのローカルマシン
データの管理OpenAI が保有あなた自身が管理
自律行動会話のみタスクの自律実行(メール送信、家電制御など)
マルチプラットフォームChatGPT インターフェースのみ20 以上のメッセージングプラットフォーム
拡張性限定的な GPTs13,000+ ClawHub スキル
費用月額制オープンソース無料(LLM API 費用は別途)

Q:OpenClaw は無料ですか?

A: OpenClaw 本体はオープンソースで無料(MIT ライセンス)です。ただし、以下の費用は自己負担となります。

  • LLM API 費用 — Claude、GPT などのクラウドモデルの使用には費用がかかります。Ollama とローカルモデルの組み合わせは無料です。
  • メッセージングプラットフォーム — ほとんどが無料(Telegram Bot、Discord Bot など)、一部に費用が発生する場合があります。
  • ハードウェア — あなた自身のコンピュータまたはサーバー。

典型的な月額費用:

使用頻度推定月額
ライト(1 日数回の会話)$5-15
ミドル(日常アシスタント)$15-50
ヘビー(マルチエージェント + 自動化)$50-200+
完全ローカル(Ollama)$0(電気代を除く)

Q:プログラミングの知識は必要ですか?

A: 基本的な使用にはプログラミング能力は不要です。インストールと設定はチュートリアルの手順に従って完了できます。日常的な使用は、メッセージングアプリ(Telegram など)を通じてエージェントと会話するだけです。

高度な使用(カスタムスキルの開発、API 統合、マルチエージェントデプロイ)には一定のプログラミング基礎が必要です。


セキュリティ

Q:OpenClaw は安全ですか?

A: OpenClaw 自体の設計は安全ですが、設定の不備は深刻なセキュリティリスクを引き起こします。既知のセキュリティ問題:

  • CVE-2026-25253:Gateway リモートコード実行脆弱性(修正済み)
  • ClawHavoc:2,400 以上の悪意あるスキルが ClawHub に埋め込み(除去済み)
  • 30,000 以上のインスタンスが Gateway ポートの露出により侵害

正しく設定すれば(localhost にバインド、認証を有効化、Podman rootless を使用)、OpenClaw は安全です。詳細は セキュリティベストプラクティス を参照してください。

Q:会話データはアップロードされますか?

A: OpenClaw 本体はデータをアップロードしません。ただし、使用する LLM プロバイダーは会話内容を受信します。

  • クラウド LLM(Claude、GPT など):会話はプロバイダーのサーバーに送信されて処理されます
  • ローカル LLM(Ollama):すべてのデータはあなたのコンピュータに留まり、完全にオフラインです

プライバシーを最優先する場合は、Ollama とローカルモデルの使用を推奨します。

Q:ClawHub のスキルは安全ですか?

A: ClawHub のスキルはコミュニティの開発者が投稿しており、安全性は保証されていません。ClawHavoc 事件後、ClawHub に VirusTotal スキャンが追加されましたが、自動スキャンですべての悪意ある動作を検出できるわけではありません。

スキルをインストールする前に、必ず スキル監査チェックリスト のチェックを完了してください。

Q:なぜ Docker ではなく Podman が推奨されるのですか?

A: Docker daemon は root 権限で動作します。スキルのサンドボックスが突破された場合、攻撃者がホストの root 権限を取得する可能性があります。Podman の rootless モードは root を必要とせず、サンドボックスが突破されても通常のユーザー権限しか取得できないため、リスクを大幅に軽減します。


インストールと設定

Q:OpenClaw がサポートする OS は?

A:

OSサポート状態
macOS 13+完全サポート
Ubuntu 22.04+完全サポート
Debian 12+完全サポート
Fedora 38+完全サポート
Arch Linuxコミュニティサポート(AUR)
Windows 11 (WSL2)サポート(WSL2 が必要)
Windows(ネイティブ)非サポート
ChromeOS非サポート

Q:最低ハードウェア要件は?

A:

項目最低推奨ヘビーユース
CPU2 コア4 コア8 コア以上
RAM4 GB8 GB16 GB 以上
ディスク2 GB5 GB20 GB 以上
GPU不要不要Nvidia(ローカル LLM アクセラレーション用)

Q:Raspberry Pi で動作しますか?

A: 技術的には Raspberry Pi 4/5(4GB 以上の RAM)で動作可能ですが、パフォーマンスは制限されます。軽量な使用シナリオ(シンプルな通知や自動化など)のみに推奨され、大規模な LLM との組み合わせには不向きです。

Q:OpenClaw の更新方法は?

A:

# npm インストールの場合
npm install -g @openclaw/cli@latest

# Homebrew インストールの場合
brew upgrade openclaw

# 更新後にマイグレーションを実行
openclaw migrate

# 検証
openclaw doctor

LLM とモデル

Q:OpenClaw がサポートする LLM は?

A: すべての主要 LLM プロバイダーをサポートしています。

プロバイダーモデル適した用途
AnthropicClaude Opus 4.6、Sonnet 4.5汎用会話、複雑な推論
OpenAIGPT-5.2 Codex、GPT-4.1コード生成、汎用会話
GoogleGemini 2.5 Proマルチモーダル、ロングコンテキスト
DeepSeekDeepSeek-V3コストパフォーマンスが高い
Ollama(ローカル)Llama 3.3、Qwen 2.5、Mistralオフライン使用、プライバシー優先
Groq各種オープンソースモデル超低レイテンシ

Q:どのモデルが最適ですか?

A: ニーズに応じて異なります。

  • 最高の汎用会話:Claude Opus 4.6
  • 最高のコード生成:GPT-5.2 Codex
  • 最高のコストパフォーマンス:DeepSeek-V3 または Claude Sonnet 4.5
  • 最高のプライバシー:Ollama + Llama 3.3(完全ローカル)
  • 最低レイテンシ:Groq

複数のモデルを設定し、LLM Router を使用してタスクタイプに応じて自動ルーティングすることを推奨します。

Q:複数の LLM を同時に使用できますか?

A: はい。OpenClaw の LLM Router はタスクタイプに応じて異なるモデルにルーティングできます。例:コードは GPT-5.2、会話は Claude、シンプルなタスクはローカルモデルに振り分けることが可能です。


スキルと ClawHub

Q:おすすめのスキルは?

A: 必須スキル Top 50 を参照してください。各カテゴリの推奨スキルとセキュリティ評価が含まれています。

Q:自分でスキルを開発するには?

A: スキルの本質は、OpenClaw manifest フォーマットに準拠した Node.js または Python プログラムです。基本手順:

  1. manifest.yaml でスキルのメタデータと権限を宣言
  2. メインロジックを作成(index.js または main.py
  3. ローカルでテスト
  4. ClawHub に公開

詳細は MasterClass モジュール 3: スキルシステム を参照してください。

Q:スキルはコンピュータにアクセスできますか?

A: スキルはコンテナサンドボックス内で実行され、デフォルトではアクセスできません。スキルは manifest.yaml で必要な権限(ネットワーク、ファイルシステム、シェルなど)を宣言する必要があり、permissions.override.yaml でさらに制限することができます。


メッセージングプラットフォーム

Q:複数のプラットフォームに同時接続できますか?

A: はい。これは OpenClaw のコア機能の一つです。Telegram、Discord、WhatsApp、Slack、LINE など複数のプラットフォームに同時接続でき、すべてのメッセージが同一のエージェントで処理されます。

Q:異なるプラットフォーム間でメモリは共有されますか?

A: はい。メモリシステムは統一されており、ユーザーがどのプラットフォームからメッセージを送信しても、エージェントは完全なメモリにアクセスできます。

Q:プラットフォームごとに異なる応答スタイルを設定できますか?

A: はい。SOUL.md でプラットフォームごとに異なる動作を設定できます。

## プラットフォーム別の動作
- Telegram:簡潔に返信、絵文字を使用
- Slack:プロフェッショナルに返信、Markdown フォーマットを使用
- Discord:カジュアルな口調、冗談も可

メモリと SOUL.md

Q:SOUL.md とは何ですか?

A: SOUL.md は Markdown ファイルで、エージェントのパーソナリティ、行動ルール、セキュリティ境界、日常タスクを定義します。エージェントの「魂」であり、エージェントがどのように思考し行動するかを決定します。

Q:エージェントはどのくらいの期間の会話を記憶できますか?

A: 理論的には無制限です。OpenClaw のメモリシステムはすべての会話を WAL に保存し、定期的に長期メモリに圧縮します。ただし、各インタラクションでエージェントが参照できるのは、LLM のコンテキストウィンドウ制限内の直近の会話と関連する長期メモリに限られます。

Q:エージェントに特定の事柄を忘れさせるには?

A:

# 特定の会話を削除
openclaw memory delete --conversation-id "conv_abc123"

# 特定期間のメモリをクリーンアップ
openclaw memory prune --before "2025-01-01"

# 完全リセット
openclaw memory reset --confirm

費用とパフォーマンス

Q:LLM API の費用を削減するには?

A:

  1. LLM Router を使用 — シンプルなタスクを安価なモデルにルーティング
  2. ローカルモデルを使用 — Ollama は無料(電気代のみ)
  3. コンテキストの最適化 — メモリサイズを削減してトークン消費を低減
  4. 使用量制限の設定 — LLM プロバイダーのコントロールパネルで月額上限を設定
  5. DeepSeek を使用 — Claude/GPT に近い品質で数分の一の費用

Q:OpenClaw の応答速度は?

A: 応答速度は主に LLM に依存します。

シナリオ典型的なレイテンシ
クラウド LLM(シンプルな質問)1-3 秒
クラウド LLM(複雑なタスク + スキル)3-15 秒
ローカル LLM(Ollama + GPU)2-10 秒
ローカル LLM(CPU のみ)10-60 秒

コミュニティと学習

Q:問題が発生したらどこに助けを求めればよいですか?

A:

  1. 本サイトのトラブルシューティング — よくある問題の即座の回答
  2. GitHub Issues — 正式なバグ報告
  3. Discord #help — リアルタイムのコミュニティサポート
  4. Reddit r/openclaw — ディスカッションと過去の問題の検索

Q:公式の学習コースはありますか?

A: 本サイトの MasterClass コース が現在最も包括的な学習リソースであり、基礎から上級までの 12 モジュールを網羅しています。


関連リンク