Untitled
source: "https://note.com/earl_grey_y/n/n7ec4e9ac00ee?sub_rt=share_sb" tags:
- "clippings"
整理日: 2026-03-16

OpenClawと過ごした10日間で体験した22のこと
こんにちは。
アールグレイです。
今回は、AIエージェント「OpenClaw」を10日間使い倒して、実際に何ができたのかを全部書きたいと思います。
OpenClawっていうのは、オープンソースのAIエージェントフレームワークです。
ChatGPTのような「聞いたら答えてくれるAI」とは違って、 自分から動いてくれるAI なんですよね。
DiscordやLINEから話しかけるだけじゃなくて、定期的にニュースを集めたり、天気を教えてくれたり、記事のドラフトを作ってくれたりする。
正直、ここまでできると思ってなかったです。
10日間で体験した22のことを、カテゴリ別にまとめました。
構造図
flowchart TD
A["自分から動いてくれるAI"]
A --> B["あ、それ昨日やりましたね"]
B --> C["2\. LINE連携"]
C --> D["8\. Nouns DAO提案チェック"]
D --> E["15\. Voice Agent"]
E --> F["22\. ComfyUIワークフロー分析"]
style F fill:#c05746,color:#fff,stroke:none
💬 コミュニケーション
1. Discord連携
まずはDiscordです。OpenClawをセットアップすると、Discordのチャンネルに常駐してくれるAIエージェントが手に入ります。
メンションすれば返事をくれるし、ファイルを送れば読んでくれる。
普通のチャットボットと違うのは、 前の会話を覚えている こと。
昨日の話の続きができるんです。
これ、地味にすごいと思っています。
2. LINE連携
Discordだけじゃなくて、LINEからも同じエージェントと会話できるようにしました。
Tailscale Funnelを使ってWebhookを受け取る仕組みなんですけど、一度設定してしまえば普通のLINE友だちと話すのと変わらない感覚です。
外出先からスマホでサッと聞けるのが便利なんですよね。
3. マルチチャネル同時運用
DiscordとLINEはそれぞれ別のセッションとして動いています。
会話の文脈は分離されているんですけど、 記憶ファイルは共有している んですよね。
なので、Discordで決めたことをLINEから聞いても「あ、それ昨日やりましたね」って返ってくる。
会話は別々だけど、記憶はひとつ。この仕組みが、複数チャネルで使うときにすごく自然に感じました。
🤖 自動化・定期タスク
OpenClawにはcronジョブという仕組みがあって、定期的にタスクを自動実行してくれます。これが本当に便利なんです。
4. 毎朝の天気予報
毎朝、天気予報を自動で通知してくれます。気温、降水確率、服装のアドバイスまで。
朝起きてスマホを見たら天気が届いている生活、慣れると手放せなくなります。
5. JR通勤運行情報
朝と夕方に通勤路線の運行状況をチェックして教えてくれます。
遅延や運休があれば即通知。これのおかげで、駅に着いてから慌てることがなくなりました。
6. ローカルLLM最新ニュース
毎朝、HuggingFace・GitHub・Redditから最新のAI情報を収集してレポートにまとめてくれます。
Ollamaの新バージョンとか、トレンドのモデルとか、自分で巡回する手間がなくなったのは大きいです。
7. OpenClaw最新アップデート通知
OpenClaw自体のバージョンアップもチェックしてくれます。
「新しいバージョンが出てますよ」って教えてくれるので、更新を見逃すことがなくなりました。
8. Nouns DAO提案チェック
6時間ごとにNouns DAOの新しい提案を確認して通知してくれます。
DAOの提案って、気づいたら投票期限が過ぎてることがあるんですよね。
これで見逃しが減りました。
9. note記事ドラフト自動作成
トレンドの話題から記事のテーマを選定して、ドラフトまで自動で作ってくれます。
朝起きたら下書きができている。
もちろんそのまま公開はしませんが、書き始めのハードルがめちゃくちゃ下がりました。
🎬 動画制作
個人的に一番驚いたのがこのカテゴリです。
AIエージェントに動画制作のパイプラインを構築させるなんて、正直やる前は想像もしていませんでした。
10. Remotionで解説動画制作
Remotionというフレームワークを使って、台本からTTS音声合成、字幕生成、動画書き出しまでの自動パイプラインを構築しました。
台本をscript.tsに書くだけで動画ができちゃうんです。
11. ElevenLabs TTS音声合成
ナレーション音声はElevenLabsのBellaボイスで合成しています。
日本語の自然さがかなり良くて、聞いていて違和感がないレベルです。
12. SadTalkerリップシンク
ComfyUI経由でSadTalkerを使い、キャラクター画像に口パクを付けました。
1枚のイラストと音声データから、キャラが喋っているように見える動画が生成されます。
13. Hallo2リップシンク
SadTalkerより新しいHallo2も試しました。
こちらはより高品質で、音声に合わせた自然な口の動きが生成されます。
132秒の音声から約45分で動画が完成。
RTX 5090のGPUパワーを活かしています。
14. PNGTuberコンポーネント開発
VTuberの簡易版である「PNGTuber」の仕組みをRemotionに統合しました。
口スプライト5種類(閉じ・半開き・全開・え・う)を音声解析で自動切り替え。
これにジェスチャー用のループ動画を組み合わせれば、手の動きのある解説動画が作れる構造です。
🗣️ 音声
15. Voice Agent
LiveKit + Deepgram + ElevenLabs + Claudeを組み合わせた音声会話エージェントも構築しました。
マイクで話しかけると、AIが音声で返事をしてくれる。
テキストを打つ手間すらなくなります。
🎨 画像生成
16. Nanobanana(Gemini)でアイキャッチ画像
note記事のアイキャッチ画像をGeminiで自動生成するスキルを作りました。
記事の内容を渡すだけで、それっぽい画像を作ってくれます。
17. Chrome拡張連携
OpenClawのChrome拡張を使って、ブラウザ上でGeminiの画像生成を操作し、生成された画像をDiscordに自動送信する連携も実現しました。
ブラウザ操作の自動化って、可能性が広がりますね。
18. FLUX.2 Klein
ローカルでの画像生成も試しました。
FLUX.2 Kleinはかなり軽量で、RTX 5090なら快適に動作します。
📝 コンテンツ制作
19. Obsidian連携
OpenClawとの会話ログをObsidianに自動バックアップする仕組みを作りました。
日々の会話がそのままナレッジベースになっていく。
AIとの対話を「資産」として残せるのは、個人的にすごく価値があると思っています。
🔧 開発・技術
20. セッション最適化
OpenClawを使い込んでいくと、セッションが頻繁にリセットされる問題に直面しました。
原因を調査して、cronジョブのモデルをOpus 4.5からSonnet 4に切り替えたり、メモリファイルを圧縮したりして、コストを約80%削減。
こういう運用面の最適化も、AIエージェントと一緒に解決できるのが面白いところです。
21. セキュリティ設定
便利さの裏にはリスクもあります。
0.0.0.0バインドの全面禁止、Tailscale経由のみのアクセス制限など、セキュリティ設定をしっかり行いました。
この辺りはnote記事にも書いているので、興味がある方はぜひ。
22. ComfyUIワークフロー分析
ComfyUIに蓄積されていた約90個のワークフローを分類・分析しました。
画像生成、動画生成、音声処理など、どんなワークフローがあるのかを整理するだけでも、次に何を試すかのヒントになります。
まとめ:10日間で分かったこと
10日間で22個。書き出してみると、けっこうやったなという気持ちです。
一番感じたのは、 AIエージェントは「質問に答えてくれるもの」じゃない ということです。
寝ている間にニュースを集めて、起きたら天気と一緒に通知が来て、記事のドラフトができている。
こちらが何も言わなくても動いてくれる。これが「AIと働く」ということなんだなと、実感しました。
しかもOpenClawはオープンソースです。自分の環境に合わせてカスタマイズできるし、スキルを追加すればどんどん賢くなる。
もちろん、まだまだ発展途上な部分もあります。
セッションが切れると記憶がリセットされたり、コンテキストが膨らむとエラーが出たり。
でもそれを自分で調査して改善していくプロセスも含めて、すごく楽しいんですよね。
AIエージェントに興味がある方は、ぜひ試してみてください。
10日後には、きっと想像以上のことができているはずです。
それでは、また。