業務OSの心臓部は「毎日の業務を止めない仕組み」だ。ニュース収集、未読処理、KPIチェック、退社時の引き継ぎ。1つ1つは15分程度の作業だが、毎日積み重なると月数十時間になる。この「地味だが確実に時間を食う業務」を自動化したのが、ここで紹介する11スキルになる。
自動化の狙いは単なる時短ではない。朝の50分が5分になったことで、始業直後から「考える仕事」に入れるようになった。
/morning — 毎朝の50分が5分になる
使う場面: 毎朝の始業時。コマンド1つで、その日必要な情報が全て揃う。
Before → After:
- Before: Chatwork未読確認(15分)→ AIニュース検索・共有(15分)→ ECニュース検索・共有(15分)→ カレンダー確認(5分)。合計50分。毎朝、判断が必要な仕事に取りかかる前にこれだけの時間が消えていた。
- After:
/morningと打って5分待つだけ。全工程が並列で走り、Discordに結果が投稿される。月換算で約17時間の削減。
仕組み: まずChatwork未読のダイジェストを作成し、その後AIニュース・ECニュース・エージェントニュース・カレンダー取得が同時に走る。順番に意味がある。未読ダイジェストを先にやるのは、後続のニュース投稿が「未読」に混入するのを防ぐためだ。
実際の効果: 月17時間の削減。それ以上に大きかったのは「朝のストレスが消えた」こと。以前は始業直後に未読の山を見てげんなりしていたが、今はダイジェストで要点だけ確認して、すぐ本題に入れる。
/client-morning — クライアントKPIの毎朝自動チェック
使う場面: VPSのcronで毎朝8:15に自動実行される。人間は何もしない。
Before → After:
- Before: 各クライアントのスプレッドシートを1つずつ開き、昨日の数字を確認。異常値があればSlackやメールで報告。クライアント3社で30分。
- After: 全クライアントのKPIを自動取得し、異常値があればアラート付きでDiscordに投稿。曜日によって週次分析や月次レポートも自動生成。人間の作業はゼロ。
仕組み: Googleスプレッドシートから各クライアントのKPIデータを取得し、前日比・前週比を計算。異常値(急激な売上低下、転換率の急変など)を検知したらアラートを出す。月曜なら週次分析、月初なら月次レポートも自動で走る。
実際の効果: 「クライアントより先に異常に気づける」ようになった。以前は週次MTGで初めて数字の悪化を知ることがあったが、今は翌朝には検知できる。初動が1週間早くなった。
/chatwork-digest — 100件の未読が3分で整理される
使う場面: 毎朝の /morning の一部として自動実行。単独でも使える。
Before → After:
- Before: Chatworkを開いて、未読を1件ずつ読む。重要なものとそうでないものが混在していて、15分かけて全部目を通していた。急ぎの連絡を見落とすこともあった。
- After: AIが未読を全取得し、重要度を判定。「今日対応すべきこと」「確認だけでOK」「対応不要」に分類してリスト化。3分で全体像が掴める。
仕組み: Chatwork APIで未読メッセージを一括取得し、AIが内容を読んで重要度を判定する。期限付きの依頼、質問、報告、雑談を区別し、優先度付きのダイジェストを生成。Discordに投稿される。
実際の効果: 見落としが激減した。特に「複数のルームに分散した同じ案件の進捗」をAIが横断的にまとめてくれるのが大きい。人間がルームを1つずつ見ていると、点の情報になるが、AIは線にしてくれる。
/goodbye — 退社時の引き継ぎ書を自動生成
使う場面: 退社時。その日の作業ログから翌朝の自分への引き継ぎを作る。
Before → After:
- Before: 退社時に「明日やること」をメモしようとするが、疲れていて雑になる。翌朝「昨日何やってたっけ」から始まる。
- After:
/goodbyeで今日の作業ログからサマリーが自動生成される。「完了したこと」「途中のこと」「明日の優先事項」が整理されてDiscordに投稿。翌朝の自分がスムーズに再開できる。
仕組み: その日の作業ログ(コミット履歴、チャット履歴、完了タスク)を収集し、AIが要約する。未完了のタスクは「途中」として明示し、翌日の優先順位を提案する。
実際の効果: 「昨日の自分」と「今日の自分」の引き継ぎがスムーズになった。特に複数プロジェクトを並行していると、前日の文脈を忘れがちだが、これがあると5分で昨日の続きに入れる。
/run — 全自動化プログラムの一括実行
使う場面: 手動で全プログラムを動かしたいとき。VPSのcronが止まっているときの代替手段としても使う。
Before → After:
- Before: ai-ops、ec-ops、cc-opsをそれぞれ個別に実行。1つずつ完了を待って次を起動。全部で20分以上。
- After:
/runで全プログラムが並列実行される。依存関係のないものは同時に走るので、全体の実行時間が大幅に短縮。
仕組み: Phase 1(順次実行が必要なもの)を先に処理し、Phase 2(並列実行可能なもの)を同時起動する。ai-ops、ec-ops、cc-ops、agent-intel-opsが同時に走る。各プログラムの出力はDiscordの該当チャンネルに自動投稿される。
実際の効果: 「あれ動かし忘れた」がなくなった。個別に実行していた頃は、忙しい日にニュース投稿を忘れることがあった。一括実行なら漏れがない。
/ops-add — 新しい自動化プログラムの雛形を一発生成
使う場面: 新しい業務を自動化したいとき。「ECニュースの仕組みと同じようなやつを、別ジャンルで作りたい」というとき。
Before → After:
- Before: 既存プログラムのディレクトリ構成を見ながら、手動でフォルダを作り、設定ファイルをコピーし、Runbookを書き、AGENTS.mdに追記する。1時間。
- After:
/ops-addでプログラム名と概要を伝えるだけ。ディレクトリ構成、Runbook、設定ファイルのテンプレートが自動生成される。5分。
仕組み: 既存のopsプログラムの構成をテンプレートとして、新しいプログラムの雛形を生成する。Runbook(手順書)、ディレクトリ構成、CLAUDE.mdへのエントリ追加まで一括で行う。
実際の効果: 新しい自動化を始めるハードルが下がった。「面倒だから後でやろう」が「5分でできるから今やろう」に変わる。結果として自動化の数が加速度的に増えた。
/ops-review — 出力品質の自動チェック
使う場面: 各プログラムの出力が「使えるレベル」を維持しているか定期チェックしたいとき。
Before → After:
- Before: 各プログラムの出力を自分で読んで品質チェック。フォーマット崩れ、内容の薄さ、情報の古さを目視確認。クライアントに見せる前にヒヤッとすることがあった。
- After: AIが全出力をスキャンし、フォーマット崩れ・内容の薄さ・事実と推測の混同を検出。問題があれば具体的に指摘。
仕組み: 各プログラムの最新出力を読み込み、品質基準(事実と推測の分離、数値の出典、アクション提案の具体性)に照らしてチェックする。基準を満たさない項目をリストアップして報告。
実際の効果: 「AIが作ったものをAIがチェックする」二重構造。人間が全出力を読む必要がなくなり、問題がある部分だけに集中できる。
/learn — フィードバックを構造化記録し、同じミスを繰り返さない
使う場面: AIの出力に対して「ここが違う」「こうしてほしい」と伝えたとき。
Before → After:
- Before: AIに修正を指示して、その場では直る。でも次のセッションでは同じミスが再発。毎回同じことを言い直す。
- After:
/learnでフィードバックを構造化記録。同じパターンが3回出たらメモリに昇格し、以降は自動的に反映される。
仕組み: ユーザーのフィードバックを「どのスキルで」「何が問題で」「どう修正すべきか」の形式で記録する。同じパターンが3回蓄積されると、永続メモリに昇格してルール化される。
実際の効果: 「AIが成長する」実感がある。最初の頃は毎回同じ修正をしていたが、今はほとんど手直し不要になった。特にレポートのフォーマットやトーンの好みは、数回のフィードバックで安定した。
/weekly-report — 今週のニュースを横断的にまとめる
使う場面: 週末。その週にai-ops/ec-opsが生成したニュースを振り返り、週次トレンドを把握したいとき。
Before → After:
- Before: 1週間分のニュース投稿を遡って読み直す。どのニュースが重要だったか、トレンドは何か、を自分で考える。30分。
- After:
/weekly-reportで今週の全出力を自動読み込み、トレンド・注目テーマ・来週の注視ポイントをまとめたレポートが生成される。
仕組み: ai-ops、ec-ops、cc-opsが今週生成した全ニュースファイルを読み込み、テーマごとに分類・要約。「今週のトレンド」と「来週注視すべきこと」を抽出する。
実際の効果: 日次のニュースは「点」だが、週次でまとめると「線」になる。個別には気づかなかったトレンドの変化が見えるようになった。
/x-weekly-analyze — X運用の週次分析と戦略自動更新
使う場面: 毎週の振り返り。Xアカウントの成長状況を定量的に把握したいとき。
Before → After:
- Before: X Analyticsを開いて数字を見る。どの投稿が伸びたか、なぜ伸びたかを自分で分析。感覚的な振り返りになりがち。1時間。
- After:
/x-weekly-analyzeでインプレッション・エンゲージメント・フォロワー推移を自動分析。コンテンツランキング、伸びた要因分析、来週のアクション提案まで出力。
仕組み: X Analyticsのデータを取得し、投稿別のパフォーマンスをランキング化。伸びた投稿の共通点を分析し、来週のコンテンツ方針を提案する。成長戦略ドキュメントも自動で更新される。
実際の効果: 「なんとなく伸びた」が「この要素が効いた」に変わった。データに基づいて投稿方針を調整できるようになり、フォロワー成長のペースが安定した。
/competitor — 競合企業の最新動向を自動調査
使う場面: 競合の動きが気になるとき。定期的な市場モニタリングとして。
Before → After:
- Before: 競合のサイト、SNS、ニュースを手動で巡回。情報を整理してサマリーを作る。1回2時間。
- After:
/competitorで企業名を指定するだけ。Web検索→情報収集→サマリー→自社への示唆まで自動生成。数分で完了。
仕組み: 指定した企業名でWeb検索を実行し、最新のニュース・プレスリリース・SNS投稿を収集。競合の動向をカテゴリ別に整理し、「自社にとっての示唆」を添えてレポート化する。
実際の効果: 競合調査の頻度が月1回から週1回に上がった。以前は「時間がかかるから後回し」にしていたが、数分で終わるなら気軽にできる。情報の鮮度が劇的に改善した。