生成AIが変えたのは「アウトプット」ではなく「データ蓄積の構造」
生成AIで文章が書ける。画像が作れる。コードが書ける。
それは確かにすごい。でも、数十社のコンサルをやってきて、自分が一番衝撃を受けたのはそこじゃなかった。
「仕事をするだけで、データが勝手に溜まる」。
これが生成AIの一番の価値だと思っている。
なぜそう思うのか。まず歴史を振り返らせてほしい。
データ計測の歴史:TV → Web → DX → 生成AI
TV CM時代:「たぶんこれくらい見られた」
テレビCMの効果測定は、長い間こうだった。
ビデオリサーチ社が関東約900世帯にメーターを設置して、テレビがどのチャンネルに合っているかを計測する。関東1,800万世帯を、900世帯で代表する。これが「視聴率」だ。
しかもこれは「世帯視聴率」であって、「誰が見ているか」はわからない。テレビがついているだけで、その部屋に人がいるかもわからない。CMの間にトイレに行っていても、視聴率にはカウントされる。
広告主は「GRP(延べ視聴率)」という指標でCM枠を買う。視聴率10%の枠で15秒CM = 10GRP。3,000GRPのキャンペーンを買っても、同じ世帯が30回見ているのか、広く浅く届いているのか、わからない。
効果測定は? 事前事後調査(アンケート)。キャンペーンの前と後で「このブランドを知っていますか?」と聞く。数百万円かかって、結果は数週間後。しかも他の施策の影響と切り分けられない。
「たぶんこれくらい見られた。たぶん認知度が上がった。たぶん。」
これが2000年代まで広告の世界の当たり前だった。
Webマーケ時代:全行動がデータになった
インターネット広告が変えたのは、計測の「精度」ではなく「構造」だ。
サンプルではなく全数。推測ではなく実測。
誰がどの広告を見て、クリックして、商品ページに行って、カートに入れて、購入したか。全部データとして残る。アクセスログ、CTR、CVR、CPA。行動の全てがトラッキングされる。
2019年、ネット広告費が2兆1,048億円に達し、テレビ広告費1兆8,612億円を初めて逆転した(電通「日本の広告費」)。
これは「ネットの方が安いから」ではない。「ネットは効果が数字で見えるから」 だ。テレビCMの担当者が「GRP3,000でブランドリフトが推定○%」と報告する横で、デジタルの担当者は「CPA 2,300円で1,200件獲得」と報告する。経営者がどちらに予算を付けるかは明白だった。
DX時代:「全部クラウドに入れよう」→ 誰も入力しない
Webで行動データの価値が証明された。次は社内業務もデータ化しよう。これがDXの流れだ。
Salesforceを導入する。「商談の記録を全部入れてください」と言う。現場はどうなるか。
誰もちゃんと入れない。
営業マンの手元には個人のExcelがある。これは「入力が面倒だから」ではない。もっと根深い理由がある。
営業マンにとって、個人のExcelはへそくりだ。
見込みのある案件をSalesforceに入れるとどうなるか。上司に見える。チームに見える。期待される。そして、もし落としたら怒られる。
逆に、見込みの薄い案件を個人のExcelに隠しておく。誰にも期待されない。もし取れたら「すごいじゃん」と褒められる。
「見込みあり→落としたら怒られる」「見込みなし→取れたら褒められる」
この感情の力学がある限り、全員に共有されるSalesforceに正直な案件情報を入れるインセンティブがない。だから入れない。入力コストの問題ではなく、組織のインセンティブ構造の問題だ。
CRM導入の失敗率は50〜63%と言われている。失敗の原因はソフトウェアの機能ではない。「正直に入力すると損をする」構造を放置したまま、ツールだけ導入したことだ。
経理も構造は同じだ。予算管理システムはある。フォーキャストも出る。でも現場から上がってくる数字は「行きます」という希望的観測だ。
なぜか。週次定例、あるいは隔週の役員定例を想像してほしい。役員はその数字がいくつだったか、来週には覚えていない。その瞬間、良いのか悪いのか——その一点しか見ていない。だから現場は「悪く見えない数字」を出す。営業と同じインセンティブが働く。
結果どうなるか。経理部長は、現場から上がってくる見込み数字で会社のキャッシュフローを管理できない。現金が不安定ならなおさらだ。だから手元に独自のロジックで計算したExcelを持っている。 現場の希望的観測を自分の経験値で補正して、実態に近いフォーキャストを出す。しかもこれが高確率で当たる。
公式のシステムと、個人の手元資料が二重に存在する。どの会社でも同じだ。
「全部クラウドに入れて、リアルタイムでデータを一元管理する」——SaaSベンダーは10年以上これを言い続けてきた。理想郷だった。なぜ定着しないか。
仕事とデータ入力が別の行為だった。 そして、正直に入力するインセンティブがなかった。 この2つが重なって、DXの理想は絵に描いた餅になった。
生成AI:仕事をすること=データを残すこと
生成AIはこの構造を根本から変えた。
自分は中小企業で経営幹部をやっている。担当業務は85個。その業務をAIエージェント(Claude Code)と一緒にやっている。
AIと対話しながら仕事をすると、何が起きるか。
「ログに残して」と言う必要すらない。AIと対話して仕事をしている時点で、その会話自体がログになっている。 何を指示して、何が返ってきて、どう判断して、何を修正したか。全部、対話の履歴として勝手に残る。
手を止めない。別のツールを開かない。意識すらしない。仕事をしているだけで、データが生まれている。
仕事をすることとデータを残すことが、完全に同じ行為になった。
しかも、データが雑でいい。
これがどれだけ革命的か、DXの現場を知っている人間なら鳥肌が立つはずだ。
これまでのデータ蓄積は、決まったフォーマットに、決まった形式で、決まったフィールドに入力するのが大前提だった。関数を組んで整形する。ETL処理を設計する。データベースのスキーマを定義する。「どうやったら正しいフォーマットでデータを収集できるか」を設計するのが一番大変で、一番コストがかかる工程だった。
DXプロジェクトが炎上する原因の大半がここだ。業務フローを分析して、データの入力フォーマットを設計して、現場にその通り入力させようとする。現場は「面倒だ」「今までのやり方の方が早い」と抵抗する。入力規則を守らないデータが混じって、バッチ処理がエラーを吐く。修正する。また壊れる。プロジェクトが半年延びる。よくある話だ。
生成AIは、このボトルネックをごっそり消した。
雑なメモでいい。走り書きでいい。箇条書きでも、口語でも、日本語と英語が混ざっていても。とにかくローデータを渡せばいい。AIが構造化してくれる。検索もできる。分析もできる。フォーマットの統一も、必要なときにAIがやる。
「どうやってフォーマットを揃えるか」「どうやってDBに入れるか」——この設計が不要になった。データ収集の難易度が、桁で下がった。
これはDXの文脈では革命だ。10年かけて「綺麗なデータを集める仕組み」を作ろうとして挫折してきた企業が、「とにかく雑でもいいから全部放り込め、あとはAIが何とかする」で済むようになった。
RAG(Retrieval-Augmented Generation)を理解している人には自明だろう。蓄積されたデータにAIがアクセスして、必要なときに必要な形で引き出す。蓄積の質より、蓄積の量と継続性が勝つ。フォーマットの美しさは、もう競争優位ではない。
「ログを取れ」は二流の助言。問題はそこじゃない。
ここまでの話を聞いて「なるほど、ログを取りましょう」と思った人は、半分しか理解していない。
ログの重要性なんて、まともなビジネスマンは全員わかっている。問題は「取るべきかどうか」ではなく、「取れなかった」 ことだ。
そして「ログを残しましょう」を目的にしてしまうと、手段と目的が逆転する。
「Xを自動化するためにログを残そう」——これは手段が目的化している。ログはXの自動化のために残すものではない。事業のデータ基盤として蓄積するものであって、Xやnoteのコンテンツはその副産物にすぎない。
業務フローとデータ構造を紐解ける人であれば、こう考える:
「この業務はどう流れて、その裏でどこにどんな行動データが集まって、それを次のどの業務に流し込めるか」
この思考が息をするようにできる人にとって、X投稿の自動化やnote記事の自動生成は、当たり前の帰結だ。別に大したことではない。データの流れの中に「コンテンツ生成」というノードを1個追加しただけだ。
コンサルのコアコンピタンスは、支援ログでしか作れない
この話はコンサルタントにとって特に切実だ。
クライアントとの打ち合わせ内容、提案した施策、その結果、改善のポイント。コンサル1時間に対して記録30分かかっていた。だから多くのコンサルタントは記録を省略する。記憶に頼る。そして同じ提案を別のクライアントにも繰り返す。
コンサルタントのコアコンピタンスは、過去の支援ログでしか作れない。 どの施策がどの条件で効いたか。どの業種のどのフェーズで何が起きたか。この蓄積が提案の精度を決める。
記憶は劣化する。美化される。順序が入れ替わる。数字が曖昧になる。
「うまくいった」——本当か? 数字はいくつだったか。「すぐに原因がわかった」——本当か? 実際は3日間ハマっていなかったか。
記録は嘘をつかない。行動データは、アンケートより正確で、質が圧倒的に高い。
生成AIが出てくる前、この蓄積には膨大な手間がかかった。今は、仕事をするだけで溜まる。
蓄積から収益までの設計図——ファイナンス思考
データが溜まる。ナレッジになる。提案の精度が上がる。ここまでは「守り」の話だ。
でも蓄積の価値は、もう一つある。資産からの収益だ。
蓄積されたログから、コンテンツが生まれる。コンテンツが人を集める。人が集まれば、そこに価値が生まれる。アフィリエイトでも広告でもPRでもコンサル受注でもキュレーションメディアでも、マネタイズの手段は何でもいい。大事なのは人を集めること自体に価値があるという構造だ。
これはPL(損益計算書)の発想ではなく、BS(貸借対照表)の発想だ。朝倉祐介氏が『ファイナンス思考』で指摘している通り、日本企業の多くはPL脳——「今月いくら稼いだか」に囚われている。
PLの発想:「今月いくら売れたか」「今期の利益はいくらか」 ファイナンス思考:「将来にわたってキャッシュを生み出す資産を、今どれだけ積み上げているか」
毎日の業務ログは、一つ一つは地味だ。PLには1円も載らない。でもそれが75章分蓄積されると、note記事の素材になり、有料コンテンツの基盤になり、コンサルの提案精度を上げ、事業の競争優位になる。
データ蓄積 → ナレッジ資産 → コンテンツ → 集客 → 収益
この流れを設計できたら、毎日の地味な仕事が「資産の積み上げ」に見えてくる。PLには載らないが、BSには載る。今月の売上にはならないが、来年の競争優位にはなる。
これがファイナンス思考で生成AIを使うということだ。
自分がやっていること
最後に具体的な話をする。
自分はAIエージェント(Claude Code)と一緒に仕事をしている。対話しながら仕事をするだけで、開発ログが蓄積されていく。現在Chapter 75。
このログから、note記事が自動で生まれる。「これを記事にして」と言えば、本文・サムネイル・ハッシュタグ・X投稿文が一括で生成される。25分で1本の記事ができる。
でもこの「記事が自動で生まれる」は、本質ではない。副産物だ。
本質は、75章分の実装・改修・失敗の記録が、自分のコアコンピタンスとして蓄積されていることだ。どの設計がうまくいって、どの設計が失敗して、なぜそうなったか。全部、行動ベースのアクティブデータとして残っている。
記憶ではなく記録。サンプルではなく全数。整形ではなく生データ。
TV CMの視聴率が900世帯のサンプル×アンケートだった時代から、全行動がデータになる時代まで、計測の歴史は「推測から実測へ」の一本道だった。
生成AIは、その実測の範囲を**「個人の業務行動」にまで広げた**。
これが自分にとっての生成AIの一番の価値だ。
筆者: コンサル・事業会社を経て中小企業の経営に参画。コードは1行も書けないが、Claude Codeで66個の業務スキルを構築し、経営業務の8割を自動化。日々の実験はXで発信中。