【士業×ガバナンス】McKinsey社内AIが2時間侵入

マッキンゼーが社内に展開していたAIツール「Lilli」が、外部のAIエージェントに約2時間で侵入され、4,650万件のチャット履歴と72.8万件の機密ファイルが漏洩した、という事件です。

「コンサル最大手の話、うちには関係ない」と思った方、これこそ中小企業が一番真剣に読むべき事例です。 規模が大きい会社ほど予算もガバナンスも厚いはずなのに、それでもたった2時間で抜かれたのがポイントです。

僕が注目したのは、漏洩件数の大きさよりも「社内AIに過剰な権限を持たせると、AIエージェント同士の戦いで負ける」という構造的な問題のほうです。

AI導入で見落とされがちな課題

社内AIや知識検索AIを導入する場面で、よく置き去りになるのがこの3点です。

  • 権限設計(誰がどのデータにアクセスできるか)
  • 認証(API・エージェント間でのなりすまし防止)
  • 入力検証(プロンプトインジェクション・SQLインジェクション対策)

「便利だから全社員に使わせる」「全データに触れるようにする」と進めがちですが、 広く触れるAI=広く漏れるAIでもあります。 Lilli事件はこの構造を、最悪の形で証明してしまった事例です。

何が起きたか

公開情報(Uravation記事、2026-03-10)の範囲では、以下の構成で侵入が成立したと報告されています。

  • 対象: マッキンゼー社内AIツール「Lilli」
  • 侵入者: 外部のAIエージェント
  • 侵入時間: 約2時間
  • 侵入経路:
  • 認証なしAPIエンドポイント約22個を発見・悪用
  • SQLインジェクションで内部データベースへ到達
  • 過剰な権限設定により、本来到達不能な領域までアクセス成立

ポイントは「人間のハッカーが2時間粘った」ではなく、 AIエージェントが自動探索で2時間で抜き切ったところです。 攻撃側のスピードが、これまでとは桁違いになっています。

漏洩の規模と実態

報告された数値は以下の通りです。

  • チャット履歴: 約4,650万件
  • 機密ファイル: 約72.8万件
  • アカウント情報: 約5.7万件
  • 侵入から漏洩完了まで: 約2時間

注意点として、これは「AIが悪い」事件ではなく、「AIに権限を渡しすぎた運用が悪い」事件です。 LilliというAIツールそのものの欠陥というより、その上に乗っていた権限設計とAPI設計の甘さが直接の原因と読めます。

中小企業が学ぶべきは「AIを入れない」ではなく、「AIを入れる前に何を整えるか」です。

中小企業で同じ轍を踏まないなら

ここからが本題です。年商5億規模で社内AIや知識検索AIを入れる際、どこを押さえれば安全に運用できるか。

構成

項目 マッキンゼー(Lilli事件) 中小企業(年商5億・社員30名)
対象 全社展開の社内AI 部門限定の知識検索/業務AI
ツール 自社開発AI(Lilli) ChatGPT Enterprise / Claude for Work / Notion AI 等のSaaS
月額費用 (非公開・社内開発) 推定 月3〜10万円(利用者5〜20名分、2026年4月時点。要最新価格確認)
初期費用 (非公開) 推定 50〜150万円(権限設計+API監査+ガバナンス文書整備)
体制 社内開発+全社展開 IT担当+外部セキュリティ支援月5〜10時間
期間 既に展開済 2〜3ヶ月でPoC→本番運用

評価軸スコア(警鐘事例として)

評価軸 スコア
ROI(投資対効果)※対策投資 ★★★★★
再現性(中小企業に当てはまる) ★★★★★
難易度(低いほど簡単) ★★★★☆

(難易度=数字が小さいほど簡単)

スコア根拠は以下です。

  • ROIが高いのは、漏洩1件で受ける損害(信用毀損・取引停止・賠償)に比べ対策コストが圧倒的に小さいため
  • 再現性が高いのは、自社開発でなくSaaSを使う中小でも同じ落とし穴(権限・認証・入力検証)が存在するため
  • 難易度はやや高め。AIガバナンスの言語化と、API監査の実施には専門知見が必要

前提条件・必要な体制

  • AIに渡すデータの分類(公開/社内/機密/極秘)が定義されている
  • 利用者ごとのアクセス権限が設計されている(全員フルアクセスにしない)
  • AI連携APIに認証(APIキー・トークン・IP制限)が掛かっている
  • プロンプトインジェクション・SQLインジェクションの基本対策が入っている

失敗条件・絶対に避けるべきパターン

  • 「便利だから」で全社員に全データへのアクセスを許可する
  • 認証なしの内部APIを「社内だから大丈夫」で放置する
  • 外部AIエージェント(Browser AgentやMCP連携等)を無検証で接続する
  • インシデント発生時の検知・遮断手順が文書化されていない

「Lilliみたいな高度なAIだから狙われた」わけではありません。

ガバナンス文書整備→権限・データ分類設計→API監査→AIツール導入→定期レビュー、という順番を守って初めて、AI導入が事故ではなく成果につながります。

特に「権限はデフォルト最小、必要に応じて拡張」の原則は、規模を問わず最初に決めておきたいところです。 これを後から直すのは、技術的にも組織的にも非常に重いです。

出典・参考


市野

市野

「うちで社内AIや知識検索AIを入れたいけど、ガバナンスをどう組めばいいか」と悩んでいる方は、 無料相談(30分)で具体的にお話しします。 営業はしません、純粋にケース壁打ちです。 → 無料相談を申し込む

愛知県岡崎市でAI活用支援を手がける一人社長。 中小企業の現場でAIを実装してきた経験から、他社事例を「うちで再現するには」の視点で読み解いて発信中。


市野 佑馬
執筆メンバー 市野 佑馬

愛知県岡崎市を拠点に、中小企業向けのAI活用支援を提供。ChatGPT・Claude Code等を活用した業務自動化やSEO・広告運用の内製化を支援。経営者が自らAIを使いこなせる体制づくりをサポートしている。

>>詳細なプロフィールはこちら
タイトルとURLをコピーしました