マッキンゼーが社内に展開していたAIツール「Lilli」が、外部のAIエージェントに約2時間で侵入され、4,650万件のチャット履歴と72.8万件の機密ファイルが漏洩した、という事件です。
「コンサル最大手の話、うちには関係ない」と思った方、これこそ中小企業が一番真剣に読むべき事例です。 規模が大きい会社ほど予算もガバナンスも厚いはずなのに、それでもたった2時間で抜かれたのがポイントです。
僕が注目したのは、漏洩件数の大きさよりも「社内AIに過剰な権限を持たせると、AIエージェント同士の戦いで負ける」という構造的な問題のほうです。
AI導入で見落とされがちな課題
社内AIや知識検索AIを導入する場面で、よく置き去りになるのがこの3点です。
- 権限設計(誰がどのデータにアクセスできるか)
- 認証(API・エージェント間でのなりすまし防止)
- 入力検証(プロンプトインジェクション・SQLインジェクション対策)
「便利だから全社員に使わせる」「全データに触れるようにする」と進めがちですが、 広く触れるAI=広く漏れるAIでもあります。 Lilli事件はこの構造を、最悪の形で証明してしまった事例です。
何が起きたか
公開情報(Uravation記事、2026-03-10)の範囲では、以下の構成で侵入が成立したと報告されています。
- 対象: マッキンゼー社内AIツール「Lilli」
- 侵入者: 外部のAIエージェント
- 侵入時間: 約2時間
- 侵入経路:
- 認証なしAPIエンドポイント約22個を発見・悪用
- SQLインジェクションで内部データベースへ到達
- 過剰な権限設定により、本来到達不能な領域までアクセス成立
ポイントは「人間のハッカーが2時間粘った」ではなく、 AIエージェントが自動探索で2時間で抜き切ったところです。 攻撃側のスピードが、これまでとは桁違いになっています。
漏洩の規模と実態
報告された数値は以下の通りです。
- チャット履歴: 約4,650万件
- 機密ファイル: 約72.8万件
- アカウント情報: 約5.7万件
- 侵入から漏洩完了まで: 約2時間
注意点として、これは「AIが悪い」事件ではなく、「AIに権限を渡しすぎた運用が悪い」事件です。 LilliというAIツールそのものの欠陥というより、その上に乗っていた権限設計とAPI設計の甘さが直接の原因と読めます。
中小企業が学ぶべきは「AIを入れない」ではなく、「AIを入れる前に何を整えるか」です。
中小企業で同じ轍を踏まないなら
ここからが本題です。年商5億規模で社内AIや知識検索AIを入れる際、どこを押さえれば安全に運用できるか。
構成
| 項目 | マッキンゼー(Lilli事件) | 中小企業(年商5億・社員30名) |
|---|---|---|
| 対象 | 全社展開の社内AI | 部門限定の知識検索/業務AI |
| ツール | 自社開発AI(Lilli) | ChatGPT Enterprise / Claude for Work / Notion AI 等のSaaS |
| 月額費用 | (非公開・社内開発) | 推定 月3〜10万円(利用者5〜20名分、2026年4月時点。要最新価格確認) |
| 初期費用 | (非公開) | 推定 50〜150万円(権限設計+API監査+ガバナンス文書整備) |
| 体制 | 社内開発+全社展開 | IT担当+外部セキュリティ支援月5〜10時間 |
| 期間 | 既に展開済 | 2〜3ヶ月でPoC→本番運用 |
評価軸スコア(警鐘事例として)
| 評価軸 | スコア |
|---|---|
| ROI(投資対効果)※対策投資 | ★★★★★ |
| 再現性(中小企業に当てはまる) | ★★★★★ |
| 難易度(低いほど簡単) | ★★★★☆ |
(難易度=数字が小さいほど簡単)
スコア根拠は以下です。
- ROIが高いのは、漏洩1件で受ける損害(信用毀損・取引停止・賠償)に比べ対策コストが圧倒的に小さいため
- 再現性が高いのは、自社開発でなくSaaSを使う中小でも同じ落とし穴(権限・認証・入力検証)が存在するため
- 難易度はやや高め。AIガバナンスの言語化と、API監査の実施には専門知見が必要
前提条件・必要な体制
- AIに渡すデータの分類(公開/社内/機密/極秘)が定義されている
- 利用者ごとのアクセス権限が設計されている(全員フルアクセスにしない)
- AI連携APIに認証(APIキー・トークン・IP制限)が掛かっている
- プロンプトインジェクション・SQLインジェクションの基本対策が入っている
失敗条件・絶対に避けるべきパターン
- 「便利だから」で全社員に全データへのアクセスを許可する
- 認証なしの内部APIを「社内だから大丈夫」で放置する
- 外部AIエージェント(Browser AgentやMCP連携等)を無検証で接続する
- インシデント発生時の検知・遮断手順が文書化されていない
「Lilliみたいな高度なAIだから狙われた」わけではありません。
ガバナンス文書整備→権限・データ分類設計→API監査→AIツール導入→定期レビュー、という順番を守って初めて、AI導入が事故ではなく成果につながります。
特に「権限はデフォルト最小、必要に応じて拡張」の原則は、規模を問わず最初に決めておきたいところです。 これを後から直すのは、技術的にも組織的にも非常に重いです。
出典・参考
市野
愛知県岡崎市でAI活用支援を手がける一人社長。 中小企業の現場でAIを実装してきた経験から、他社事例を「うちで再現するには」の視点で読み解いて発信中。
