AI大手企業の65%でGitHub機密情報が漏えい!Wizの調査で判明した深刻なセキュリティ実態と対策法

2025年11月、クラウドセキュリティ企業のWizから衝撃的な調査結果が発表されました。Forbes「AI 50」に選ばれた最先端のAI企業のうち、なんと65%の企業でGitHub上の機密情報漏えいが確認されたのです。

この問題は単なる技術的なミスではありません。合計評価額4,000億ドル(約60兆円)を超える企業群が、知らず知らずのうちに自社の秘密情報を世界中に公開していたのです。

なぜ大手AI企業でこれほど大規模な情報漏えいが発生したのか

今回の調査で明らかになったのは、従来のセキュリティ対策では見逃されてしまう「隠れた脆弱性」の存在でした。

従来のスキャンでは見つからない危険な領域

多くの企業は「GitHub組織直下のリポジトリだけをチェックしていれば安全」と考えていました。しかし、Wizの調査チームが深掘りしたのは以下の領域でした:

  • コミット履歴の奥深く
  • 削除済みフォークの中身
  • ワークフローのログファイル
  • Gist(コードスニペット共有)とそのフォーク
  • 組織メンバーの個人公開リポジトリ

特に注目すべきは、表向きの公開リポジトリが0件、組織メンバーがたった14名という小規模に見える企業でも漏えいが発覚した一方で、公開リポジトリ60件・メンバー28名の企業では一切の露出が確認されなかった点です。

実際に漏えいした機密情報の中身とその危険性

今回の調査で発見された漏えい情報は、AI業界特有の機密性の高いものばかりでした。

具体的な漏えい事例

LangChainの事例:
.pyファイルや.ipynbファイル、.envファイルにLangSmithの組織レベルAPIキーが複数含まれており、org:manage権限やorg:read権限を持つキーも発見されました。これらのキーを悪用すれば、組織メンバー一覧の取得など、攻撃者にとって極めて有用な情報が入手可能でした。

ElevenLabsの事例:
mcp.jsonファイル内にエンタープライズ級のAPIキーが平文で保存されていました。

匿名AI企業の深刻な事例:
削除済みフォーク内のHuggingFaceトークンにより、約1,000のプライベートモデルへのアクセスが可能な状態でした。さらに、Weights & BiasesのAPIキーも複数流出し、学習データに関する機密情報が漏れていた可能性が確認されています。

なぜこれらの情報が危険なのか

AIモデルの開発には膨大な投資と時間が必要です。学習データやモデルの詳細が競合他社に知られてしまえば、数年かけて築いた技術的優位性が一瞬で失われてしまいます。

また、顧客データへのアクセス権限を持つAPIキーが流出すれば、個人情報保護法違反やGDPR違反といった法的リスクも発生します。

個人・中小企業でも起こりうる同様のリスク

「大企業の話で自分には関係ない」と思われるかもしれませんが、実際のフォレンジック調査の現場では、個人や中小企業でも同様の問題が頻繁に発生しています。

実際の被害事例

私がフォレンジックアナリストとして対応した事例の中には、従業員20名程度のスタートアップ企業が、GitHubの個人リポジトリに本番環境のデータベース接続情報を誤って公開してしまい、顧客情報約1万件が流出した事件がありました。

この企業は発見まで3ヶ月間、世界中からデータベースにアクセス可能な状態が続いていました。幸い悪用は確認されませんでしたが、対応費用だけで数百万円の損失となりました。

中小企業に潜む危険性

中小企業の場合、以下のような問題が特に深刻です:

  • セキュリティ専任者がいない
  • 開発者のセキュリティ意識にばらつきがある
  • 急いで開発する際の確認不足
  • 退職者のアカウント管理の徹底不足

今すぐ実践できる効果的な対策方法

1. アンチウイルスソフト による定期的なスキャン

まず基本となるのが、コンピュータ全体の定期的なセキュリティスキャンです。最新のアンチウイルスソフト 0を導入することで、マルウェアによる不正アクセスを事前に防ぐことができます。

2. VPN で通信を保護

リモートワークやカフェでの作業時には、VPN 0を使用することで、通信内容の盗聴や中間者攻撃を防げます。GitHubへのアクセス時も、暗号化された安全な通信経路を確保できます。

3. GitHubでの具体的な対策

すぐに実践できる基本対策:

  • 秘密情報は絶対にコミットしない
  • .envファイルは.gitignoreに必ず追加
  • コミット前に必ず内容を確認
  • 個人アカウントと業務用アカウントを分離
  • MFA(多要素認証)を必ず有効化

組織として取り組むべき対策:

  • 開発者向けセキュリティ研修の実施
  • コードレビューの徹底
  • 退職者のアカウント削除手順の確立
  • 秘密情報検出ツールの導入

4. Webサイトの脆弱性も同時にチェック

GitHub以外のWebサイトでも同様の脆弱性が潜んでいる可能性があります。Webサイト脆弱性診断サービス 0を定期的に実施することで、悪用される前に問題を発見・修正できます。

企業の対応格差が浮き彫りに

今回の調査で興味深いのは、企業による対応の温度差です。

Wizからの脆弱性報告に対して、約半数の企業が連絡不達や無回答に終わった一方で、迅速に受領・修正を行った企業も多数存在しました。

適切に対応した企業の共通点は:

  • 専用のセキュリティ窓口の設置
  • 明確な対応手順書の整備
  • セキュリティ担当者の権限と責任の明確化
  • 定期的なセキュリティ教育の実施

将来に向けた対策の重要性

AI技術の進歩とともに、新しいサービスやツールが次々と登場しています。それに伴い、新しい形式のAPIキーやトークンも増え続けています。

既存のセキュリティツールでは検出できない新しいリスクが生まれ続けているのが現状です。そのため、継続的な学習と対策のアップデートが不可欠です。

CSIRTの現場から見た今後の課題

実際のインシデント対応の現場では、以下のような新しい課題も浮上しています:

  • AI開発特有のファイル形式(.ipynb、モデル設定ファイルなど)への対応
  • 実験ログに含まれる意図しない機密情報
  • クラウドサービス間の連携で発生する権限管理の複雑化
  • リモートワーク環境での個人デバイス管理

まとめ:今こそセキュリティ対策の見直しを

今回のWizの調査結果は、AI業界に限らず、すべての企業にとって重要な警鐘です。GitHubをはじめとした開発プラットフォームでの機密情報管理は、もはや個人の注意深さだけに依存できる問題ではありません。

重要なのは、組織として体系的なセキュリティ対策を構築することです。アンチウイルスソフト 0による端末保護、VPN 0による通信の暗号化、そしてWebサイト脆弱性診断サービス 0による定期的な脆弱性チェックを組み合わせることで、多層防御の仕組みを作り上げましょう。

セキュリティインシデントは「起こるかもしれない」ものではなく、「いつか必ず起こる」ものです。被害を受けてから対策するのではなく、今こそ予防的なセキュリティ投資を行う時です。

特にAI関連の開発を行っている企業や個人の方は、今回の調査結果を参考に、改めて自社のGitHub運用やセキュリティ体制を見直してみてください。小さな注意深さの積み重ねが、将来の大きな損失を防ぐことにつながります。

一次情報または関連リンク

Wizレポート:AI大手50社の65%で機密データ露出を確認

タイトルとURLをコピーしました