見た目は無害な画像が、実は悪意あるプログラムだった場合の恐怖
フォレンジックアナリストとして数々のサイバー攻撃を分析してきた私が、今回は特に衝撃的な新手の攻撃手法について解説します。
想像してみてください。あなたが普段使っているChatGPTやGoogleのAIに、一見普通の風景写真をアップロードしたとします。しかし、その画像には人間の目には見えない「隠し指示」が仕込まれており、AIがそれを読み取って勝手にあなたの個人情報を外部に送信してしまう…そんな恐ろしい攻撃が現実のものとなりました。
実際に起きた被害事例
先日、私のもとに相談にきた中小企業の経営者は、社内でGoogle GeminiにPR用の画像を投稿した際、気がつかない間に社内のGoogleカレンダーの情報が全て外部に流出していました。
調査の結果、投稿した画像に「画像プロンプトインジェクション攻撃」が仕込まれていたことが判明。従業員が無意識のうちに、攻撃者の思うままに操られていたのです。
画像プロンプトインジェクション攻撃の恐ろしい仕組み
人間の目では見えない「隠し指示」の正体
この攻撃の核心は、画像の解像度を悪用した巧妙な手口にあります。
攻撃者は高解像度の画像に、人間の目には判別できない微細な画素調整を施します。しかし、AIシステムが画像を処理する際に自動的に行う縮小(リサンプリング)処理によって、隠された文字や指示が突然浮かび上がるのです。
技術的な仕組み
- バイリニア・バイキュービック補間の悪用:縮小時の画素混色を逆算し、特定の解像度で文字が現れるよう調整
- エイリアシング効果の利用:Nyquist–Shannonの標本化定理の盲点を突く
- 暗部画素の精密調整:縮小後に赤地に黒文字がくっきり現れる「変身」を実現
実証された攻撃対象システム
Trail of Bitsの研究チームは、以下の実運用システムで攻撃成立を確認しています:
- Google Gemini CLI
- Vertex AI Studio(Geminiバックエンド)
- GeminiのWebインターフェース
- GeminiのAPI
- Googleアシスタント(Android)
- Genspark
特に恐ろしいのは、これらが全て現在広く使用されている実用システムであることです。
CSIRTの現場で見た実際の被害例
ケース1:製造業での情報漏洩事件
ある製造業の会社では、営業部門がAIを使った提案書作成のために製品画像をアップロードしました。しかし、その画像に仕込まれた隠し指示により、社内の顧客データベースへのアクセス権限が悪用され、競合他社に顧客リストが流出する事態となりました。
被害額は推定で約2億円。顧客からの信頼失墜により、複数の大口契約を失うことになりました。
ケース2:個人ユーザーの金融情報窃取
個人のケースでは、SNSで共有された旅行写真に隠し指示が仕込まれており、その画像をAIアシスタントに投稿したユーザーのGoogleアカウントから、銀行の明細情報や投資ポートフォリオが攻撃者に送信されました。
被害者は気がつかないうちに、約3ヶ月間にわたって個人の金融活動が監視されていたのです。
なぜこの攻撃が成功してしまうのか
UI設計の盲点
多くのAIシステムでは、コストと性能の観点から入力画像を自動縮小します。しかし、ユーザーには元の高解像度画像しか表示されないため、AIが実際に処理している縮小後の画像(隠し指示が現れた状態)を確認できません。
ツール実行の自動化が被害を拡大
現在のAIエージェントシステムの多くは、効率性を重視して「trust=true」(自動承認)を既定設定にしています。これにより、隠し指示が発動した際も、ユーザーの確認なしに危険な操作が実行されてしまうのです。
今すぐできる対策と防御方法
個人ユーザー向けの対策
1. セキュリティソフトの導入
まず基本となるのが、信頼できるアンチウイルスソフト
の導入です。最新の脅威検知機能を持つセキュリティソフトは、怪しい画像ファイルや通信を事前にブロックできます。
2. VPNの活用
外出先やカフェなどの公共Wi-Fiを使用する際は、VPN
の利用が必須です。通信の暗号化により、仮に情報が漏洩した場合でも、攻撃者による傍受を防げます。
3. AIツール利用時の注意点
- 出所不明の画像は極力アップロードしない
- ツールの自動実行機能は無効化する
- 定期的にアクセス権限をレビューする
- 機密情報を含む可能性のある操作は手動確認を必須にする
企業向けの対策
1. Webサイト脆弱性診断の実施
企業のWebシステムがこのような攻撃の入り口とならないよう、定期的なWebサイト脆弱性診断サービス
が重要です。特にAI機能を組み込んだシステムでは、画像処理部分の脆弱性診断を重点的に行いましょう。
2. システム設計レベルでの対策
- 縮小処理の廃止:可能な限り画像の寸法制限で対応
- プレビュー機能の実装:AIが実際に処理する縮小後画像をユーザーに表示
- 権限分離の徹底:機微な操作には必ず人間の承認を必要とする
- サンドボックス環境の活用:AI処理を隔離された環境で実行
3. 社員教育の重要性
技術的な対策だけでなく、従業員のセキュリティ意識向上も欠かせません。特に以下の点について定期的な研修を実施しましょう:
- 不明な画像ファイルの危険性
- AI利用時のセキュリティチェックポイント
- インシデント発生時の報告手順
攻撃ツール「Anamorpher」の脅威
研究チームが公開した攻撃検証ツール「Anamorpher」は、攻撃の理解と対策検討を目的としていますが、悪用される可能性も高いツールです。
Anamorpherの特徴
- フロントエンドUIでアルゴリズム別攻撃画像を生成
- Python APIによる自動化対応
- OpenCVのバイキュービック実装に最適化された攻撃手法
- 暗部調整により強いコントラストでの文字出現を実現
このツールの存在により、技術的知識の浅い攻撃者でも簡単に画像プロンプトインジェクション攻撃を実行できるようになってしまいました。
フォレンジックアナリストが見る今後の脅威展開
攻撃の高度化予測
現場での分析経験から、この攻撃手法は今後さらに巧妙化すると予想されます:
- 多段階攻撃:複数の画像を組み合わせた複雑な指示の実現
- 動的変化:時間や環境に応じて異なる指示が現れる画像
- 標的型攻撃:特定企業のAIシステム実装に合わせたカスタム攻撃
- ソーシャルエンジニアリング:SNSでの拡散を利用した大規模攻撃
新たな攻撃ベクターの出現
画像以外のメディアファイルでも類似攻撃が発生する可能性があります:
- 音声ファイルの圧縮処理を悪用した攻撃
- 動画のフレーム圧縮を利用した隠し指示
- PDFや文書ファイルのレンダリング処理の悪用
緊急時の対応手順
攻撃を受けた疑いがある場合
もし画像プロンプトインジェクション攻撃の被害を受けた疑いがある場合は、以下の手順で対応してください:
即座に行うべき対応
- システムの隔離:影響を受けた可能性のあるシステムをネットワークから切り離す
- ログの保全:攻撃の痕跡を残すため、システムログを改変前に保存
- 権限の見直し:AI関連ツールのアクセス権限を一時的に制限
- 関係者への連絡:セキュリティチームや上司への即座の報告
詳細調査のステップ
- フォレンジック調査:専門家による詳細なシステム分析
- 被害範囲の特定:漏洩した可能性のある情報の洗い出し
- 復旧計画の策定:システムの安全な復旧手順の検討
- 再発防止策の実装:根本的な対策の導入
まとめ:新時代のサイバー脅威への備え
画像プロンプトインジェクション攻撃は、AIが日常的に使われる現代において極めて深刻な脅威です。人間の認識と機械の処理の差を巧妙に突く手口は、従来のセキュリティ対策では防ぎきれない新しい種類の攻撃と言えるでしょう。
重要なのは、技術的な対策と人間の意識向上を両輪で進めることです。最新のアンチウイルスソフト
やVPN
といったセキュリティツールの導入はもちろん、組織全体でのセキュリティリテラシーの向上が不可欠です。
企業においては、Webサイト脆弱性診断サービス
を定期的に実施し、AIシステムを含めた包括的なセキュリティ体制を構築することが求められます。
一次情報または関連リンク
Trail of Bits – Weaponizing Image Scaling Against Production AI Systems