← ニュースAll
生成AI時代のセキュリティ整理
要約
EGセキュアソリューションズの徳丸浩氏が、生成AIを巡るセキュリティリスクを「利用者側」「悪用」「サービス自体」の三分類で整理しました。データ漏洩やハルシネーション、プロンプトインジェクションやディープフェイク、学習データの汚染などの懸念点に触れています。
本文
生成AIの急速な普及を受け、EGセキュアソリューションズ取締役CTOの徳丸浩氏が「生成AIの利用・悪用を踏まえたサイバーセキュリティの考え方」をテーマに講演しました。講演では、AIエージェントやRAGといった技術が業務自動化を進める一方で、新たなリスクを生む点が指摘されました。開発ツールへのAI組み込みや生成AIによるプログラミングの普及も話題となり、その利便性とリスク双方に触れています。初期には入力情報が学習データに含まれる可能性が指摘された事例も紹介されました。
整理された主な点:
・生成AI利用者側のリスク:ユーザーが入力したプロンプトや添付ファイルの漏洩や、AIの誤応答(ハルシネーション)による誤情報の拡散。
・生成AIの悪用リスク:プロンプトインジェクションや間接的なプロンプト汚染、ディープフェイク、悪意のあるコード生成といった手法による詐欺や攻撃の可能性。
・生成AIサービス自体のリスク:モデルの盗用やサービスへの攻撃、汚染された学習データによる誤出力や差別的な出力。
まとめ:
生成AIの導入は業務効率化の利点とともに、新たなサイバーリスクをもたらすと整理されました。企業やサービス側の対応や基準整備が課題となる一方で、現時点での公的な統一指針や具体的な日程は未定とされています。
