AIワークロードセキュリティとは?
AIは、イノベーションを促進し、ビジネス成長を加速させるための強力なツールである一方、新たな攻撃対象となり得る領域でもあります。AIワークロードセキュリティは、セキュリティを犠牲にすることなく、組織が安心してAIを活用できるようにします。
AIワークロードセキュリティの定義
AIワークロードセキュリティとは、職場でAIモデル、システム、ツールによって実行されるタスクやプロセスを、リスク、脅威、攻撃から継続的に保護する取り組みを指します。このAIセキュリティの一分野では、AIモデルを不正操作、データ漏えい、敵対的攻撃などから守ることが含まれます。
AIワークロードセキュリティを導入することで、組織は従業員がどこでAIモデルやシステムを利用しているかを可視化できるようになります。これにより、データの完全性を維持し、AIの利用がセキュリティポリシーやコンプライアンス要件に沿って行われていることを確認できます。
一部の組織は自社でAIモデルを開発していますが、多くの場合、AnthropicやOpenAIなどのサードパーティプラットフォームに依存しています。AIワークロードセキュリティは、API連携やAIパイプラインにおけるリスクの所在を把握し、攻撃を防止または軽減するために必要な可視性を提供します。
また、AIはセキュリティチームにとってまったく新しい保護対象というわけではありません。AIは、これまでセキュリティチームが守ってきたクラウドネイティブかつコンテナ化されたインフラ上で動作する、専門的なハードウェア上のソフトウェアの一形態にすぎないのです。
AI ワークロードとは?
AIワークロードセキュリティを理解するためには、まずAIワークロードとは何かを理解することが重要です。AIワークロードとは、AIモデルやシステムを実行・学習させるために用いられるタスクやプロセスの集合を指します。
AIワークロードには、データ処理、モデルの学習、モデル推論、分析・監視、そして自然言語処理(NLP)などの専門的なタスクが含まれます。
AIワークロードは、必要とされる計算資源や処理の複雑性が高いため、一般的なクラウドワークロードとは異なります。こうしたAIワークロードと従来のクラウドワークロードの両方を保護することは、クラウドセキュリティにおいて不可欠な要素です。
AIワークロードセキュリティが重要な理由
More and more organizations are adopting AI in the workplace, opening up new attack surfaces if not protected properly. Sysdig found that 34% of all currently deployed generative AI workloads are publicly exposed.
AI workload security is needed because organizations must understand where AI is being used in the workplace and what potential risks exist because of its usage. Additionally, the shared responsibility model places the security burden on organizations and not vendors when using third-party AI models.
It can also help organizations comply with current and future AI governance requirements, which remain in flux as countries decide how best to implement regulations. For instance, China is working on a centralized approach. The U.S. government will follow suit after President Trump signed an executive order preventing a decentralized, state-independent approach that a 2023 executive order directed.
職場でのAI活用が急速に広がる中、適切に保護されていなければ、新たな攻撃対象領域が生まれてしまいます。Sysdigの調査によると、現在稼働している生成AIワークロードの34%がパブリックに公開された状態にあります。
AIワークロードセキュリティが重要なのは、組織がどこでAIが使われているのか、そしてその利用によってどのようなリスクが生じるのかを正しく把握する必要があるためです。さらに、サードパーティのAIモデルを利用する場合でも、共有責任モデルにより、セキュリティの責任はベンダーではなく組織側にある点にも注意が必要です。
また、AIワークロードセキュリティは、現在および将来のAIガバナンスや規制要件への対応にも役立ちます。各国が規制の在り方を模索している段階にあり、その内容は流動的です。たとえば中国では中央集権的なアプローチが検討されており、米国でも、2023年の大統領令で示された州ごとの分散型アプローチを見直し、トランプ大統領が署名した新たな大統領令を受けて、連邦政府主導の枠組みが進められています。
AIは、組織が理解し、対策を講じるべき新たなセキュリティ脅威やリスクをもたらします。主なものは以下のとおりです。
- データポイズニング:攻撃者が学習パイプラインに悪意のあるデータを混入させることで、AIモデルの精度や信頼性を損ないます。
- モデル反転:攻撃者がAIモデルに対して繰り返しクエリを送信し、その出力結果から学習データやその他の機密情報を推測しようとする攻撃です。
- 敵対的攻撃:AIモデルを意図的に誤った判断へと誘導し、信頼性や意思決定能力を低下させる攻撃です。
- APIの脆弱性:AIモデルと連携するAPIが狙われ、システムの情報漏えいやインジェクション攻撃につながる可能性があります。
最終的には、顧客がAIモデルが意図どおりに動作し、利用中もデータが安全に保護されていると信頼できることが重要です。AIワークロードセキュリティは、AIモデルの結果に対する信頼性を高め、顧客満足度の向上を支えます。
AIワークロードセキュリティのメリット
多くの組織は、エンタープライズ環境におけるAIワークロードの最適な保護方法をまだ模索している段階です。AIワークロードセキュリティを導入することで、以下のようなメリットが得られます。
- 将来の規制への備え:AIワークロードセキュリティを整備しておくことで、EU AI Act をはじめとする現在の規制や、今後導入される新たな規制にも迅速に対応できます。どのAIワークロードがどこで使われ、どのようなリスクを伴うのかを把握できるためです。
- リスクに基づいたAIモデルの保護:ランタイムの可視性を活用することで、実際に使用されているAIパッケージを特定し、リスクの優先度に応じた適切な保護が可能になります。
- AIモデルやツール利用状況の可視化:適切なAIワークロードセキュリティソリューションを導入することで、組織内のAI利用状況を把握し、それが承認された利用かどうかを判断できるようになります。
AIワークロードセキュリティの課題
AIモデルやその活用方法が進化を続ける中で、セキュリティチームにとっては、どこに、どのような対策や統制を適用すべきかを把握することが難しくなっています。主なAIワークロードセキュリティの課題には、以下のような点があります。
- シャドーAIの利用:シャドーITと同様に、AIでも未承認の利用が発生します。従業員が承認済みのAIモデルを不適切に使用したり、まだ承認されていないAIツールを利用したりするケースが想定されます。そのため、承認・未承認のAIツールを発見・監視できるAIセキュリティツールの導入が必要です。
- AIパイプラインの不透明性:サードパーティ製AIモデルは、知的財産や機密情報を保護する目的で内部構造が公開されていない場合があります。これにより、どのようにセキュリティを適用すべきか判断することが難しくなります。AI部品表(AIBOM)を活用することで、AIを構成する要素を可視化し、知的財産の境界を明確にできます。
- AI特有のリスク理解:AIの保護は一見すると、他の資産やデータセットを守る方法と同じに見えますが、実際には追加のリスクが存在します。モデルポイズニング、モデルドリフト、モデル反転など、AI特有の脅威を理解した上で、適切な統制を整備することが重要です。
AIワークロードセキュリティのしくみ
AIワークロードセキュリティは、まずクラウド環境内のどこにAIパッケージが存在しているのかを可視化することから始まります。これにより、AIモデル、パイプライン、API、その他のシステムにおいて、どこにリスクや脆弱性が存在するのかを把握できます。セキュリティチームは、職場でAIパッケージがどこで稼働しているかを理解することで、データ漏えいやその他のAI脅威を防止しやすくなります。
次に、AIワークロードセキュリティツールは、リスクとその**文脈(コンテキスト)**を継続的に監視・分析し、優先順位を判断します。この文脈には、パブリックに公開されている可能性、設定ミス、不審なアクティビティ、稼働中のAIパッケージに存在する脆弱性などが含まれます。
さらに、AIワークロードセキュリティソリューションは、脆弱性、設定ミス、ランタイム検知を起点とした、AIパッケージを狙う重大な攻撃経路を可視化します。潜在的な脅威やリスクを把握することで、セキュリティチームは攻撃を未然に防ぎ、進行中の攻撃によるデータ窃取や被害拡大を阻止できます。
AIワークロードセキュリティのベストプラクティス
AIワークロードセキュリティプログラムを構築する際、組織はイノベーションを阻害することなくAI環境をどのように保護するかを考慮する必要があります。
以下は、実装すべき5つのAIワークロードセキュリティのベストプラクティスです。
- AI環境の完全なインベントリを作成する:すべてのAIモデルとデプロイ環境を網羅的に把握し、各モデルがアクセスするデータを追跡します。モデルの権限を定期的に監査することで、データの安全性を確保します。
- セキュリティ態勢を強化してリスクを低減する:最小権限の原則を適用し、承認されたユーザーやマシンのみがAIモデルやシステムにアクセスできるようにします。ビジネスへの影響度に基づくリスクベースの脆弱性管理を実施し、CSPM(Cloud Security Posture Management)を活用して設定を保護し、ガバナンスをAIモデルまで拡張します。
- リアルタイム検知と対応を実装する:ランタイムの可視性を確保し、異常な挙動を検知します。クラウドサービス、コンテナ、AIシステムからのシグナルを相関分析して攻撃を特定し、封じ込め対応を自動化します。
- 予防と検知を組み合わせて耐性を高める:リアルタイム検知に加えて予防策も実装します。セキュリティ、クラウド、AIチーム間でワークフローを共有し、脅威インサイトやインシデントを定期的にレビューすることで、セキュリティ上の課題を継続的に改善します。
- AI利用の進化に合わせてセキュリティ対策を定期的に見直す:データパイプラインの拡張や新たな連携が追加されるたびに、AIモデルやシステムに対する可視性を維持できているかを確認し、必要に応じてセキュリティ制御を更新します。
SysdigでAIワークロードを高度に保護
AIの導入は今後ますます加速していくと考えられますが、それに伴い、新たな攻撃対象領域が生まれ、組織は脅威アクターに対して脆弱な状態に置かれる可能性があります。
AIワークロードを適切に保護するために、Sysdigはリアルタイムの監視と検知、集中管理された可視性、スケーラブルなアーキテクチャ、そしてコンプライアンスおよびポリシーの適用を備えたAIワークロードセキュリティソリューションを提供しています。
SysdigのAIワークロードセキュリティは、AIワークロードがどこで稼働しているのか、どのようなリスクが存在するのか、そしてその優先順位を統合ダッシュボードで把握できるようにします。AIワークロードの所在とリスクを可視化することで、脅威アクターや進化するAI規制に先手を打つことが可能です。
SysdigがどのようにAIワークロードの保護を支援できるのか、詳しくはebook(英語版)をダウンロードしてご確認ください。
