Visualizing Secure MLOps (MLSecOps): 堅牢なAI/MLパイプラインセキュリティ構築のための実践ガイド

OpenSSF

 

Visualizing Secure MLOps (MLSecOps):
堅牢なAI/MLパイプラインセキュリティ構築のための実践ガイド

 

(日本語版を公開)

設計段階からAI/MLパイプラインを保護する

本ホワイトペーパーでは、機械学習のライフサイクル全体にセキュリティを統合するための、実践的かつ視覚的なフレームワークを紹介します。実務者向けに作成されており、実績のあるDevSecOps戦略をベースに、それをAI/ML環境へと適応させています。

対象読者

  • AI/MLエンジニア、データ サイエンティスト、MLOpsチーム

  • AI/MLを組み込んでいるデベロッパーやクラウドネイティブの専門家

  • MLシステムへのガバナンス拡大を担うセキュリティ エンジニアやITチーム

  • AI/MLセキュリティ分野のオープンソース貢献者

おもな内容

  • MLOpsおよびMLSecOpsのライフサイクルをマッピングした視覚的モデル

  • 各段階における主要なリスク、対策(コントロール)、ツール、およびペルソナ

  • Sigstore、OpenSSF Scorecard、SLSAなどのフレームワークを活用したオープンソース ガイダンス

  • MLシステムをエンドツーエンドで保護するための実践的な推奨事項

なぜ今なのか

AIの導入が加速する一方で、そのリスクも増大しています。モデルの盗難からデータ ポイズニングまで、従来のソフトウェア セキュリティの手法だけでは不十分です。MLSecOpsは、機械学習システムのライフサイクル全体を保護するための次なる重要なステップです。

参加

ホワイトペーパー全文を読み、AI/ML Security ワーキング グループに参加し、OpenSSF メンバーシップの機会を検討してください。

日本語版翻訳協力:OpenSSF Japan Chapter 翻訳チーム

  • 清海 佑太(本田技研工業)
  • 下沢 拓(日立製作所)
  • 余保 束(ルネサスエレクトロニクス)
  • 池田 宗広(サイバートラスト)
Share