「月1万件の攻撃パターンでAIモデルを評価」、F5がAIセキュリティ指標を解説

AIモデルを狙う攻撃が巧妙化する中、その安全性をどう評価するか。F5ネットワークスジャパンが記者説明会を開催し、月1万件超の攻撃パターンで主要AIモデルの耐性を毎月スコア化する新指標「F5 Labs AI Security Leaderboards」を説明した。

攻撃の「質」で評価するセキュリティ指標

こうした巧妙化する攻撃に対して、自社が採用するAIモデルはどの程度耐えられるのか。丸瀬氏はその評価手段として、主要なAIモデルのリスクを測定・比較できる脅威インテリジェンス・リソースの「F5 Labs AI Security Leaderboards」を紹介した。

F5によるCalypsoAI(カリプソAI)の買収を契機に誕生したもので、AIモデルの脆弱性を検査するテストツール「F5 AI Red Team」による結果をもとに、F5の脅威インテリジェンス専門チーム「F5 Labs」が、攻撃プロンプトに対するモデルの脆弱性を測定する「CASI」と、モデルの耐性を測る「ARS」の2つの指標を、標準化されたベンチマークとして月次で公開するという。

丸瀬氏によれば「毎月1万件以上の攻撃手法を更新し、公開されている各社のAIモデルに対して攻撃を仕掛けた上で、その反応を統合的に判断する」仕組みで、「企業が最も安全なAIモデルを選定するための客観的なベンチマーク」だと強調した。

一方で「スコアが低いから使えないわけではない。F5 AIガードレールのようなセキュリティ製品を導入することで、安全性を許容水準まで引き上げることも可能だ」とも述べた。

F5 Labs AI Security Leaderboards 評価結果の例

RELATED ARTICLE関連記事

SPECIAL TOPICスペシャルトピック

スペシャルトピック一覧

NEW ARTICLES新着記事

記事一覧

FEATURE特集

WHITE PAPERホワイトペーパー

ホワイトペーパー一覧
×
無料会員登録

無料会員登録をすると、本サイトのすべての記事を閲覧いただけます。
また、最新記事やイベント・セミナーの情報など、ビジネスに役立つ情報を掲載したメールマガジンをお届けいたします。