生成AIでランサムウェアのキルスイッチ検出、CTFでも高得点 AI for Securityの最新状況は?

IEEEは2024年10月4日、プレス向けセミナーを開催し、情報セキュリティ大学院大学の大塚玲教授が「AI for Security」をテーマにサイバーセキュリティにおける生成AIの注目動向を解説した。

生成AIがCTFで上位7.3%に マルウェアの中身も丸裸

生成AIは現状でも高いセキュリティ能力を発揮可能だ。

セキュリティ業界では、その専門知識や専門技術を試すコンテスト、CTF(Catpture The Flag)が盛んだ。カーネギーメロン大学が作成したCTF「PicoCTF2022」に、大塚教授らがChatGPT-3.5を挑戦させてみたところ、64問中48問のフラグ(答え)を獲得し、上位7.3%の成績を出すことができたという。

下のスライドは問題の種類別、難易度別のフラグ獲得割合で、「問題を見せただけで一発で答えられた」(大塚教授)のがZero-round、問題を見せるだけだと途中で回答が終わったりエラーになるが、人間が少しアシストすると正答を出せた場合がFew-rounds、そして解けなかったのがFailureだ。

ChatGPT 3.5によるCTFの結果

ChatGPT-3.5によるCTFの結果

正答率が低かったジャンルはBinary Exploitationである。「リバースエンジニアリングと言われるが、バイナリーを解析して攻撃手法を見つけたり、情報を抽出する」(大塚教授)という問題だ。バイナリーファイルをChatGPT-3.5にアップロードすると、そのファイル容量の大きさからエラーになるケースが多く、回答率が低くなったという。

つまり、大規模言語モデル(LLM)は、リバースエンジニアリングが苦手ということではない。生成AIのコンテキストウィンドウのトークン数、人間でいう短期記憶の容量がChatGPT-3.5では足らなかった。

実際、音声にして最大19時間、200万トークンのコンテキストウィンドウを持つグーグルのGemini Pro 1.5では、ランサムウェア「WannaCry」のバイナリーファイルの逆コンパイル・分析に成功している。

「WannaCryの動作を止めるためのキルスイッチ(活動停止スイッチ)も検出できた。キルスイッチがもっと難読化されているマルウェアに対抗していくには、もう少し研究が必要だが、かなりのポテンシャルがありそうなことが分かっている」「LLMはプログラムコードも相当量を学習しており、すごい能力を持っていることがだいぶ分かってきた」と大塚教授は説明した。

Gemini Pro 1.5によるランサムウェア「WannaCry」の解析レポート

Gemini Pro 1.5によるランサムウェア「WannaCry」の解析レポート

また、大塚教授らは、Metaが開発したコード生成専用のLLMであるCode Lllamaをファインチューニングした「RevLlama」を開発しており、マルウェアのリバースエンジニアリングにおいてGemini Proを上回る結果が得られているそうだ。RevLlamaは、いわゆる「蒸留」によってパラメーター数がコンパクトになっており、ローカル環境で実行できる。

深層強化学習とLLMの組み合わせで高度化へ

このように高いセキュリティ対応能力を有するLLMだが、「すでにテキスト化された情報、人間が作り上げた知識を吸収しているに過ぎないとも言える」と大塚教授。

そこで期待するのが、「人間が持っていない知識を獲得していける」深層強化学習とLLMの組み合わせによる高度化。膨大な言語の知識とAI自身が獲得した新たな知識を使って、AIが次のアクションを決定することで、「もっと高度な防御が可能になる」とした。

RELATED ARTICLE関連記事

SPECIAL TOPICスペシャルトピック

スペシャルトピック一覧

NEW ARTICLES新着記事

記事一覧

FEATURE特集

WHITE PAPERホワイトペーパー

ホワイトペーパー一覧
×
無料会員登録

無料会員登録をすると、本サイトのすべての記事を閲覧いただけます。
また、最新記事やイベント・セミナーの情報など、ビジネスに役立つ情報を掲載したメールマガジンをお届けいたします。