生成AI時代の脅威に対応する「Firewall for AI」 モデル問わず防御実現
生成AIが急速に発展するなか、AIチャットボットなどのアプリケーションが新たな攻撃対象となっている。アカマイはこれに対処するため、新製品「Akamai Firewall for AI」の提供を2025年4月に開始した。
アカマイ・テクノロジーズ マーケティング本部 プロダクトマーケティングマネージャーの中西一博氏
アカマイ・テクノロジーズ マーケティング本部 プロダクトマーケティングマネージャーの中西一博氏は、生成AIには、意図しない動作を大規模言語モデル(LLM)に引き起こさせるプロンプトインジェクション、事実と異なる情報を生成するハルシネーション、システムプロンプトの漏洩、さらにはリモートコード実行といった多様なリスクが潜んでいると指摘。なかでも特に問題視されるのが、プロンプトインジェクションによってモデルが本来守るべき制約を破ってしまう「脱獄(ジェイルブレイク)」と呼ばれる攻撃だと語った。
プロンプトインジェクションによる「脱獄」の例
中西氏は、脱獄が起こる要因として、生成AIモデルが指示の強弱や発話者の権限を理解せず、すべての入力を等しく処理してしまう点を挙げた。この性質を悪用し、攻撃者は管理者や開発者の命令を装う入力を与えることによって、秘匿情報の漏洩や不適切な発言を容易に誘発できるという。
Firewall for AIは、こうした攻撃に対して「ガードレールとしてのAI」を別に設置し、入力プロンプトおよび生成出力の両方をリアルタイムで検査・遮断する。特徴は、生成AIアプリケーション自体に改修を加えることなく、REST APIの通信経路に“後付け”で導入できる点だ。アカマイのエッジにデプロイするだけで利用を開始でき、API/SDK経由でもインテグレーションが可能。ChatGPT、Gemini、Claudeなど、あらゆるLLMに対応し、モデルに依存せず防御を実現できる仕組みを持つという。