チェック・ポイントが示す「AIセキュリティの4つの推奨事項」とは

チェック・ポイント・ソフトウェア・テクノロジーズが同社初となる「AIセキュリティレポート」を発表した。サイバー攻撃者による「AIの武器化」について詳しく調査し、それらの脅威に対抗するための洞察を述べている。同社日本法人が2025年6月19日に記者説明会を開催し、その内容について解説した。

人手で行ってきたほぼすべての領域で、我々はAIの支援を得ながら業務をこなすようになっていく。だが、その反面でAIは私たちの大きな脅威にもなり得る--。

AIセキュリティレポートに関する記者説明会に登壇した米チェック・ポイント・ソフトウェア・テクノロジーズ(以下、チェック・ポイント) サイバーエバンジェリスト責任者のブライアン・リンダー氏はそう述べて、「AIの武器化」による脅威の増大について説明した。

チェック・ポイント・ソフトウェア・テクノロジーズ(以下、チェック・ポイント) サイバーエバンジェリスト責任者のブライアン・リンダー氏

米チェック・ポイント・ソフトウェア・テクノロジーズ サイバーエバンジェリスト責任者のブライアン・リンダー氏

同氏はまず、「このレポートから読み取っていただきたいポイントは、攻撃者側がAIを悪用することでマルウェア攻撃を実に簡単に開発できてしまうことだ」と話した。

従来であればサイバー犯罪者がランサムウェアを開発するのに9日間を要していたが、AIを活用することで「現在ではわずか15分で完成してしまう」。さらに、そのマルウェアを使った攻撃にもAIを活用することで、すべてがスピードアップしているという。レポートでは、DDoS攻撃の自動化や搾取した認証情報の精査にもAIが活用されているほか、AIを使って盗まれたデータを検証・クリーニングし、転売価値とターゲット効率を高めるサービスなどが報告されている。

サイバー攻撃の最新状況

サイバー攻撃の最新状況

「サイバー攻撃者がLLMに注目している」

ブライアン氏が最大の脅威として強調したのが、LLMの悪用だ。「攻撃者はLLMに注目している」とし、サイバー犯罪に使われるAIモデルについて説明した。

商用のAIモデルは悪意を持った利用を防ぐように設計されてはいるものの、実際にはChatGPTやGemini、Copilotといった有名なモデルが最も悪用されている実態が明らかになったという。「ジェイルブレイクされているLLMもある。信頼されているAIツールが犯罪に悪用されている」ケースが多く見られると警鐘を鳴らした。

悪意のあるAIモデル

悪意のあるAIモデル

さらに、オープンソースのAIモデルを非倫理的目的のために訓練した「悪意のあるAIモデル」も存在する。厄介なのは、そうしたAIモデルが「商業化されている」ことだとブライアン氏。サイバー犯罪向け生成AIツールとして「WormGPT」「GhostGPT」といった複数のLLMがハッキングや詐欺のツールとして販売、利用されていることが報告されている。

続きのページは、会員の方のみ閲覧していただけます。

関連リンク

RELATED ARTICLE関連記事

SPECIAL TOPICスペシャルトピック

スペシャルトピック一覧

NEW ARTICLES新着記事

記事一覧

FEATURE特集

WHITE PAPERホワイトペーパー

ホワイトペーパー一覧
×
無料会員登録

無料会員登録をすると、本サイトのすべての記事を閲覧いただけます。
また、最新記事やイベント・セミナーの情報など、ビジネスに役立つ情報を掲載したメールマガジンをお届けいたします。