オブザーバビリティプラットフォームを提供するDatadogは2025年6月、自社カンファレンス「DASH」において、生成AIおよびエージェント型AIシステムに対応する一連の新機能を発表した。
まず、AIシステムの動作と成果を定量的に把握し、開発と運用の信頼性を高めるため、大規模言語モデル(LLM)やAIエージェントの動作を可視化・分析する機能群「LLM Observability」に追加された3つの新機能だ。「AI Agent Monitoring」は、各エージェントの意思決定過程をインタラクティブなグラフで可視化し、異常動作の検出や性能最適化を支援する。「LLM Experiments(Preview)」は、プロンプトやモデルの変更が応答精度やコストに与える影響を比較可能とし、AI開発の品質検証を定量的に行う。「AI Agents Console(Preview)」は、複数のAIエージェントの挙動やROIを統合的に把握し、セキュリティやコンプライアンスを踏まえた運用管理を可能にする。
また、対話型AIアシスタント「Bits AI」には、3種の特化型AIエージェントを追加する。24時間365日対応の“オンコールエージェント”として障害対策を迅速化・自動化する「Bits AI SRE」、エラーを検知し、修正コードとプルリクエストを自動生成する「Bits AI Dev Agent」、セキュリティイベントを自律的に分析・優先付けしたうえで対応策を提示し、SOCの負荷を軽減する「Bits AI Security Analyst」である。さらに、テレメトリデータをもとに、非効率なクエリやボトルネック箇所を自動で特定し改善案を提示する「Proactive App Recommendations」、遅延の原因やパターンを分析し、影響範囲の可視化と修正案の提示を自動化する「APM Investigator」という、2つの応用AI機能も加わった。
そして、セキュリティ製品群も強化した。「Code Security」は、コード作成に生成AIの活用が広がるなかで、AI起因のコード脆弱性や外部ライブラリ由来のリスクを検出する機能。IDEやGitHubなどと連携し、開発パイプラインを中断せずに修正を支援する。本番環境ではLLMの出力を常時監視し、不適切な応答やデータの誤使用を防ぐほか、クラウド環境のリスクを検出・修正する「Cloud Security」と連携してNIST AIフレームワーク準拠も可能にした。稼働時のセキュリティ対策も強化されており、AIモデルとホスト環境との相互作用を監視する「LLM Isolation」や、Cloud SIEMと連携したAIエージェントによる自動トリアージ機能などが加わった。