エッジクラウドプラットフォームを展開するFastlyの日本法人、ファストリーは2025年1月21日、同社初となるAIソリューション「Fastly AI Accelerator」の一般提供を開始したと発表した。
同ソリューションは、大規模言語モデル(LLM)や生成AIアプリケーションの開発において、パフォーマンス向上とコスト削減を支援するもの。データの意味的な関連性に基づきキャッシュを格納するセマンティックキャッシュ技術を採用しており、未使用時と比較して応答速度が平均で9倍近く向上したという。
2024年6月にはChatGPT対応のベータ版をリリースしていたが、今回の一般公開に合わせ、マイクロソフトの「Azure AI Foundry」にも対応を拡大した。
Fastly AI Acceleratorは、個々の呼び出しごとにAIプロバイダーへアクセスする従来の方式に代わり、Fastlyのエッジクラウドプラットフォームを活用して繰り返しのクエリに対してキャッシュされたレスポンスを提供する。このアプローチにより、パフォーマンスの向上、コスト削減、そして開発者体験の改善を実現したとしている。
現在Fastlyを利用中のユーザーは、Fastlyアカウントから直接同ソリューションを追加可能。また、開発者はわずか1行のコード変更とアプリケーションのAPIエンドポイントの更新を行うだけで、インテリジェントなセマンティックキャッシュ機能を簡単に導入できるという。