5GでエッジAIはさらに進化する

デバイスのコンピューティングパワーが増大するのに伴い、高度なAI処理をデバイス上で実行する“エッジAI”の活用シーンが広がっている。クラウド上で生成された学習モデルをエッジデバイスに実装し、現場で画像認識や異常検知等を行うことが可能だ。

AI処理は、センサー等から集められた膨大なデータを基に行う「学習」と、それにより生成された学習モデルを使って行う「推論」に分けられる。従来はどちらもクラウド上で行われていたが、最近では、IoTゲートウェイやエッジサーバー、さらにはエッジデバイス上に学習モデルを実装し、現場近くで推論を実行する形態が増えてきた。

潤沢なリソースが使えるクラウドではなく、なぜエッジで推論処理を行うのか。その理由は複数ある。

学習と推論の両方をクラウドで行う場合、推論を実行した結果をデバイス(=現場)に反映するのに遅延が生じる。学習に必要なデータをクラウドに送るために、上り通信の帯域が逼迫することもデメリットだ。また、クラウドとエッジをつなぐネットワークの品質が変動したり通信が途切れたりすると、AI処理を安定的に行えない。

推論をエッジ側に任せれば、これらの課題を解消できる。リアルタイム性が高まり、学習に必要なデータをエッジで集約してからクラウドに送ることで通信帯域も節約。さらに、クラウドと通信していないオフライン時にも、ローカルで推論処理を継続できる。

図表 学習と推論の分担の効果
図表 学習と推論の分担の効果

このエッジAIを支えるのが、AIエンジンを搭載したチップセットだ。

スマートフォン向けプロセッサで市場シェア1位のクアルコムは現在、多様なIoTデバイスをターゲットにエッジAI用チップセットも展開している。クアルコム シーディーエムエーテクノロジーズ スタッフマネージャー マーケティングの泉宏志氏は、「モバイル向けチップの資産を活かして、Windows OS用、VR/AR用、ロボティクス用、ウェアラブル用、コネクテッドカメラ用のほか、幅広いIoTニーズに応えるチップセットを開発・提供している」と話す。

クアルコム シーディーエムエーテクノロジーズ スタッフマネージャー マーケティング 泉宏志氏
クアルコム シーディーエムエーテクノロジーズ
スタッフマネージャー マーケティング 泉宏志氏

月刊テレコミュニケーション2019年9月号から一部再編集のうえ転載
(記事の内容は雑誌掲載当時のもので、現在では異なる場合があります)

RELATED ARTICLE関連記事

SPECIAL TOPICスペシャルトピック

スペシャルトピック一覧

FEATURE特集

NEW ARTICLES新着記事

記事一覧

WHITE PAPERホワイトペーパー

ホワイトペーパー一覧
×
無料会員登録

無料会員登録をすると、本サイトのすべての記事を閲覧いただけます。
また、最新記事やイベント・セミナーの情報など、ビジネスに役立つ情報を掲載したメールマガジンをお届けいたします。