推論に関しては来たデータをベースに判断を行う訳であり、学習よりもはるかに処理負荷は小さい。こう推論機能を組み込み機器、具体的にはセンサーハブやセンサーフュージョン機器に載せようという話が盛んになされている。
実はこれに向けても、既に多くのプレイヤーが手を上げている。まずGPUで言えば、NVIDIAが「Jetson TX1/TX2」を強力にプッシュしているし、Vivante Technology(2016年にVeriSiliconが買収)のGPGPUコアもDNN向けをアピールしている。「Mali GPU」を擁するARMはMali GPUに関して「DNN向けにも利用可能」という一歩引いた立場を崩さないが、別のDNN向けソリューションを現在準備中のためだろう。Imaginationは「PowerVR Series7XT Plus」から、DNN向けを強力にアピールしている。
ただこれらは強力な推論エンジンになりうる一方、コストと消費電力もまた高めである。そこでもっと低コストなソリューションを提案しているのがCEVAである。CEVA-XM DSPにソフトウェアフレームワークを組み合わせたCDNN(CEVA Deep Neural Network)は、MPUやGPUに比べるとずっと低コスト&低消費電力のソリューションになりえるという主張だ。Cadence傘下のTensilicaもDSPベースのIPを提供しており、他にもDSP IPを持つベンダーがやはりDNN向けのフレームワークを提供といったニュースが出てきている。
同様に、GPUに比べてずっと低い消費電力とコストを実現できるとするのがFPGAベンダーで、XilinxとAltera(Intel PSG)という2大ベンダーに加えて、小〜中容量のFPGAを提供するLattice SemiconductorとMicrosemi Corporationもこのマーケットを狙っている。
Copyright © ITmedia, Inc. All Rights Reserved.
豊富なホワイトペーパーの中から、製品・サービス導入の検討に役立つ技術情報や導入事例などを簡単に入手できます。