Qualcommは、新しいミッドレンジスマートフォンモバイルプラットフォームの最新バッチとともに、サンフランシスコで開催されるAIデーでさらに大きな発表を行いました。モバイルチップの巨人は、2018年にCentriqの範囲を放棄した後、サーバーの別のプレイを行っています。今回は、AIの分野の技術を活用してクラウドコンピューティングの扉に足を踏み入れています。最初のチップは、Qualcomm Cloud AI 100プラットフォームと呼ばれます。
Cloud AI 100プラットフォームは、モバイルチップの再パッケージ化ではなく、トレーニングではなくAI推論タスク用のゼロからの7nm設計です。つまり、チップは、ニューラルネットワークを通過する数字を、トレーニングに使用されるのではなく、処理します。これにより、クアルコムは、NvidiaのTesla T4シリーズおよびサーバーおよびクラウドコンピューティング向けに設計されたGoogle Edge TPU推論チップと直接競合するように見えます。競合他社と同様に、クアルコムは、最も効率的なAI処理はCPU、GPU、およびFGPAではなく、専用のAIアクセラレーターが必要であることを認識しています。
パフォーマンスの観点から、クアルコムは、Snapdragon 855の機能に比べて50倍を超えるAIパフォーマンスのピークを予測しています。Snapdragon855は、約7TOPSのパフォーマンスを提供します。それは確かに、NvidiaのT4にお金をかけることになります。クアルコムは、ワットあたりのパフォーマンスも同様に優れていると考えており、今日展開されている業界最先端のAI推論ソリューションと比較して10倍の改善を誇っています。大量のデータを処理する場合、電力効率により、企業は電気代を大幅に節約できます。さらに、クアルコムは、信号処理と5Gの専門知識を活用して、クラウドプラットフォームが将来の超低遅延ネットワークのエッジで動作できるようにしたいと考えています。
クアルコムは、尋ねられたときに、クラウドAI 100で使用されているアーキテクチャがプロプライエタリであるか、他の場所からライセンスされているかについてコメントしませんでした。これはArm's Trillium AIアーキテクチャの最初の登場なのでしょうか。これは、低電力バジェットでの推論ワークロード用に特別に設計されています。しかし、クアルコムは十分な憶測を集めており、今後AIアーキテクチャに関する情報をさらに共有する予定だと述べています。
最後に、開発者をサポートするために、クアルコムのクラウドAI 100は、すべてではありませんが、業界をリードするソフトウェアスタックのほとんどで動作します。 Caffe、Keras、mxnet、TensorFlow、PaddlePaddle、およびCognitive Toolkitフレームワークに加えて、Glow、OnnX、およびXLAランタイムがサポートされています。
Qualcomm Cloud AI 100は、