Google は、データセンターでの AI 作業をサポートするために独自の Arm ベースのカスタム CPU を作成し、より強力なバージョンの Tensor Processing Units (TPU) AI チップを導入しています。Google の新しい Arm ベースの CPU、アクシオンと呼ばれるは、今年後半に Google Cloud の企業顧客に展開される前に、Google の AI ワークロードをサポートするために使用されます。

Axion チップはすでに YouTube 広告、Google Earth Engine、その他の Google サービスに搭載されています。Google Cloud のバイスプレジデント兼コンピューティングおよび機械学習インフラストラクチャ担当ゼネラル マネージャーの Mark Lohmeyer 氏は、次のように述べています。への声明ロイター。「Axion はオープン基盤に基づいて構築されていますが、Arm をどこでも使用している顧客は、アプリを再構築したり書き直したりすることなく、Axion を簡単に導入できます。」

Googleによると、顧客は同社のAxion CPUをGoogle Compute Engine、Google Kubernetes Engine、Dataproc、Dataflow、Cloud Batchなどのクラウドサービスで使用できるようになるという。ロイターまた、Axion Arm ベースの CPU は、「汎用 Arm チップ」よりも 30% 優れたパフォーマンスを提供し、Intel の既存のプロセッサよりも 50% 優れていると報告しています。

Google’s Axion Arm-based CPU.

Google の Axion Arm ベースの CPU。

画像: Google

Google は、AI アクセラレーション タスク用に Nvidia の GPU の代替として使用される TPU AI チップも更新しています。TPU v5p は、最大規模で最も要求の厳しいタスクのトレーニングを目的として構築された次世代アクセラレータです。生成 AI モデル、ローマイヤー氏は言う。。1 つの TPU v5p ポッドには 8,960 個のチップが含まれており、これは TPU v4 ポッドにあるチップの量の 2 倍以上です。

Google の Arm ベース CPU の発表は数か月後ですMicrosoftが独自のカスタムシリコンチップを発表クラウド インフラストラクチャ向けに設計されています。Microsoft は、大規模な言語モデルをトレーニングするための独自のカスタム AI チップと、クラウドおよび AI ワークロード用のカスタム Arm ベース CPU を構築しました。Amazon はまた、独自のカスタム CPU を介して Arm ベースのサーバーを長年提供しており、最新のワークロードでは AWS 上の Graviton3 サーバーを使用できます。

Google はこれらのチップを顧客に販売する予定はなく、代わりに企業がレンタルして使用できるクラウド サービスで利用できるようにします。「優れたハードウェア会社になることと、優れたクラウド会社や世界情報の優れたオーガナイザーになることは大きく異なります」と、Google 社内チップ事業担当幹部のアミン・ヴァハダット氏は言う、 でへの声明ウォール・ストリート・ジャーナル

以前の Microsoft や Amazon と同様に、Google は現在、Intel や Nvidia などのパートナーへの依存を減らすことができると同時に、AI やクラウド ワークロードを強化するためのカスタム チップで競合することもできます。