Googleは、同社のアクセラレータを使用するクラウドプロバイダーに資金提供しようとしています
GoogleはAIアクセラレーターを新たなレベルへ押し上げようとしています
OpenAIが積極的に推進している「リング」型協力モデルが、やや見逃せないものとしてGoogleにも注目されているようです。これに対抗する形で、同社は財務リソースを活用し、自社製AIアクセラレーターの購入を促す方針を決定しました。競合他社はこの取り組みに懐疑的な姿勢を示しており、部品不足が計画実行を難しくしています。
【知れ渡ったこと】
*The Wall Street Journal* は、Google が自社製チップの需要を刺激する意図を持っていると報じています。主要クラウドプロバイダーはほぼ全てNvidiaアクセラレーターを使用しているため、Google のTPU(Tensor Processing Unit)推進には困難が伴います。この状況を変えるべく、同社は「neocloud」プロバイダーと協力し、資金面での参加を通じて自社アクセラレーター購入を促進する方針です。
- Fluidstackへの投資
情報筋によると、Google はFluidstackというスタートアップに1億ドル投資交渉中です。取引総額750万ドルで、FluidstackはGoogle のGPU・TPUインフラを利用すると見込まれています。
- 元マイニングプロジェクトへの支援
同時に、Google はかつて暗号マイニングを行っていた複数のプロジェクトに資金提供し、現在はデータセンター構築へ転換させる計画です。
- TPU部門の組織的独立性
社内ではTPU開発部門により大きな自律性を与える案が議論されています。これにより外部資本を呼び込みチップ製造を進められる可能性がありますが、公式発表はまだありません。
【現在のTPU状況】
Google は2018年からクラウド顧客へTPUベースの計算リソースを提供しています。しかし、同社インフラ全体は依然としてNvidiaアクセラレーターに依存しています。データによると、既にTPUを外部顧客へ販売し、自前で計算基盤を構築しているケースもあります。
TPU開発責任者のアミン・ヴァハダット(Amin Vahdat)は最近AIインフラCTOに昇進し、サンダー・ピチャイCEOに直接報告するようになりました。
【成長制約】
TPU事業拡大の主な障壁は、TSMC の製造能力不足です。TSMC は競合Nvidiaの注文を優先しており、さらにメモリ不足がTPUベースインフラの拡張を遅らせています。
それでも、大手企業はGoogleアクセラレーターに関心を示しています。Meta Platforms や Anthropic が潜在顧客として挙げられますが、Amazon(AWS)はGoogle を単なる競合と見なし、自社 Graviton プロセッサ開発に注力しているため TPUs への移行は急いでいません。Microsoft の Azure も同様です。
このように、Google は財務的・組織的な手段を駆使し、AIアクセラレーターの競争力を高めるための一連の施策を進めています。
コメント (0)
感想を共有してください。礼儀正しく、話題に沿ってお願いします。
コメントするにはログイン