米国グーグルが「NVIDIA(エヌビディア)の対抗馬」として本格的に乗り出す。自ら設計したチップで独自の人工知能(AI)サービスを成功的に運営してきたのに続き、今回はNVIDIAの「得意先大手」の一つであるオープンAIにも手を伸ばした。今後、NVIDIAのAIチップ独走体制に亀裂が生じるか注目される。
29日付のロイターの報道によると、オープンAIは最近グーグルが設計したチップ「テンソル処理装置」(TPU)をレンタルし、ChatGPTを駆動するのに使い始めたとある関係者が伝えた。NVIDIAの最大顧客の一つであるオープンAIがNVIDIA以外の他社チップを使うのは今回が初めて。オープンAIは今後、両社のチップを共に使う見通しだ。
グーグルが開発したTPUは、特定形態のAI演算に特化している点が特徴だ。NVIDIAのグラフィック処理装置(GPU)が多様な並列演算を遂行できるように設計された汎用製品に近いのと対比される。NVIDIAのチップは全般的に良い性能を保証する反面、グーグルが設計時に念頭に置いた特定作業に限ってはグーグルのチップの方が効率が良いという話だ。
グーグルのAI検索サービスが安定的に駆動される秘訣もまさにこのTPU装置にある。グーグルは最近200カ国余りで「AIによる概要(AI Overview)」という名前の検索サービスを提供している。「部屋の防音処理を自分でする方法」と検索窓に入力すれば、生成AIが防音処理に必要な材料と方法、注意事項などを要約して知らせる方式だ。利用者が直接検索結果リストに表示された複数のリンクをいちいちクリックして確認する手間を減らしたのだ。グーグル検索のシェアが高いだけに利用量が多いと予想されるにもかかわらず、効率的なTPUのおかげで速く安定的に作動するという評価を受けてきた。
業界はグーグルが今回の成果を踏み台にして領域をさらに広げるかに注目している。これまでアップルと一部のスタートアップ程度だけだったグーグルの顧客名簿にAIの大物が追加されたためだ。ただ、グーグルがAIサービスを提供する企業の大半と競争関係にある点は障害物として作用する可能性がある。グーグルに比べ、NVIDIAのAIチップ関連のソフトウェア環境の方が強固だという点も変数として取り上げられている。