-
@ BitCap
2023-08-09 10:31:328月9日、Nvidiaは、AMD、Google、Amazonなどの人工知能ハードウェア分野の競合他社をかわすことを目的とした新しいチップの発売を発表した。
推定によると、Nvidia は現在 AI チップ市場の 80% 以上を占めています。 同社の専門分野はグラフィックス プロセッシング ユニット (GPU) であり、Google の Bard や OpenAI の ChatGPT などの生成人工知能ソフトウェアをサポートする大規模 AI モデルに最適なチップとなっています。 しかし、テクノロジー大手、クラウドサービスプロバイダー、新興企業が独自のAIモデルを開発するためのGPU容量を求めて競争しているため、Nvidiaのチップ供給は不足している。
Nvidia が新しくリリースしたチップ GH200 は、同社の現在の最高級 AI チップである H100 と同じ GPU を使用しています。 ただし、GH200 には、141GB の最先端のメモリと 72 コアの ARM 中央プロセッサも搭載されています。
NvidiaのCEO、Hwang In-hoon氏は火曜日の講演で「このプロセッサにいくつかの改良を加えた」と述べた。 同氏はさらに、「このプロセッサは、世界的なデータセンターの規模に合わせて設計されました。」と付け加えました。
Wong In-hoon 氏によると、新しいチップは来年第 2 四半期に Nvidia 販売店で発売され、年末までにサンプルを提供する予定だという。 Nvidiaの代表者は価格の開示を拒否した。
一般に、AI モデルを処理するプロセスには、トレーニングと推論という少なくとも 2 つの部分があります。
まず、モデルは大量のデータを使用してトレーニングされます。このプロセスには数か月かかり、場合によっては Nvidia の H100 チップや A100 チップなどの数千の GPU を使用することもあります。
次に、モデルはソフトウェアで使用され、予測を行ったりコンテンツを生成したりします。これは推論と呼ばれるプロセスです。 トレーニングと同様に、推論には大量の計算リソースが必要であり、テキストや画像の生成時など、ソフトウェアを実行するたびにかなりの処理能力が必要になります。 ただし、トレーニングとは異なり、推論はほぼ継続的であるため、モデルを更新する必要がある場合にのみトレーニングを行う必要があります。
Hwang In-hoon 氏は次のように述べています。 とんでもない推理をするでしょう。 大規模な言語モデルの推論コストは大幅に削減されます。」
Nvidia の新しいチップである GH200 は、単一システムでより大きな AI モデルに対応できるメモリ容量が多いため、推論用に設計されています。 Nvidiaの副社長Ian Buck氏は、アナリストや記者との電話会議で、NvidiaのH100には80GBのRAMが搭載されているのに対し、新しいGH200には141GBのRAMが搭載されていると述べた。 Nvidia はまた、より大型のモデルをサポートするために 2 つの GH200 チップを 1 台のコンピューターに組み合わせたシステムの発売も発表しました。
「メモリが増えると、複数のシステムや複数の GPU を実行する必要がなく、単一の GPU 上にモデルを常駐させることができます」とバック氏は述べています。
この発表は、Nvidia の主要 GPU 競合会社である AMD が、192 GB のメモリをサポートし、AI 推論に適していると宣伝されている AI ベースのチップ MI300X を発売したタイミングで行われました。 Google や Amazon などの企業も、推論用に独自のカスタム AI チップを設計しています。