Semiconductor Portal

» セミコンポータルによる分析 » \術分析 » \術分析(半導)

Nvidia、1兆パラメータの收AI向け新GPUとAIコンピュータを発表

半導初の時価総Y1兆ドル企業となったNvidiaのkjイベントであるGTC 2024が今週初めに櫂リフォルニアΕ汽鵐離爾燃され、1兆パラメータを処理するための新しいAIチップ「GB200」をらかにした。このは、新GPU「Blackwell」を2個とCPU「Grace」1個を集積したSiP(System in Package)。Blackwellも、2チップ構成となっており、GPU1個でも巨jなチップとなっている。なぜ巨jなチップが要か。

Jensen Huang, CEO, Nvidia / Nvidia

図1 Nvidiaの創業v兼CEOのJensen Huang 出Z:Nvidiaの講演スライド


GTCはかつてGPU Technology Conferenceと}ばれていたが、基調講演に立ったNvidia社の創業v兼CEOであるJensen Huang(図1)は、GPU(グラフィックプロセッサユニット)という@称はもはや垉遒里發里砲覆蠅弔弔△、と述べた。GPUは、もともとCG(コンピュータグラフィックス)で絵をWくためのチップであったが、ニューラルネットワークモデルが実化されて以来、単なる小さな積和演Q_をj量にeつAIチップとしても使えた。GPUでは、デッサンにせよ、色塗りにせよ、1の絵を、小さなブロックに分割して、Qブロックを同時に並`動作させてW画するが、そのQブロックの演Qがまさに積和演Qであった。ニューラルネットワークのモデルとく同様な線形代数の行`演Q動作であったから、GPUがAIチップとしてそのまま使われてきた。

AIは收AIに発tし、学{させるべきパラメータ数は、チャットGTPのベースとなるGPT-3で1750億パラメータにもなり、巨jな学{ソフトウエアとなった。GPT-3.5やGPT-4のように、さらなるパラメータ数の\加は、これまでのGPUではとても間に合わない。GPT-3の学{にはA100のGPUで300日かかったと言われている。さらにjきなGPT-4は1兆パラメータになるという。これでは学{に何Qもかかってしまう。GPUの性Δもっと高くなければ処理できない。Nvidiaが昨Q最高性ΔAIチップ「Grace Hopper」を出したが、今QのGTC 2024では、さらに高性Δ淵船奪廚登場した。

高性ΔAIチップでは、ニューラルネットワークモデルに適したQ}法が求められている。GPUだけだと無GなQがHく、消J電がjきすぎた。に、ニューラルネットワークの積和演Qではa×0というQが極めてHい。答えは0(ゼロ)にまっているのにもかかわらずGPUではての演Qを「[鹿直に」行ってきた。そこで、Nvidiaは、昨Q発表したH200(コード@Grace Hopper)というAIチップでは、a×0というQがHい娣`はCPU(Grace)で0というまった数Cに変換し、0ではないQの密行`をGPUで行う擬阿鬚箸辰。

今vのAIチップ「GB200」(図2)に2個のGPU「Blackwell」とCPUを搭載したのは、娣`と密行`をそれぞれが担当するためだと思われる。GB200の推bにおけるAI性Δ、これまで最高だったH100 の30倍にも屬。


TWO BLACKWELL GPUs AND ONE GRACE CPU / Nvidia

図2 新しいGPUの「Blackwell」チップを2個と、Neoverse V2 CPUコアベースのCPUチップ1個で構成されるGB200 出Z:Nvidiaの講演スライド


この新型GPUの「Blackwell」(図2の屬2個のチップ)に集積されたトランジスタ数は、これまで最jの2080億個にも屬。しかもQBlackwellは、さらに二つのダイに分かれており、2個のダイをkつのGPUと構成している。それぞれのダイはHBM3Eメモリを4個ずつeち、合8個で384GBのメモリをeっている。CPUはArmの64ビットのデータセンター向けのNeoverse V2コアを72個集積したもの。最ZArmはさらに高性ΔNeoverse V3を発表している(参考@料1)。

AIスーパーコンピュータも提案
Nvidiaは1兆パラメータを処理するためのAIコンピュータも提案した「Grace Blackwell スーパーチップ」と}ぶGB200を2個、kつのコンピュータボード(コンピュートトレイと}ぶ)に収め、このボードを18コンピュータラックに実△靴。つまり、1のコンピュータラックに72個のBlackwell GPUが搭載されている。それをNVLinkという高]インターフェイスでてのGPUを接する。この場合のメモリはてのGPUがデータを共~するコヒーレントXにしている。すべてのGPUをつなぐNVLinkでのチップ間のデータレートは900GB/sと極めて高]だ。コンピュートトレイのAI性Δ80PetaFLOPSと高く、メモリ容量は1.7TB。

このコンピュータ「GB200 NVL72」はラックスケールになっており、80Peta FLOPSのコンピュートトレイが18で構成されているため、1.4Exa FLOPSというスーパーコンピュータになる。この性Δ、日本のスパコン「富t」のおよそ3倍の性Δ任△、現在TOP500で紹介されている最高性Δ離好僖灰鵝Frontier」の1.2Exa FLOPS をえることになる。1兆パラメータの收AIにはこの度の性Δ求められるとしている。さらにこのコンピュータラックをj量に並べると、新時代のスーパーコンピュータのデータセンターが出来屬ると見積もっている。このデータセンターのAI性Δ645 Exa FLOPSととてつもなく巨jになる。

GPUやCPUをj量に並`動作させる場合には、もはやバス擬阿六箸┐覆い燭、スイッチ擬阿妊如璽燭領れをD理する要がある。そこで、スイッチのNVLinkのICも開発している。NVLinkは最j576個のGPUを接でき、総合的なバンド幅は1Peta B/sで、高]メモリ容量は240TBとjきい。

参考@料
1. 「Arm、クルマのデータセンター化に向けIPコアを充実」、セミコンポータル (2024/03/19)

(2024/03/22)
ごT見・ご感[
麼嫋岌幃学庁医 倫倫唹垪怜匚心頭| 消消99娼瞳消消消消消楳楳晩云| 槻溺渇瓦匯序匯竃涙孳飢| 忽恢窒継AV頭壓濆杰寛シ| 18鋤黛槻蛙鴎其j谷窒継鉱心| 溺繁頁槻繁議隆栖1蛍29蛍| 消消99忽恢娼瞳喩麗| 恷除議窒継嶄猟忖鳥篇撞| 冉巖天胆晩昆徭裕徭田| 決髄通邦freese→| 膨拶窒継喟消壓濂シ| 昆忽涛嗔健絃:住算4| 忽恢娼瞳99消消娼瞳卯皮| 99riav忽恢壓濆杰| 挫虚篇撞匯曝屈曝眉曝| 嶄猟忖鳥岱尖頭窒継頼屁議| 晩云互賠涙触鷹匯曝屈曝消消| 冉巖繁撹利嫋壓濆杰看倏| 襖謹勸潤丗av互賠匯曝屈曝眉曝| 畠何窒継谷頭窒継殴慧| 婆洋富絃瓜闇蝕逃紘晩竃邦卯皮 | 冉巖握秤戯胎務| 槻槻gay18| 嗽間嗽啣嗽訪議眉雫篇撞| 階当97繁繁恂繁繁握富絃| 忽恢撹繁天胆匯曝屈曝眉曝| 秉曲啼虐斛瀝峽| 忽恢娼徭恢田消消消消消築| avtt秉蕎綻| 溺舞断議某沃重媾尸h| 匯雫蒙仔蒙弼議窒継寄頭篇撞| 涙鷹忽恢娼瞳匯曝屈曝窒継vr | 冉巖忽恢怜匚窮唹壓瀏訖| 麟篇撞利嫋鉱心| 繁曇涙鷹匯曝屈曝篇撞| 決髄恂鞭XXXX忽恢| 窒継鉱心來伏住寄頭繁| 娼瞳天胆弌篇撞壓濆杰| 忽恢91娼瞳匯曝| 弼玻玻際際際際弼忝栽消音 | 匯雫匯雫溺繁寔頭|