Nvidia、LSI新����開発�](m└i)縮に威�を発ァする�收�AI「ChipNeMo」を�o開
半導��売り�屬欧脳�成長しているNvidiaは、�收�AIをはじめとするAIコンピューティングのGPUやソフトウエアをさまざまな応�ごとにAIソリューションを提供している。このほどLSI設�期間を�](m└i)縮するため、チップ設�のための�收�AIであるLLM(�j(lu┛)��模言語モデル)アシスタントChipNeMo(図1)を開発、IC����開発に使っていることを「NTTPC GPU Day �收�AI基盤の最�i線」の講演で、��蕕�砲靴拭�

図1 LSI設�のためのLLMアシスタントChipNeMoを開発 出�Z:Nvidia
Nvidiaは、2022�Qに�收�AIが登場してくるまで、2~3�Qに�kつの新����を出していた。しかし�收�AIの登場以来、ほぼ毎�Q�kつ新しいGPUやAIチップを出すようになった。その背景の�kつは、�收�AIを?q┗)��していることだった。たた、�收�AIと言えども、�kからL(zh┌ng)SI設�の学�{を教え込むわけではない。AIで最�Zよく使われるようになった�{加学�{を使うのである。
LLMでは、言語をトークンと�}ばれる単位に区切って学�{させているが、そのトークンのパラメータ数が�j(lu┛)��模になればなるほど学�{期間が長くなった。最初のチャットGPTでは1750億パラメータという巨�j(lu┛)なデータを学�{させるために数�h個という�j(lu┛)量のGPUを使っても300日�度かかったとされている。そこでできるだけ少ないパラメータで学�{させる��(sh┫)が実�的になる。
LSI設�にしてもそのままチャットGPTを使うのではなく、LSI設�に��化したいわばカスタマイズした�收�AIを使う��(sh┫)がより�(l┐i)確で�](m└i)時間で�T果が�u(p┴ng)られる。Nvidiaが開発した�收�AI「ChipNeMo」を使えば、GPUのアーキテクチャや設�に関する��笋砲垢暗悊┐蕕譟△靴��㌫廚紛\術文書を早く見つけてくれる。さらにLSIの設�言語から�~単なスニペット(言語の中から�~単に切り�aりして再�W(w┌ng)�できる�霾�砲�收�掘▲魁璽紐��鰓~単にしているという。基盤モデルとして700億パラメータのLlama(ラマ)2を使いながら、130億および70億パラメータと少ないChipNeMoチャットモデルが出来たとしている。
�k般に、�收�AIの学�{には、学�{させるべきデータの収集から始まり、モデルの��i学�{、基盤モデルによる学�{、カスタマイズを経て、ファインチューニングで�後学�{をさせてから�W(w┌ng)�(デプロイ)できるようになる(図2)。
図2 半導��設��の�收�AIプラットフォームChipNeMoの�{加学�{による�}順の例 出�Z:Nvidia
�k般のユースケースではこれだけにとどまらず、NVIDIA NeMo Guardrailsで合法的なことを学�{させているかどうかをチェックする。実際に推�bして使う場合には NIM(NVIDIA Inference Microservice)を�W(w┌ng)�すると、すでに構築されたコンテナが附?y┬)錣靴討��㌫廚淵皀妊襪鯊?li│n)�I(m┌i)してすぐに使えるようになっている。
Nvidiaの�收�AIではコード�收�藩很鵝∪濕��мqのチャットボットという3つの機�Δ鮗存修靴討い襦�海Δい辰深{加学�{でカスタマイズするためのツールもNvidiaは開発しており、RAG(Retrieval-Augmented Generation:検索拡張�收�砲扉}ぶテクノロジーが威�を発ァする。この�\術は外�陬宗璽垢�蘰D�u(p┴ng)した情報を�いて、�收� AI モデルの�@度と信頼性を向�屬気擦襪發里世箸いΑ�
NVIDIA NeMo は、カスタマイズされたエンタープライズ グレードの�收� AI モデルの構築に��化した、オープンソースのエンドツーエンド プラットフォームである。LSI設�だけではなく、創薬開発やデータ分析、シミュレーション、ロボティックスやデジタルツインなど様々なAIコンピューティングプラットフォームにさまざまなNeMoプラットフォームがある。