|
これがローカルLLMの新定番かも
|
2025年もAI関連の話題は尽きず、それについては1年の振り返り漫画をAI+にて掲載中なのでご笑覧されたい。
|
2025年の話題の中でも、現実的に実務で使えるレベルに進化したのがローカルLLMではないだろうか。特に、OpenAIが8月に発表した「gpt-oss」は小型モデル(20B)の方であればグラフィックスカード1枚で実行でき、ベンチマークでも高い結果を残すなど話題になった。生成AIの寵児であるOpenAIがそれを出したということも注目に拍車をかけた。
|
いまだにローカルLLMにおいてはgpt-ossが一つの比較軸となっているが、gpt-ossと比べても性能の高さを最近感じたのが、NVIDIAが発表した「Nemotron 3 Nano」だ。会話した感触はgpt-oss(20B)とほぼ同じ性能かやや高い程度の印象があり、コンテキストサイズ(一度に読み込める文章の長さ)はgpt-ossが最大12万8000トークンであるのに対し、Nemotron 3 Nanoは最大100万トークンと膨大な文章量に対応。GoogleのGeminiにも匹敵する。
|
それでいて、gpt-ossと同じくグラフィックスカード(VRAM 24GB)に最大コンテキストサイズが載り切るので、単純なチャットを超えて膨大な文章を参照するような業務にも利用が見込めるかもしれない。
|
これをNVIDIAが出しているのもポイントが高い。国産AIではないものの、中国製のAIに持つような懸念はないと考える人も多そうだ。
|
また、NVIDIAは今後Nanoに留まらず「Super」「Ultra」といったサイズのモデルも投入予定だ。おそらくエッジで実行できるサイズではなくなるが、サイズに応じた性能向上はあるものと思われる。
|
2026年のローカルLLMの、一つの新しい比較軸になりそうだ。(井上)
|