2026/04/08

Gemma 4登場でいよいよローカルLLM元年?

最近も強力なオープンウェイトモデルとして「Qwen3.5」を紹介したが、GoogleからもQwen3.5と同程度のサイズ・アーキテクチャ(DenseとMoE)の「Gemma 4」が出てきた。最もサイズの大きいGemma 4 31Bは、ベンチマークの種類にもよるがQwen3.5 27Bと争うような性能となっている。

Qwen3.5 27Bにせよ、Gemma 4 31Bにせよ、デスクトップ向けハイエンドGPUのビデオメモリに載せられるサイズとなっている(量子化前提かつ最大コンテキスト長となるとまだ困難はあり)。使ってみると分かるが明らかに賢さが感じられる。もちろんフロンティアモデルであるGPT-5.4やClaude Opus 4.6には敵わないが、Claude Sonnet 4.6とはいい勝負まで来ているという見方もある。

国内勢からも進捗が出ている。国立情報学研究所は「LLM-jp-4」シリーズを発表。32B-A3Bモデルは日本語ベンチマークでgpt-oss-20bやGPT-4oを上回ったという。米中のオープンモデルの後ろを歩く格好となってはいるが、非常に透明性の高いフルスクラッチ学習を行ってこれくらいの性能を出せたという結果は、国内の他の国産LLM開発ベンダーに対するプレッシャーとしても機能するだろう。

こうした状況を見ていると「2026年はいよいよローカルLLM元年か」という印象がある。機密性やプライベートに関わることはローカルで、そうではないがより強い推論が必要となる場合はクラウドで、といったいわゆる「ハイブリッドAI」も現実味を帯び始めているのではないだろうか。(井上)