2026/03/25

PR 【Amazonギフトカードあたる!】ITmedia AI+読者調査
アイティメディア株式会社
 
PFN、楽天、Sakana AI…にわかに盛り上がる国産LLM

楽天が「Rakuten AI 3.0」を発表し、Preferred Networksが「PLaMo 3.0 Prime」を発表し、Sakana AIが「Namazu」シリーズ及び初のコンシューマプロダクト「Sakana Chat」を発表と、国産LLM系の発表が相次いだ一週間だった。

中でもPFNのPLaMo 3.0 Primeはフルスクラッチ開発ながらリーズニング(長考)が可能で、中国Alibabaの「Qwen3-235B-A22B-Thinking-2507」に並ぶ性能とあり、米中のフロンティアモデルの背中が見えるところまで来たといえそうだ。

一方、楽天のRakuten AI 3.0とSakana AIのNamazu(のうち最大のモデル)は中国DeepSeek V3.1(楽天については推定)をチューニングしたものとなる。特に楽天は国の援助(GENIAC第3期)を受けて開発したものでもあり、中国製がベースなのはどうなのか、そしてメディアからの指摘に非開示という回答なのもいかがか、など批判も出た。

ここでクリアにしておきたいのは、「他社・他国のオープンモデルをベースにすること」自体はなんら悪いことではないということだ(ライセンスの範囲において)。DeepSeekは2025年初頭に取り沙汰された際に「中国にデータを送信すること」を懸念する声があったが、それはDeepSeekが提供しているWebアプリケーションを使った場合の話であって、AIモデル自体をどう使っても不特定な第三者に勝手にデータが送られるようなことはない。

次に問題となるのが「回答バイアス」だ。中国のモデルの一部(DeepSeek R1など)は中国政府に不利となる回答を拒否する傾向があることが知られている。そうしたバイアスをそのまま日本に導入してしまうと、使いどころによっては思わぬリスクが発生する懸念がある。

ただ、これもベースモデルのチューニングで取り除く技術がすでにある。今回それぞれのモデルがそうしたバイアス除去にどう取り組んだかは定かでないが、おそらくはその視点で評価する第三者も今後現れるだろう。

Rakuten AI 3.0もNamazuも、行ったこととしては事後学習のようだ。Namazuは「独自の事後学習技術」をうたい、Rakuten AI 3.0については有志による分析として「LoRA」という追加の学習をしているようだ、という見方がある。

LLMの性能はざっくり言えば「どんなアーキテクチャ(骨組み)にするか」と「どんな重み(肉付け)にするか」にかかっていて、肉付けの部分はアーキテクチャのパラメータ数、学習にかける計算量、データ量を増やせば向上することが知られている。しかし、これをイチから再学習するのは膨大な計算時間がかかり、GPUも電力も大量に必要となる。

なので、「ベースモデルで高い性能が出ているなら、イチから再学習せずとも、それを望む方向にチューニングをかけることで目的を達成する」のは経済的には合理性がある(フルスクラッチのPFNのすごさが逆に際立つが)。

よっていわゆる「チャイナリスク」的な懸念は楽天にもSakana AIにも基本的にない(回答バイアスがきちんと除かれていれば)。ここまで読んでいただければ「ベースが中国製だからなんとなく怖い」というところからは脱していただけるのではないかと思う。(井上)