FlowTune Media

量子コンピュータの「計算ミス」をAIが3倍の精度で直す — NVIDIAが放ったIsing

量子コンピュータが「使える道具」になる前に立ちはだかっている壁は2つある。ひとつは量子ビットのノイズ。もうひとつは誤り訂正の計算コスト。どちらもハードウェアの問題だと長らく思われてきたが、ここ数年、静かに「AIで解く問題」に変わりつつある。

4月14日、NVIDIAがIsingという量子AIモデルファミリーを発表した。世界初のオープンソース量子AIモデル、という触れ込みだ。名前はおそらく統計物理のIsingモデルから取っている。正直、AIメディアで量子コンピュータの話を扱うのは気が重い。専門用語が多いし、実用の話をしにくい。それでも今回これを取り上げるのは、NVIDIAの出し方がいつもの「フラッグシップGPU発表」と明らかに違うからだ。

商用プロダクトではない。重みも、訓練データも、推論コードも、ドキュメントも、全部GitHubとHugging Faceに置いている。build.nvidia.com経由でマネージドエンドポイントとしても叩ける。無料で誰でも使える。

「量子コンピュータにAIがなぜ必要か」をざっくり

量子ビットは、超低温の物理装置の中で量子状態を保っている。空調の揺れ、電磁波、熱、ありとあらゆるノイズが量子状態を壊す。だから現実の量子コンピュータは、計算を始める前に毎回「今このビットはどれくらいズレているか」を測定し、パラメータを補正している。これがキャリブレーションだ。

もうひとつの問題が誤り訂正。量子ビットは計算中にも勝手に反転したりする。反転したことを検知して直す仕組みがないと計算結果が信用できない。この検知・修正を担うのがデコーダーと呼ばれるソフトウェアで、論理量子ビット1個を守るために数十〜数百の物理量子ビットを束ねて監視する必要がある。

どちらも、大量のセンサー出力を読んで判断するタスクだ。一言で言えば「パターン認識」。AIが得意そうな領域に見える。実際、研究レベルでは何年も前から試みがあった。今回NVIDIAが出したIsingは、その研究を「そのまま動かせるモデル」として束ねてきた。

Ising Calibration: VLMが量子プロセッサを見る

Isingファミリーの1つ目はIsing Calibration。これがちょっと面白い。中身はVision Language Model(VLM)だ。

量子プロセッサの測定データをグラフや画像として入力し、何がズレているかを読み取る。従来はキャリブレーションに数日かかっていた。Isingに置き換えると数時間になる、というのがNVIDIAの主張。まだ検証待ちの数字ではあるが、VLMを計測データに当てるというアプローチは筋が悪くない。

既にAtom Computing、EeroQ、Conductor Quantum、Fermilab、IQM、IonQ、Q-CTRLなどが採用を発表している。Harvard、Lawrence Berkeley National Laboratory、Academia Sinica も名前を出している。これだけ主要機関が初日から並ぶのはNVIDIAでも珍しい。「仲間集めを先に済ませた発表」という印象が強い。

Ising Decoding: 3D CNNでリアルタイム誤り訂正

2つ目がIsing Decoding。こちらはVLMではなく3次元畳み込みニューラルネットワークだ。量子誤り訂正の測定データを時空間のボクセルとして扱い、どこでエラーが起きたかを推定する。

ここで比較対象になっているのがpyMatching。現状、量子誤り訂正のデコーダーとして事実上の業界標準になっているオープンソース実装だ。NVIDIAの発表によると、Ising Decodingはpymatching比で最大2.5倍高速、3倍高精度。速度と精度の両方を同時に出してきている。

速度重視版と精度重視版の2モデルが配布されているのもポイントで、量子プロセッサの制御ループの中でリアルタイムに回す前提になっている。誤り訂正デコードは「計算結果を受け取ってから直す」のでは遅い。計算している最中に、マイクロ秒オーダーで判定を返す必要がある。そこにAIをねじ込むには推論レイテンシそのものが制約になる。2モデル体制は、この現実的な制約に対応したものだ。

量子株が反応した

発表と同時に、量子関連株が目に見えて動いた。IonQ(IONQ)、Rigetti Computing(RGTI)、D-Wave(QBTS)が軒並み二桁上昇している。これは意外な動きだった。「NVIDIAが量子向けのAIモデルを出す」というニュースは、ぱっと見ではNVIDIAの株に効きそうな話だ。しかし市場は逆に、量子ハードウェアベンダーの方に乗った。

理由はシンプルで、量子ハードの実用化を遅らせていた最大のボトルネックが「ソフトウェアとキャリブレーション」だったからだ。ハードは積めば積むほど良くなる、しかしそのハードを動かす知能が足りなかった。NVIDIAがその知能のオープンソース版を出したことで、ベンダー各社は自分のハードに載せてすぐ使える。参入障壁が下がる。投資家はそう解釈した。

NVIDIAの量子戦略の位置付け

NVIDIAの量子関連プロダクトはここ2年で急速に増えた。CUDA-Q(量子古典ハイブリッド計算のソフトウェアスタック)、Grace Blackwellベースの量子古典ノード、そしてIsing。

見ていて思うのは、NVIDIAは「量子コンピュータそのもの」を作る気がないということだ。IonQでもIBMでもGoogleでもない。NVIDIAが取ろうとしているのは、すべての量子ハードベンダーの間に挟まるソフトウェアレイヤー全部だ。GPU版「量子界のIntel」ポジションを狙っている、と言うと語弊があるかもしれないが、構図としてはそう見える。

CUDA-Qは量子アルゴリズムを書くためのフレームワーク。Ising Calibrationは量子ハードを動かすための支援AI。Ising Decodingは量子計算結果を直すためのAI。ハードベンダーが何を作っていても、NVIDIAのスタックを通る設計になる。今回Isingをオープンソースで放流したのは、この戦略にとって合理的な一手だ。「競合」ではなく「インフラ」になる道を選んでいる。

誰のためのモデルか、正直に

ここまで書いてきたが、Isingをダウンロードしてすぐに遊べる人はAIメディアの読者の中にほぼいない。量子プロセッサを持っていないと意味がないからだ。だから「使ってみた」系の記事にはならない。

ただ、いくつか現実的な使い道はある。ひとつは、大学研究室や企業の量子計算チームが既存のpyMatchingパイプラインを置き換える選択肢として検討すること。モデル自体は寛容な条件で配布されているので、クラウド量子APIを叩いている研究者も自分のポスト処理に差し込める。

もうひとつは、誤り訂正の研究者がIsingの重みをファインチューニングして、自分のハードに最適化すること。NVIDIAは訓練データと再学習のガイドラインを同梱しているので、ゼロから組むよりは圧倒的に早い。

それ以外の人間にとっての実利は、正直まだ少ない。ただ、量子コンピュータが「研究室の動かないおもちゃ」から「金融や材料の最適化を回すマシン」に転じる瞬間があるとしたら、そのトリガーはハードではなくソフトだ、というシナリオが今回かなり現実味を帯びた。これは覚えておいていい。

気になる点

NVIDIAの発表は例によって華やかだが、独立検証が出ていない指標もある。Ising Decodingの「2.5倍速・3倍精度」はNVIDIA内部のベンチマークで、pyMatchingのどのバージョン、どの誤り訂正符号、どの物理ビット数で測ったかが現時点では明記されていない。量子誤り訂正の文脈では、条件次第で結果が大きく変わる。実験室レベルの再現報告が出るまでは、この数字はそのまま鵜呑みにしない方がいい。

それと、Ising CalibrationをVLMで組んだ設計は、なぜそれが一番いいのかの説明がやや薄い。グラフデータをJPEGに落として画像モデルに食わせるのは工夫としては面白いが、専用のTransformerや拡散モデルに対する優位性が論文として出てくるかは今後次第だ。

それでも、量子コンピューティングという誰もが「まだ10年先」と思っていた領域に、AI側から「使える道具」が降ってきたこと自体は無視できない。次に注目すべきは、IsingがIonQやIQMの実機で動いた後のレイテンシと精度の実測レポートだ。それが出揃ったとき、量子コンピュータは少しだけ現実の輪郭を持つ。

関連記事