Q-CTRLは、NVIDIAとOxford Quantum Circuits (OQC)との提携により、NVIDIAのGPUと高速ライブラリを活用して、量子エラー抑制タスクにおける古典的計算コストを500,000分の1に削減することを実証しました。この取り組みは、抽象的な量子回路を物理的な量子ビットにマッピングする際の計算負荷の高いステップであるレイアウトランキングプロセスの最適化に焦点を当てています。このプロセスでは、量子ビットの接続制約とハードウェアの性能変動を考慮しながら、潜在的なマッピングを評価しますが、量子ビット数が増えるにつれて指数関数的に複雑になります。 チームは、NVIDIAのRAPIDSとcuDFライブラリを使用してレイアウトランキングプロセスのGPU加速実装を開発しました。これらの実装は2段階の並列処理を採用しています:(1)複数の回路レイアウトをGPUスレッド間で同時に評価するレイアウトレベルの並列処理、(2)各レイアウト内の計算を数千のGPU演算に分散させる量子ビットレベルの並列処理。ベンチマーク結果では、実際の量子回路(例:Bernstein-Vazirani回路)で10倍の高速化、大規模なランダムレイアウトではCPUベースの手法と比較して最大300,000倍の高速化を達成しました。200量子ビットの場合、レイアウトあたりのコストはCPUの代わりにGPUを使用することで1ドルから0.01ドルに低下し、大幅な計算効率の向上を示しました。 レイアウトランキングプロセスは、エラーを最小限に抑え、回路の忠実度を最大化するために不可欠です。最適なレイアウトを選択することで、最適でない選択と比較して回路の忠実度を10倍以上改善できます。しかし、量子ビット数が増加すると、可能なレイアウトの数が指数関数的に増加し、計算のボトルネックとなります。GPU加速ソリューションは、レイアウトと量子ビットレベルの演算の並列評価を可能にすることでこの問題に対処し、計算時間とコストの両方を削減します。 ベンチマーク実験では、200量子ビットで100万のレイアウトを評価する場合、GPUでは1.2分、CPUでは11.7分かかりました。 2つのベンチマーク実験が実施されました: この共同研究では、Q-CTRLの量子エラー抑制におけるAI活用の先行研究を基に、レイアウトランキングにAI駆動技術を統合することも検討しました。例えば、Q-CTRLの「Learning to Rank」手法は、機械学習を使用してレイアウト選択を最適化し、回路の忠実度をさらに向上させます。将来の進展として、AIを活用したレイアウトランキングと高速レイアウト生成が含まれる可能性があり、これによりコンパイル時間の短縮とアルゴリズム性能の向上が期待されます。これらのイノベーションは、量子コンピューティングを数千量子ビットにスケールアップし、効率的なハードウェア対応コンパイルを可能にし、実用的な量子アプリケーションでのエラーを削減するために重要です。 2025年3月21日