米国の量子コンピュータスタートアップのQuEra Computingは、2024年末までに「論理量子ビット」を搭載した世界初の商用フォールトトレラント量子コンピューターを稼働させる計画と共に、2026年までに1万量子ビットを実現した量子コンピュータを開発するという野心的な計画を発表した。
論理量子ビットとは、量子もつれによって接続された物理的な量子ビット(量子ビット)のことで、同じデータを異なる場所に保存することで、量子コンピューターのエラーを減らすことができる。これにより、計算を実行する際の失敗のポイントが分散される。
QuEraによれば、256個の物理量子ビットと10個の論理量子ビットを持つこの新しいマシンは、2024年後半にリリースされる予定とのことだ。
この発表は、2023年12月6日に科学誌『Nature』に掲載された新しい研究に続くものだ。Natureへの発表は、ハーバード大学、、MIT、QuEra、その他いくつかの機関の研究者らが、これまでにテストされた最大数の論理量子ビットである48個の論理量子ビットを含む機能する量子コンピューターを実証している。
量子コンピューターは、理論的には現在の最先端のスーパーコンピューターを一気に時代遅れにさせてしまう可能性を持った夢のコンピュータだ。しかしその開発において重要な要素である、量子コンピューターのエラー率が高いという問題をまだ解決できていない。シリコンベースのコンピューターが10億ビットに1ビットの割合でエラーを起こすのに対し、量子コンピューターは使用する量子ビット(qubits)1,000個に1個の割合でエラーを起こす可能性があるのだ。
これは量子コンピュータのデータ記憶装置である量子ビットの性質によるものだ。一度に0か1になる従来のビットとは異なり、量子ビットは重ね合わせ状態で存在することができ、同時に0と1の値を占めることができる。これにより、より大規模な計算が可能になる反面、エラーが発生しやすいため、実世界のシナリオでの採用には限界がある。
量子コンピューティングにおけるエラーの削減
QuEraのような研究機関や企業は、量子もつれのような量子特性を利用することで、エラーの発生しやすい計算を減らすアプローチに取り組んでいる。
また、論理量子ビットを使用するアプローチもあり、通常の量子ビットにエラー訂正コードを適用することで、エラー発生の可能性を検証し、エラーを訂正してから計算を進める。
GoogleのQuantum AI Labはこの方法で2.9%のエラー率を実証し、オックスフォード大学は0.01%以下のエラー率を達成した。しかし、オックスフォード大学は2量子ビットのゲートを使っただけであり、このレベルでは量子コンピューターが市場に出回るには少なすぎる。
一方、QuEraは48個の論理量子ビットを持つ量子コンピュータを実証し、エラー率も0.5%に抑えている。これは、量子コンピューターで一度にテストされた最大の論理量子ビット数でもある。
QuEra社は最近のプレスリリースの中で、近々構築する予定のフォールトトレラント量子コンピューターのロードマップを発表した。
同社は今年後半、256個の物理量子ビットと10個の論理量子ビットを搭載した量子コンピューターを発表する予定だ。このコンピューターは、意味のある結果を得るための量子計算を行うようには設計されていないが、エラー訂正機能を備えた最初のコンピューターとなる。このコンピューターの主な目的は、ソフトウェア・プログラマーが将来の量子コンピューター用のコードをテストできるプラットフォームを提供することである。
同社は2025年に、30個の論理量子ビットを持つ3000量子ビットの量子コンピューターを発表したいと考えているが、これは翌年のメインターゲットに向けた布石となる。
2026年、QuEra社は100論理量子ビットを持つ1万物理量子ビットの量子コンピューターを発表したいと考えている。同社は、このマシンがエラーなしで計算できるだけでなく、現在のスーパーコンピューターの能力を凌駕すると確信している。
このような野心的な目標を掲げているのはQuEra社だけではない。IBMも昨年、127量子ビットのHeronチップでエラー訂正技術を実証した。しかし、その商業的発売は2029年と予想されている。
Sources
コメントを残す