あなたの好奇心を刺激する、テックと科学の総合ニュースサイト

量子コンピューティングは、これからの新たなテクノロジーとして、しばしば科学、工学、ビジネスにおける最も複雑で困難な問題を解決することが期待されている。IBMやGoogle、Microsoftなどの大手テクノロジー企業が数多く開発に参加し、今年も多くの技術的発展が紹介されたが、実際の所その夢は実現にどれだけ近づいているのだろうか?

IEEE Spectrumが詳細なレポートで紹介しているように、量子コンピュータの第一人者たちは最近、この技術の現状と見通しについて疑問と懸念を表明している。彼らは、量子コンピューターは実用化には程遠く、その応用は一般に考えられているよりも制限されていると主張しているのだ。

量子コンピュータについて回る誇大宣伝

量子コンピュータは、量子力学を使って古典的なコンピュータでは不可能な方法で情報を操作し、重ね合わせやもつれといった現象を利用して複数の計算を同時に行う。

このため、複雑なシステムの最適化、金融市場のモデル化、AIの強化といった問題を解決する可能性に注目が集まっている。量子コンピューティング企業は、古典的な最高のスーパーコンピューターを凌駕するマシンを間もなく提供すると主張している。

しかし、こうした主張に納得しているのは一部の人間だけだ。MetaのAI研究責任者であるYann LeCun氏は、有用な量子コンピューター構築の実現性に懐疑的だ。Amazon Web Servicesの量子ハードウェア責任者であるOskar Painter氏も、この業界には誇大広告が多く、楽観的なものと非現実的なものの選別が難しいと考えている。

量子エラー問題

量子コンピューターが直面している主な課題のひとつは、エラーの問題である。量子コンピュータはノイズや干渉の影響を非常に受けやすいため、量子情報の基本単位である量子ビットが量子状態を失い、誤った結果を出す可能性がある。このため、量子コンピュータは非常に信頼性が低く、エラーが発生しやすい。

一部の研究者は、NISQ(ノイズの多い中間量子)デバイスとも呼ばれるこのようなノイズの多い量子コンピューターが、サンプリング、最適化、機械学習などのタスクに役立つ可能性があると提案している。しかし、Painter氏は、これはあり得ないとし、信頼性が高くスケーラブルな量子コンピューティングを実現するには、量子エラー訂正を実装するのが唯一の方法だと述べている。

量子エラー訂正は、複数の物理量子ビットに情報をエンコードし、エラーに強い単一の論理量子ビットを作成するものだが、そのためには多くの物理量子ビットが必要となる。批評家たちは、それは不可能ではないかと主張している。Painter氏は、障害への耐久性が高い量子コンピュータを構築するためには不可欠だが、難しい問題であり、実現には10年はかかるだろうと考えている。

量子応用問題

量子コンピューターが直面しているもう一つの課題は、量子コンピューターで何ができるのかという問題である。量子コンピューティングは、応用範囲の狭さという課題に直面している。MicrosoftのテクニカルフェローであるMatthias Troyer氏は、『Communications of the ACM』誌に共著者として論文を発表し、過去10年間に提案された多くの量子アルゴリズムには欠陥があるか、実用的でないと述べている。その背景には、完全な量子メモリーや任意の量子ビットのペアに対する任意の演算といった非現実的な仮定がある。

また、量子コンピューターの主な利点はスピードではなく、古典的なコンピューターでは不可能な問題を解決できることだという。量子コンピュータは、古典的なコンピュータでは不可能な問題を解くことができる。量子アルゴリズムがスピードアップをもたらす唯一の領域は、大きな数の因数分解と量子システムのシミュレーションである。この2つの問題は量子的に難しく、古典コンピュータでは効率的に解くことができない。

線形代数や機械学習のような他の問題は量子的に簡単で、古典コンピュータでも量子コンピュータでも解くことができる。量子中位問題は存在せず、量子コンピュータでしか効率的に解くことができない。

彼は、量子コンピューティングは汎用技術ではなく、特定の問題を解決するニッチ技術であると結論づけた。これは量子コンピューティングの重要性を減じるものではなく、むしろその役割と可能性を明確にするものだという。

量子のリアリティチェック

Troyer氏の論文は、量子コンピューティングが最適化、薬剤設計、流体力学などの問題を解決する上で、より明確な優位性を必要とする可能性があることを示している。量子アルゴリズムの中には、2次関数的なスピードアップしか提供しないものもあり、量子コンピューティングの膨大な計算オーバーヘッドを相殺するには、もっと印象的なものにする必要があるかもしれない。

同氏によると、量子コンピュータは、量子ビットの操作が複雑なため、古典的なコンピュータよりもはるかに低速だという。より小さな問題であれば、古典的なコンピュータの方が常に高速であり、量子コンピュータが優位に立つポイントは、古典的アルゴリズムの複雑さがどれだけ早くスケールアップするかによって決まる。

同氏らは、NVIDIA A100 GPU1台と、1万個の論理量子ビットと高速ゲートタイムを備えた、将来想定される耐障害性量子コンピュータを比較した。その結果、2次関数的に高速化された量子アルゴリズムが、十分な規模の問題で古典的アルゴリズムを凌駕するには、数百年、あるいは千年単位で実行する必要があることが判明した。

彼はまた、量子コンピューティングのもうひとつの大きな障害であるデータ帯域幅についても指摘している。量子ビットの動作速度が遅いため、古典的なデータの送受信速度が制限されるのだ。

つまり、機械学習やデータベース検索のようなデータ集約型のアプリケーションは実用的ではないということだ。量子コンピュータが得意とするのは、データ量の少ない問題に限られる。Microsoftの顧客の多くは、量子コンピューティング・アプリケーションの明快さを高く評価している。金融やライフサイエンス分野では、量子コンピューティングチームを縮小・閉鎖した企業もある。

量子楽観論

限界はあるものの、専門家たちは量子コンピューティングを楽観視している。UTオースティンのコンピューターサイエンス教授、Scott Aaronson氏は、これらの課題は量子コンピューティングを追っている人なら誰でも知っているはずだと言う。量子コンピューティングが産業に革命を起こすという主張は常にあったが、懐疑的な見方は常に正当化されていた。実用化はまだ先だが、QuEraや280量子ビット・プロセッサを使って48個の論理量子ビットを生成したハーバード大学の実験のように、最近の進歩は希望を与えている。

QuEra社のYuval Boger最高マーケティング責任者(CMO)は、最近のラボでの実証実験によって、耐障害性量子コンピューティングのタイムラインを再考する人が出てきたと言う。この実験は、量子エラー訂正が可能であり、スケーラブルであることを示した。GPT-3のような大規模な言語モデルが自然言語処理やその他のタスクで目覚ましい成果を上げ、大きな注目と投資を受けていることもあり、AIへの関心が高まっているため、企業は静かに量子コンピューティングからリソースをシフトしている。

量子コンピューティングをめぐる誇大広告は、この分野への資金や人材の獲得に役立っている一方で、非現実的な期待や失望にもつながっている。量子コンピューティングは、忍耐と根気が必要な長期的ビジョンである。暗号や量子シミュレーションのような問題には独自の利点を提供し、新しいツールとして古典的コンピューティングを補完することができるが、ほとんどの問題で古典的コンピューティングに取って代わることはないだろう。


Source

Follow Me !

\ この記事が気に入ったら是非フォローを! /

Share on:

関連コンテンツ

コメントする