적어도 지난 15년 동안 양자 컴퓨팅은 암호화에서 의료, 금융, 인공지능에 이르기까지 세상의 모든 것을 혁신할 것이라 약속하며 차세대 메가톤급 기술로 과장되어 왔다. 양자 컴퓨팅의 실제 비즈니스 케이스는 얼마나 견고한가? 기술적 혁신의 측면에서 양자 컴퓨팅의 현 위치는 어디일까? 양자 컴퓨팅의 실제 약속이 이행되기까지 얼마나 더 기다려야 할까?
에드워드 텔러(Edward Teller)가 핵융합 기술의 세부 사항에 대해 개략적인 설명을 한지 약 80년이 지나서야 드디어, 로렌스 리버모어 국립 연구소(Lawrence Livermore National Laboratory)의 과학자들이 최근 성공적으로 통제되는 핵융합 실험을 발표했다. 이 실험에서 핵융합은 투입된 것보다 더 많은 에너지를 간신히 산출해냈다.
여기까지 오는 데 수십 년이 걸렸고 수십억 달러의 비용이 소요되었지만 이는 매우 중요한 이정표라 할 수 있다. 그러나 지금도 통제되는 핵융합을 활용하여 상업적으로 실행 가능한 전기 발전을 가능하게 하려면 20~30년의 시간이 더 필요하다.
더 중요한 것은 이 기술이 전면적으로 배치될 준비가 되는 시기에 이르면, 핵분열의 경제성이 확보되어, 일반 전기 경쟁 시장에서 핵융합 발전의 입지와 판매를 어렵게 만들 가능성이 크다.
이러한 핵융합 기술이 주는 이야기는 오늘날 가장 대담한 최첨단 기술인 양자 컴퓨팅에 대한 것과 유사하다. 양자 컴퓨팅은 핵융합 기술보다 가능성과 현실화에 대한 장벽이 더 높은 기술이라 할 수 있다. 인공지능이나 합성 생물학보다도 더 높다.
실제로 약 10년의 시간과 수십억 달러가 투입된 지금, 양자 컴퓨팅의 가능성과 문제점은 더욱 분명해지고 있다. 누군가는 이 경로를 통해 양자 컴퓨팅의 매력에 더 도취되었지만, 더 많은 누군가는 이 경험을 통해 정신이 번쩍 들었을 것이다.
지난 해, 양자 컴퓨팅 기술을 어떻게 상용화에 도달시킬 것인지에 대한 각종 주장들은 이제 최고조의 과장 광고에 도달한 것으로 보인다. 최종 사용자와 투자자들의 이야기를 들으면 이제 거대한 보상이 임박했다고 대부분 생각했을 것이다.
모두가 인정하는 바와 같이, 양자 컴퓨터에 대한 유용한 어플리케이션은 존재할 것이다. 아마도 가장 잘 알려진 것은 MIT의 응용 수학자 피터 쇼어(Peter Shor) 교수의 1994년의 이론적 증명이다. 양자 컴퓨터가 모든 고전적 접근 방식보다 기하급수적으로 더 빠르게 큰 수의 소인수를 찾는 어려운 문제를 해결할 수 있다는 것이다.
소인수 분해는 일반적으로 사용되는 RSA(Rivest Shamir Adleman) 암호화 체계를 부수는 핵심이다. RSA 암호화 체계는 공개키와 개인키를 세트로 만들어 암호화와 복호화를 하는 인터넷 암호화 및 인증 시스템의 하나이다. 이에 쇼어 교수의 인수분해 접근 방식은 즉시 모든 국가 정부들의 관심을 끌었고 이것이 양자 컴퓨팅에 대한 상당한 연구 자금으로 이어졌다.
하지만 한 가지 큰 문제가 있었다. 그것은 실제로 이를 수행할 수 있는 양자 컴퓨터를 구축하는 것이었다. 이를 위해서는 쇼우 교수와 다른 연구자들이 개척한 양자 오류 수정이라는 아이디어가 구현되어야 한다. 양자 오류 수정은 환경 노이즈로 인해 양자 상태가 빠르게 사라지는 사실을 보상하는 과정이다.
이러한 현상을 ‘결 잃음(decoherence)’이라고 한다. 1994년에 과학자들은 물리학이 이를 허용하기 때문에 해당 오류 수정이 쉬울 것이라 생각했다. 그러나 실제로 그것은 달성하기가 극도로 어렵다.
오늘날 가장 진보적인 양자 컴퓨터는 수십 개의 결 잃은 또는 노이즈(noisy)가 발생하는 물리적 큐비트를 갖추고 있다. 이 구성 요소로부터 RSA 코드를 해독할 수 있는 양자 컴퓨터를 구축하려면 수백만 또는 수십억 큐비트가 필요하다.
수만 개의 소위 논리 큐비트만 계산에 사용되고 나머지는 결 잃음을 보상하고 오류를 수정하는 데 필요하다. 이것이 무엇을 의미할까?
메릴랜드 대학교 양자 보안 전문가 산카르 다스 사르마(Sankar Das Sarma)에 따르면, 오늘날 실험실에서 보유한 큐비트 시스템으로 모두가 관심을 갖고 있는 양자 컴퓨터를 만드는 일은 ‘1900년대 초의 진공관을 사용하여 오늘날 최고 성능의 스마트폰을 만들려는 시도’보다 더 현실적으로 어려운 이야기다.
즉, 우리가 현재 100개의 튜브를 함께 연결할 수 있고, 이를 확장하여 어떻게든 100억 개의 튜브를 일관되고 원활한 방식으로 함께 작동하게 할 수 있다면, 어떤 기적이든 달성할 수 있는 원리를 세울 수 있을 것이다. 그러나 여기에서 빠진 것은 집적 회로와 스마트폰으로 이어지는 중앙처리장치라는 혁신이다.
트랜지스터의 발명과, 그 과정에서 새로운 물리학과 전혀 상관없는 스마트폰에 이르기까지 60년이라는 매우 어려운 엔지니어링 시간이 필요했다. 그러나 상업용 양자 컴퓨팅의 경우, 훨씬 더 많은 새로운 물리학적 발명을 필요로 한다.
예를 들어, 위상 양자 컴퓨팅으로 불리는 접근 방식으로 훨씬 더 안정적인 큐비트를 사용하여 양자 오류 수정을 우회하는 것이 여기에 포함된다. 마이크로소프트는 이러한 접근 방식을 연구 중이다. 그러나 위상 양자 컴퓨팅 하드웨어를 개발하는 것 또한 큰 도전이라는 것이 밝혀졌다.
따라서 광범위한 양자 오류 수정, 위상 양자 컴퓨팅, 이 두 가지 접근 방식 간의 하이브리드 또는 아직 상상하지 못한 다른 방식들 중 어떤 것이 최종 승자가 될 것인지 여부는 불분명하다.
이러한 경쟁이 그 자체로 진전되는 동안, ‘결 잃음’을 제거하는 데 있어 아주 큰 어려움은 일부 전문가들로 하여금 NISQ라는 기술을 고려하도록 만들었다. NISQ는 ‘노이즈가 있는 중규모 양자(Noisy intermediate-scale quantum)’ 컴퓨팅을 의미한다. 이 아이디어는 노이즈가 있는 물리 큐비트의 작은 컬렉션을 사용하여 기존 컴퓨터가 할 수 있는 것보다 더 유용하고 나은 작업을 수행하는 것이다.
그러나 산카르 다스 사르마는 다른 많은 사람들과 마찬가지로 이 개념이 기존 컴퓨터보다 실제 문제를 더 잘 해결할 수 있는 실제 기계로 이어질 것으로 확신하지 않는다. 그는 이 시스템에서 노이즈는 어느 정도인지, 얼마나 많은 큐비트가 관계되는지, 그리고 고안된 NISQ가 실제로 해결할 수 있는 가치 있는 문제가 무엇인지 알고 싶어 한다. 현재의 시점에서 그는 답이 ‘명확하지 않다’고 지적한다.
최근 발표된 일부 연구들을 보면 실제 솔루션과 오늘날 실험 사이에는 그 간극이 엄청나다는 것을 분명히 알 수 있다. 구글에서 진행된 실험실 연구는 ‘시간 결정(time crystals)’으로 불리는, 노이즈가 있는 20개의 초전도 큐비트를 사용하여 양자 역학의 일부 예측된 측면을 관찰했다.
이 실험은 전자 제어 기술의 인상적인 쇼케이스였지만 비슷한 수의 가상 큐비트로 ‘시간 결정’을 쉽게 시뮬레이션할 수 있는 기존 컴퓨터에 비해 컴퓨팅 상의 이점이 없음을 보여주었다.
또한 이것은 ‘시간 결정’의 기본 물리학에 대해 아무 것도 밝히지 못했다. 한편, 또 다른 NISQ 실험은 상업적 가치가 전혀 없는 고도로 전문화된 작업만을 다루었을 뿐이다.
따라서 다양한 양자 컴퓨팅 스타트업에서 나오는 NISQ의 꾸준한 선전에도 불구하고 상용화 가능성은 여전히 불분명한 상태다. NISQ가 빠른 최적화 또는 인공지능 교육에 어떻게 활용될 수 있는지에 대해서도 모호한 주장만 있을 뿐이다.
그러나 최적화 또는 인공지능 전문가 그 누구도 이것이 실제로 어떻게 작동하는지를 말해줄 수 없는 형편이다. 어떤 이들은 우리가 고전적 기계 학습과 인공지능이 실제로 어떻게 작동하는지 잘 이해하지 못하기 때문에 NISQ가 이 작업을 더 빨리 수행하는 것이 가능하다고 생각하는 것 같다. 이것은 사실일 수도 있다. 하지만 실제 과학이나 기술이라기보다는 보다는 희망과 가정, 즉 호피엄(HOPIUM)처럼 들린다.
이러한 NISQ에 대한 ‘호피엄’ 중독이 최적화 또는 암호화 혁신을 추구하는 사람들에게만 영향을 미치는 것이 아니다. 분자 구조를 빠르게 계산하는 방법으로 약물 설계에 소규모 양자 컴퓨터를 사용하자는 제안도 있다. 가능하긴 하다. 하지만 양자 화학은 전체 약물 설계 프로세스의 아주 작은 부분일 뿐이기에, 혁명적인 것으로 입증될 것 같지는 않다.
양자 역학 전문가들도 단시일 내에 양자컴퓨터가 금융산업에 도움이 될 것이라는 주장에 당황스러움을 느낀다. 어떤 기술 전문 저널도 NISQ 기계는 말할 것도 없고 소형 양자 컴퓨터가 다음과 같은 부문에 있어 중요한 최적화를 가져다 줄 것이라고 확신있게 말하지 못하고 있다.
- 알고리즘 거래
- 위험 평가
- 차익거래
- 헤지
- 자산 거래
- 위험 프로파일링
- 타겟팅 및 예측
그러나 이러한 비즈니스 관련 증거가 부족함에도 불구하고, 여러 투자 은행들은 양자 컴퓨팅이라는 마차에 편승하고 있다. 실제 양자 컴퓨터는 오늘날에는 결코 상상할 수 없는 어플리케이션을 갖추게 될 것이다. 하지만 이것도 수많은 혁신없이는 결코 실현되지 않을 것이다.
이 상황은 1947년에 첫 번째 트랜지스터가 만들어졌을 때 구체화된 상황과 매우 유사하다. 그 당시 어느 누구도 이것이 스마트폰이나 노트북으로 바뀔 것이라는 예측을 내릴 수 없었다.
투자자와 연구자들이 양자 컴퓨팅에 대한 열정과 희망을 담금질하는 것은 당연하다. 통제되는 핵융합과 마찬가지로 양자 컴퓨팅은 잠재적으로 파괴적 기술이기 때문이다. 그러나 서비스나 제품을 판매하는 실제 기업들에게 가까운 장래에 수십억 달러의 이익을 창출시키기 시작할 것이라고 누가 주장할 수 있을까? 이는 매우 당혹스러운 질문이다.
양자 컴퓨팅은 실제 물리학뿐만 아니라 모든 과학 분야에서 가장 중요한 발전 중 하나인 것은 분명하다. 하지만 ‘얽힘’과 ‘중첩’은 누군가가 갑자기 등장하여 가까운 미래에 기술을 변화시킬 것이라고 기대할 수 있는 영역이 결코 아니다.
양자 역학은 이상하고 직관에 어긋난다. 그래서 잠재력이 있다. 하지만 이 자체가 단시일 내에 수익과 이익을 보장하지는 않다는 점을 인지해야 한다.
이 기술이 언제 도입되어 수익성을 갖출 것인가? 현재로서는 아무도 모른다. 기술의 미래를 예측하는 것은 매우 어렵다. 현명한 예측가들은 ‘일어날 때 일어날 것’이라고 말한다.
최초의 수소폭탄 실험은 70년 전인 1952년에 이루어졌다. 당시, 통제되는 핵융합을 통한 전기 생산이 20년 후에 실현될 것으로 예상되었다. 하지만 이 예상은 현실과 달랐다. 오늘날을 기준으로 아직도 20년이 더 걸릴 수도 있고, 그 이상 더 오래 걸릴 수도 있다.
통제되는 핵융합, 인공 지능, 양자 컴퓨팅은 모두 산업을 극적으로 변화시킬 것이다. 그러나 이것들이 예정대로 예상한 시기에 도래할 것이라고 기대하면서 매우 큰 실망감을 맛볼 수 있다. 이에 우리는 향후 양자 컴퓨팅에 대해 다음과 같이 예측한다.
첫째, 2032년 이전까지 세계는 양자 컴퓨팅 기술의 혜택을 거의 보지 못할 것이다.
군사용 어플리케이션과 금융 네트워크를 위한 양자 키 배포는 해당 기간 내 이뤄질 수 있지만, 그 밖의 다른 상용 양자 컴퓨팅 어플리케이션은 향후 20년 이내 배포될 가능성이 낮다.
둘째, 양자컴퓨팅은 2027년경 환멸과 절망의 골을 겪을 것이다.
역사적으로 거의 모든 기술 기반 혁신의 채택은, 가트너 그룹(Gartner Group)이 개발한 고전적인 ‘하이프 사이클’ 모델을 따른다는 것을 보여주었다. 대략 15년 전 애널리스트들의 레이더망에 등장한 이후, 양자 컴퓨팅을 둘러싼 관심과 흥분은 거의 최고조에 이르렀지만, 가시적인 결과는 거의 없다.
이러한 단절로 인해 벤처 자본가, 전문가, 일반 대중 등 많은 사람들로부터 양자 컴퓨팅은 신뢰를 잃을 것이 분명하다. 이에 양자 컴퓨팅과 관계된 스타트업과 기업의 연구 노력은 축소되거나 폐쇄될 수 있다. 하지만 분명한 것은 상용화를 향한 기나긴 슬럼프가 계속 지속될지라도, 결국 양자 컴퓨팅은 값진 결실을 맺을 것이라는 사실이다.
셋째, 암호화 및 통신 이외 광범위한 상용 어플리케이션이 등장하는데 수십 년이 더 소요될 것이다.
이미 입증된 바와 같이, 양자 컴퓨팅의 경우, 해당 하드웨어를 구축하고 운영하는 것이 매우 어렵다. 또한 유용한 알고리즘을 공식화하는 것은 특히 더 어렵다. 이에 양자 컴퓨터의 양자 우위가 막대한 가치를 창출하고 ‘1세대 기계’로 달성할 수 있는 애플리케이션이 무엇인지를 찾는 것이 우선순위가 될 것이다.
또한 현재의 고전적 방식의 컴퓨터도 실제로 대부분의 문제를 해결할 수 있다. 양자 컴퓨터만이 해결할 수 있는 문제는 가까운 미래에는 도저히 만들 수 없는 기계를 필요로 할 것이다.
Resource List
1. MIT Technology Review. March 8, 2022. Sankar Das Sarma. Quantum computing has a hype problem.
3. TechRepublic.com. October 20, 2021. Veronica Combs. Quantum reality check: Gartner expects more 10 years of hype but CIOs should start finding use cases now.
Hope, Hype and Realism on the Quantum Computing Frontier
By Global Trends Editor Group
Finally, almost 80 years after Edward Teller sketched out the details of nuclear fusion technology, scientists at Lawrence Livermore National Laboratory recently announced a successful controlled nuclear fusion experiment that barely yielded more energy than it consumed.
This was an important milestone on a path that has taken many decades and cost many billions of dollars. But even now, it is likely that we are still two or three decades away from commercially viable electrical generation using controlled nuclear fusion.
And importantly, by the time this technology is ready for full-scale deployment, the economics of nuclear fission will make fusion power a tough sell in a competitive marketplace for run-of-the-mill electricity.
This cautionary tale is relevant to how we think about today’s most daring and cutting-edge technology: quantum computing.
Unlike controlled fusion, which was already seen as a marginally high-risk technology in 2023, our book Ride the Wave treated quantum computing as a medium-risk reality, much like artificial intelligence or synthetic biology.
Ten years and billions of dollars later, the promise and problems of quantum computing have become more obvious. For some, the intervening years have only made the allure of quantum computing more intoxicating. But for many others, this experience has been quite sobering.
Let’s consider where we stand and what this portends for investors, users, and policymakers.
In the past year, quantum computing seems to have reached “peak hype,” particularly when it comes to claims about how it will be commercialized. To hear end-users and investors talk, you’d think big payoffs are just around the corner.
And admittedly, useful applications for quantum computers do exist. Perhaps the best-known is Peter Shor’s 1994 theoretical demonstration that a quantum computer can solve the hard problem of finding the prime factors of large numbers exponentially faster than all classical approaches.
Prime factorization is at the heart of breaking the universally used RSA cryptography scheme. That’s why Shor’s factorization approach immediately attracted the attention of national governments everywhere, leading to considerable quantum-computing research funding.
But there was just one big problem: actually, building a quantum computer that could do this. That requires implementing an idea pioneered by Shor and others called quantum-error correction; that’s a process which compensates for the fact that quantum states disappear quickly because of environmental noise.
That phenomenon is called “decoherence.” Back in 1994, scientists thought that such error correction would be easy because physics allows it. But in practice, it is extremely difficult to achieve.
The most advanced quantum computers today have dozens of decohering (or “noisy”) physical qubits. Building a quantum computer that could crack RSA codes out of such components would require millions, or perhaps billions, of qubits.
Only tens of thousands of so-called logical qubits would be used for computation; the rest would be needed for error correction, compensating for decoherence.
What does this mean? According to quantum researcher, Sankar Das Sarma, the qubit systems we have in today’s laboratories bring us no closer to having a quantum computer that can solve problems that anybody cares about than “trying to make today’s best smartphones using vacuum tubes from the early 1900s.
You can put 100 tubes together and establish the principle that if you could somehow get 10 billion of them to work together in a coherent, seamless manner, you could achieve all kinds of miracles. What, however, is missing is the breakthrough of integrated circuits and CPUs leading to smartphones.
It took 60 years of very difficult engineering to go from the invention of transistors to the smartphone with no new physics involved in the process.” In the case of commercial quantum computing, we’re talking about inventing lots of new physics.
For instance, this might involve bypassing quantum error correction by using far-more-stable qubits, in an approach called topological quantum computing. Microsoft is working on this approach. But it turns out that developing topological quantum-computing hardware is also a huge challenge.
So, what is unclear is whether extensive quantum error correction, topological quantum computing, a hybrid between those two approaches, or something else, yet unimagined, will be the eventual winner.
While this competition sorts itself out, the great difficulty in getting rid of decoherence is leading some experts to consider a technology called NISQ. NISQ stands for “noisy intermediate scale quantum” computing. This idea, discussed previously in Trends, uses small collections of noisy physical qubits to do something useful and better than a classical computer can.
However, Sankar Das Sarma like many others isn’t sure this concept will lead to real machines that can solve real problems better than classical computers. He wants to know: How noisy are these systems? How many qubits are involved? And what worthy problems can the proposed NISQ machines actually solve? At this point, he indicates that the answers are “far from clear.”
Looking at some of the recently published research, makes clear that the gulf between real solutions and today’s experiments is enormous. A recent laboratory experiment at Google has observed some predicted aspects of quantum dynamics using 20 noisy superconducting qubits, dubbed “time crystals.”
The experiment was an impressive showcase of electronic control techniques, but it showed no computing advantage over conventional computers, which can readily simulate time crystals with a similar number of virtual qubits.
It also did not reveal anything about the fundamental physics of time crystals. Meanwhile, other documented NISQ experiments addressed highly specialized tasks which were of no commercial value, whatsoever.
So, despite a constant drumbeat of NISQ-hype coming from various quantum computing startups, the commercialization potential is far from clear. There are vague claims about how NISQ could be used for fast optimization or even for AI training.
However, no expert in optimization or AI can tell us how this might actually work. Some seem to think that since we do not quite understand how classical machine learning and AI really work, it is possible that NISQ could do this even faster. Maybe that’s true, but this sounds more like “HOPIUM” than real science or technology.
Notably, this NISQ-based “Hopium addiction” is not only impacting those pursuing optimization or cryptography breakthroughs. There are also proposals to use small-scale quantum computers for drug design, as a way to quickly calculate molecular structure. While this is possible, it seems unlikely to prove revolutionary since quantum chemistry represents a minuscule portion of the whole drug design process.
Experts in quantum mechanics are also perplexed by claims that near-term quantum computers will help in finance.
No technical papers convincingly demonstrate that small quantum computers, let alone NISQ machines, can lead to significant optimization in
- algorithmic trading,
- risk evaluation,
- arbitrage,
- hedging,
- asset trading,
- risk profiling or
- targeting and prediction.
However, this lack of business-related evidence has not prevented several investment banks from jumping on the quantum-computing bandwagon. It reminds the Trends editors of the green obsession with wind and solar energy, where all “profits” have only come from a combination of tax credits and Chinese dumping.
Obviously, a real quantum computer will have applications unimaginable today, but they aren’t going to materialize without a lot of breakthroughs. Think of this situation as being much like the one that materialized when the first transistor was made in 1947; nobody could foresee how to turn it into a smartphone or a laptop.
Therefore, it makes sense for investors and researchers to temper their enthusiasm and hope. That’s because, like controlled nuclear fusion, quantum computing is a potentially disruptive technology. But how anyone can claim that it will start producing billions of dollars of profit for real companies selling services or products in the near future, is very perplexing.
Those who invest and manage as if that is going to happen, need to explain how it will happen. Quantum computing is indeed one of the most important developments not only in physics, but in all of science. However, “entanglement” and “superposition” are not magic wands that someone can wave and expect to transform technology in the near future.
Furthermore, people need to recognize that while quantum mechanics is weird and counterintuitive, that by itself does not guarantee revenue and profits.
When will this technology arrive and enhance profitability? Nobody knows. Predicting the future of technology is very difficult. Smart prognosticators agree, “it happens when it happens.”
Analogies may help make this point. The first hydrogen bomb test occurred 70 years ago in 1952. At the time, electricity from controlled fusion was expected to be 20 years away. Today, it may still be 20 years away. Or it may take longer.
Controlled fusion, general artificial intelligence and quantum computing will all transform industries when they arrive. But those who build their world around expecting them to arrive on schedule are likely to be very disappointed.
Given this trend, we offer the following forecasts for your consideration.
First, before 2032, the world will see few, if any benefits from quantum computing technology.
Quantum key distribution for military applications and financial networks may be deployed in that time frame, but other commercial quantum computing applications are unlikely within the next two decades.
Second, quantum computing will go through a trough of disillusionment and despair around 2027.
History has shown that adoption of almost every technology-based innovation follows the classic “hype-cycle” model develop by the Gartner Group. After emerging on analysts’ radar roughly 15 years ago, the excitement surrounding quantum computing has risen to a crescendo, even though tangible results are few and far between.
Because of this disconnect, it’s inevitable that venture capitalists, pundits and many in the general public will lose faith. Start-ups and corporate research efforts will be scaled back or shuttered. However, the long slog toward commercialization will continue and eventually bear fruit. And,
Third, widespread commercial applications outside cryptography and communications will take decades to emerge.
Not only is the hardware proving exceedingly hard to build and operate, but useful algorithms are proving especially hard to formulate. In contrast, early mainframes succeeded because many batch transaction jobs were high value.
For quantum computers, finding applications where quantum dominance creates huge value and can be achieved with “first generation machines” will be key. At present, classical computers can solve most problems that really make a difference, and those problems that only quantum computers can solve will require machines that can’t be built in the foreseeable future.”
Resource List
1. MIT Technology Review. March 8, 2022. Sankar Das Sarma. Quantum computing has a hype problem.
3. TechRepublic.com. October 20, 2021. Veronica Combs. Quantum reality check: Gartner expects more 10 years of hype but CIOs should start finding use cases now.