De omvang van kwantumcomputers is nog klein.  • register

De omvang van kwantumcomputers is nog klein. • register

systeemtoegang Toen ik de field CTO van VMware in Azië-Pacific en Japan was, verwachtten veel van mijn collega’s dat ik iets wist over alles op het gebied van technologie, en het was soms moeilijk om te zeggen “ik weet het niet”.

Dus toen iemand me in 2018 vroeg om quantumcomputing uit te leggen, probeerde ik het en verpestte de uitleg volledig. Ik had het zelfs over het parallel proberen van veel oplossingen, gebruikmakend van de kwantumeigenschappen in de superpositie van meerdere toestanden. Als je één ding weet over kwantummechanica, dan is het hoogstwaarschijnlijk Schrödinger’s kattengedachte-experiment, dat ervan uitgaat dat de kat zich in twee toestanden (levend en dood) tegelijkertijd bevindt. Nou, het blijkt dat dat genoeg is om een ​​behoorlijk slechte verklaring voor kwantumcomputing te genereren.

Het grootste deel van mijn begrip van kwantumcomputing komt van Scott Aaronson in zijn blog en collegeaantekeningen. Helemaal bovenaan zijn blog staat een regel die vanaf de eerste keer dat ik hem las in mijn geheugen gegrift staat. “Kwantumcomputers lossen moeilijke problemen niet meteen op door alle oplossingen parallel uit te proberen.

Quantum suprematie kan al dan niet een groot probleem zijn.

Hoe dan ook, na het mislukken van mijn eerste poging om het uit te leggen, besloot ik wat dieper in te gaan op kwantumcomputing, wat uiteindelijk zeer actueel was. De eerste beweringen van ‘kwantum suprematie’ kwamen het jaar daarop naar buiten en ik wilde meteen begrijpen of dit een groot probleem was. (Zoals het geval is met velen in het veld, kan dat al dan niet een groot probleem zijn.) Van het een kwam het ander en ik kreeg voldoende kennis om een ​​paar lezingen over kwantumcomputing en de praktische dingen van kwantumcomputing te proberen. schade. Het is echt moeilijk om een ​​intuïtief gevoel te krijgen voor kwantumcomputing, maar deze lezing vertegenwoordigt onze beste inspanningen om die intuïtie te bieden.

Vorige week zag ik Aaronsons post over zijn ervaringen op de Solvay Conference on Physics. Het thema van dit jaar is “The Physics of Quantum Information”. Misschien wel de meest bekende Solvay-conferentie was de vijfde, die in 1927 werd gehouden. Op deze conferentie werd de kwantumtheorie onthuld door een verbazingwekkende lijst van aanwezigen, waaronder Einstein, Marie Curie, Bohr, Schrödinger en 12 andere Nobelprijswinnaars.

De Solvay-conferentie zou de grootste affiche kunnen zijn voor het belang van interdisciplinair onderzoek. Dit jaar wisselden computerwetenschappers van gedachten met deeltjesfysici. Het bouwen van een praktische kwantumcomputer en uitzoeken wat echt goed is, is nog steeds veel werk en vereist uitgebreide expertise om vooruit te komen.

Ik schreef dit bericht echter geïnspireerd door de suggestie van Aaronson dat er een “wet van behoud van vreemdheid” is. Het is meer een hypothese dan een wet, maar het vormt de kern van wat veel onderzoekers proberen te begrijpen over kwantumcomputers. Wanneer zal kwantumcomputing een significante (d.w.z. hyperpolynomiale) versnelling opleveren ten opzichte van klassieke algoritmen? Hier is de gok van Scott: Om een ​​kwantumalgoritme effectief te laten zijn, moet er iets “vreemds” aan het probleem zijn. Wat tot op de dag van vandaag onopgelost blijft, is de exacte aard van zijn bizarheid. Maar over het algemeen heeft het probleem een ​​soort structuur die het geschikt maakt voor kwantumversnelling.

Het meest bekende (en mogelijk het meest praktisch belangrijke) probleem dat ons niet-natuurkundigen een passend niveau van “vreemdheid” biedt om te profiteren van kwantumalgoritmen, is factorisatie. Het vinden van de priemfactoren van een geheel getal is geen kwestie van willekeurig verschillende antwoorden proberen totdat je een antwoord tegenkomt dat werkt. Er zijn veel structuren voor het probleem die het mogelijk maken om efficiënte kwantumalgoritmen te vinden. Dat is wat het algoritme van Shor doet, en een deel van het algoritme van Shor is toevallig inefficiënt in klassieke computers, maar echt efficiënt in kwantumcomputers.

(Dit wordt de kwantum Fourier-transformatie genoemd, en als je een beetje intuïtie wilt over hoe het werkt, heeft Aaronson het opnieuw behandeld.)

Er is geen reden tot paniek, want we zullen moeten wachten tot kwantumcomputers groot genoeg en betrouwbaar zijn om deze algoritmen te kraken, maar we zijn het erover eens dat we uiteindelijk nieuwe algoritmen nodig hebben.

Waarom is dit probleem en het algoritme van Shor belangrijk? Welnu, veel van de cryptografie gaat uit van de moeilijkheid om priemfactoren van grote getallen te vinden en is gebaseerd op verschillende rekenkundig moeilijke operaties. Er wordt aangenomen dat RSA en gerelateerde openbare-sleutelalgoritmen binnen 10 tot 20 jaar verouderd zullen zijn en gevaar lopen.

Dit komt omdat de moeilijke taak om de privésleutel te bepalen die de openbare sleutel is, afhankelijk is van de hardheid van het ontbinden van grote getallen (of vergelijkbare dure berekeningen). Als kwantumcomputers blijven verbeteren in termen van het aantal en de stabiliteit van kwantumbits (qubits) zoals ze de afgelopen jaren hebben gedaan, lijkt het slechts een kwestie van tijd voordat deze algoritmen veiliger zullen zijn.

Ik zou zeggen dat er geen reden tot paniek is omdat we moeten wachten tot kwantumcomputers groot genoeg en betrouwbaar zijn om deze algoritmen te kraken, maar consensus heeft uiteindelijk nieuwe algoritmen nodig en tegen de tijd dat we erachter komen, zal het te laat zijn als oude algoritmen zijn kapot. . Dus een verstandige keuze zou zijn om vooruit te plannen voor “cryptografische behendigheid”, d.w.z. de mogelijkheid om algoritmen te ruilen voor nieuwe die niet kwetsbaar zijn voor kwantumoplossingen.

NIST voert het proces al enkele jaren uit om geschikte kandidaten voor post-kwantumcryptografie (PQC) te identificeren.

Wat in dit verband vooral interessant is, is dat experts in het veld nog uitzoeken wat voor soort problemen geschikt zijn voor kwantumoplossingen. Dit is de essentie van de “wet van behoud van eigenaardigheid”. Slechts een kleine subset van problemen die klassiek moeilijk op te lossen zijn, kan gemakkelijk worden opgelost door kwantumalgoritmen. Wat PQC nodig heeft, is een algoritme zonder een efficiënte kwantum (of klassieke) oplossing. Je kunt zeggen: “Ik heb geen efficiënte kwantumoplossing gevonden” voor je probleem, maar het is moeilijker om te zeggen dat zo’n oplossing niet bestaat. Het benadrukt in ieder geval de noodzaak om wendbaar te zijn bij het kiezen van een versleutelingsalgoritme in de toekomst.

Ten slotte lijkt er een “irrationeel overmatig gebruik” te zijn van het vermogen van kwantumcomputers om allerlei problemen op te lossen op gebieden zoals machine learning en financiële markten. Het is waar dat er iets vreemds aan de hand is met beide gebieden, maar ik denk niet dat Aaronson dat bedoelt. Mijn afhaalmaaltijden van zijn Solvay-presentatie [PPT] Zelfs als het laatste onderzoek probeert te bepalen wat een probleem geschikt maakt voor kwantumcomputing, is het probleem voor een efficiënte kwantumoplossing nog steeds klein. ®

Leave a Comment

Your email address will not be published.