Daniel Karmann/picture alliance via Getty Images

Criptografie #3: În criptografie, viitorul cuantic a și trecut29 min read

De Adrian Manea 10.03.2025

Puterea de calcul a computerelor cuantice este inegalabilă, dar mulțumită criptării post cuantice, parolele și bazele de date sunt în siguranță. Teoretic.

Să vorbești despre fenomene cuantice pare simultan futurist și învechit. Teoria care a înlocuit fizica newtoniană are mai bine de un secol, dar mulți cercetători, inclusiv laureați ai premiului Nobel, recunosc că se înțelege încă foarte puțin cum funcționează fizica cuantică la nivel fundamental, cu atât mai puțin aplicațiile ei în diverse domenii inginerești.

Computerelor cuantice, de exemplu, propun modificări radicale în arhitectura dispozitivelor care ne-au schimbat complet în doar câteva decenii. Ai putea crede că este o evoluție naturală sau o simplă actualizare a metodelor clasice pentru a ține pasul cu cercetările în domenii de bază ale științelor naturii. În fapt, este vorba și despre o dependență reciprocă.

În 1980, matematicianul rus Yuri Manin (1937-2023), unul dintre primii cercetători care au propus însăși ideea de computer cuantic, scria în cartea Calculabil și necalculabil că „apare un cost exponențial în simularea unor sisteme de mai multe particule, chiar cu un număr mic de părți componente, pe un calculator clasic.“ Într-un fel, problema ridicată de Manin seamănă cu sarcinile inteligenței artificiale de astăzi: se impune controlul asupra unui număr de parametri extraordinar de mare ca să poți extrage informații coerente. 

Un an mai târziu, fizicianul american Richard P. Feynman (1918-1988), laureat Nobel în 1965 pentru o teorie care completează cu noțiuni cuantice studiul mișcării particulelor încărcate, precum electronii, conferenția despre simulări computerizate. În prezentare, publicată ulterior și sub forma unui articol,// „Simulating Physics with Computers”, s2.smu.edu // Feynman insistă asupra ideii că, din moment ce natura funcționează pe principii cuantice, e imposibil de simulat cu precizie cu ajutorul metodelor clasice.

Computere cuantice: teorie, implementare și incertitudine

Fără teoria informației și mașinile Turing, nu s-ar fi putut vorbi despre niciun fel de computer cuantic. Tot la începutul anilor 1980, fizicianul american Paul Benioff (1930-2022) a propus un model al mașinilor Turing care să funcționeze pe baza ecuației Schrödinger, esențială în descrierea comportamentului cuantic. Acesta și-a prezentat ideea la aceeași conferință ca Feynman, iar cei doi au colaborat ulterior la construirea unui model teoretic menit să rezolve chiar problema ridicată de acesta din urmă. 

În 1982, după modificări aduse de Benioff teoriei mașinilor Turing cuantice, Feynman propune un simulator cuantic universal: un sistem programabil, ca un computer, care ar putea simula comportamentul ansamblurilor fizice subatomice.

Cercetările au rămas exclusiv la nivel teoretic încă aproape douăzeci de ani, iar în 1998, devin funcționale două computere cuantice bazate pe fenomenul de rezonanță magnetică nucleară (RMN, același folosit astăzi în imagistică medicală): la Universitatea Oxford și la Centrul de Cercetare al IBM din California. Ambele foloseau doar doi qubiți, dar a fost suficient pentru a demonstra experimental o problemă imposibilă unui computer clasic: algoritmul Deutsch-Jozsa, denumit după David Deutsch și Richard Jozsa, care au propus-o în 1992, arătând că niciun computer clasic nu l-ar putea rula suficient de rapid.

Am discutat cu Dr. Marius Paraschiv, fizician, Senior Researcher și coordonator al Grupului de Teorie a Informației Cuantice la IMDEA Networks din Madrid, care a explicat principalele diferențe dintre computerele clasice și cele cuantice, atât în ce privește arhitectura, cât și implementarea.

Funcționarea unui computer clasic se bazează pe electronică digitală – circuite integrate complicate și miniaturizate la nivel de nanometri conduc electroni în semiconductori ca siliciul. Algoritmii și calculele de care sunt capabile computerele se datorează porților logice, implementate prin tranzistori și pentru care sunt suficiente doar două semnale: 0 (închis) și 1 (deschis). De aceea, computerele clasice funcționează, la nivel fundamental, în sistem binar.

„Revoluția cuantică din anii 1900 a însemnat, în primul rând, renunțarea la determinism, la măsurători, la exactitate, în favoarea probabilităților. Principiul de incertitudine al lui Heisenberg și postulatul măsurătorii sunt doar două dintre cele mai cunoscute rezultate teoretice care arată că nu putem ști despre particule subatomice decât probabilități ca ele să se afle într-un anume punct din spațiu sau într-o anumită stare fizică. Astfel că un computer cuantic nu ar avea cum să funcționeze binar, pentru că înseși stările 0 și 1 ar fi incerte.“, explică Paraschiv. 

Așa au apărut qubiții:// Cuvânt inventat, provenit din quantum bits // unități de informație cuantică, a căror stare nu poate fi cunoscută decât probabilistic și care oscilează între 0 și 1, cu toate valorile intermediare. „În consecință, logica binară, bazată pe falsitate și adevăr, modelate clasic de biții 0, respectiv 1, se înlocuiește cu un spectru de probabilități, între 0 și 1 inclusiv“, conchide el. „Computerul cuantic nu mai are certitudini, ci nuanțe.“

Odată făcute aceste descoperiri și construite calculatoare pe baza lor, de ce nu a evoluat tehnologia cuantică la fel de rapid ca altele? Motivele sunt multiple, atât la nivel material, cât și teoretic. „Ca să ai un computer cuantic funcțional, trebuie să dispui de dotări la nivelul cel mai înalt, să construiești, practic, un laborator de nivelul celor de la CERN în jurul lui, în unele cazuri. Efectele cuantice folosite în aceste computere se pot obține prin mai multe tehnologii. Superconductorii sunt modelul cel mai popular și necesită temperaturi aproape de 0 absolut (-273,15 grade Celsius). O altă metodă, bazată pe ionizare, cere „doar“ aproximativ -200 grade Celsius, temperatură ce se poate atinge cu azot lichid. Și mai sunt computerele fotonice: pot funcționa la temperatura camerei, dar au cu totul alte probleme greu de rezolvat, precum stabilitatea“, spune Marius Paraschiv. 

Tocmai din cauza naturii probabilistice a lumii subatomice, fenomene ca zgomotul (interferențe nedorite) și erorile de transmitere și procesare sunt adesea imposibil de controlat. Qubiții afectați de aceste probleme pur și simplu nu-și mai fac treaba, adică își pierd proprietăți cuantice esențiale, ca superpoziția și entanglementul.

„Am mai putea vorbi și despre computere cuantice topologice, care folosesc particule speciale, care se grupează și se comportă unitar, numite anioni, și care înlocuiesc complet ideea de porți logice cu niște împletituri (braids) în spațiu-timp. E drept că ele ar rezolva mare parte a instabilității și erorilor, dar anionii respectivi au fost observați doar în două dimensiuni, așa că trebuie să se creeze straturi, conectate de împletiturile de care ziceam. Țesem, practic, foi de particule cu fire de spațiu-timp, ceea ce implică mult prea multe restricții și necunoscute ca să putem vorbi mai aplicat de această arhitectură.“, adaugă fizicianul. „Până în prezent, doar Microsoft și-a arătat interesul în această direcție. Sigur, e vorba și de multe secrete în prima linie a cercetării și prototipurilor, dar după toate analizele, computerele cuantice topologice nu își au locul într-o discuție practică – cel puțin deocamdată.“

La câteva zile după discuția cu dr. Paraschiv, Microsoft a anunțat// „Microsoft unveils Majorana 1, the world’s first quantum processor powered by topological qubits”, azure.microsoft.com // lansarea Majorana 1: primul procesor care folosește un qubit topologic, denumit după fizicianul italian Ettore Majorana, unul dintre cei mai importanți cercetători ai neutrinilor. Rămâne de văzut dacă această nouă arhitectură va fi preluată și de ceilalți concurenți din piață sau va rămîne o demonstrație de forță de tip proof of concept, dar faptul că investițiile în cercetare și încrederea în acest model, chiar ca singur susținător, oferă celor din Redmond un avans important.

Amenințări de securitate pe care le aduc computerele cuantice

Cercetările teoretice pare că duc o viață independentă de cele experimentale, chiar și când e vorba de implementări ale rezultatelor proprii. În cei aproape douăzeci de ani dintre ideile lui Feynman și Benioff și implementările de la Oxford și IBM, descoperirile teoretice privitoare la computere cuantice au dat de lucru pentru câteva secole.

În plus, odată ce puterea de calcul mult superioară celei clasice a fost confirmată de algoritmul Deutsch-Jozsa cuantic, aplicațiile în simulări fizice au fost completate de cele în criptografie și securitate. Mai mult, prima mențiune a fenomenelor cuantice utilizabile pentru sisteme informatice apăruse încă din 1968. Stephen Wiesner propusese metoda codificării conjugate, care transmite mai multe mesaje și, de îndată ce unul este citit (de către destinatar sau un potențial atacator), celelalte se autodistrug. Metoda se bazează pe un fenomen cuantic specific și implică transmiterea informației prin fotoni, sub formă de qubiți.

Criptarea conjugată a lui Wiesner era mai mult un proof of concept, cu aplicabilitate redusă. Dar în 1984, Charles Bennett și Gilles Brassard îi continuă cercetările și ajung la o procedură utilizată și astăzi: schimbul de chei. Introdusă în model clasic de Whitfield Diffie și Martin Hellman în 1976, procedura a pornit domeniul criptografiei cu chei publice. Algoritmii de criptare nu mai trebuie păstrați secret, căci securitatea se datorează exclusiv dificultății matematice: criptarea se face eficient, dar decriptarea necesită putere de calcul inexistentă. Prin Bennett și Brassard, schimbul de chei de tip Diffie-Hellman primește un upgrade cuantic.

Probabil cel mai cunoscut rezultat din criptografia cuantică îi aparține lui Peter Shor. În 1994, la doar doi ani după apariția primelor computere cuantice funcționale, Shor arată că ele aduc o nouă epocă a securității informatice. Algoritmul lui Shor „sparge“ cei mai siguri și, totodată, cei mai utilizați algoritmi de criptare clasici, Diffie-Hellman și RSA, într-un timp incomparabil mai mic. Scăderea era, practic, de la triliarde de ani la câteva secunde. Problema? Implementarea lui. 

Eficiența algoritmului Shor apare doar pe computere cu milioane de qubiți, în timp ce momentan se poate spera// „IBM will release the largest ever quantum computer in 2025”, newscientist.com // la abia câteva mii. În plus, o arhitectură atât de complexă aduce probleme fizice aproape imposibil de eliminat, precum zgomotul.

La nivelul securității informatice, așadar, amenințarea cuantică este una distantă, dar e adevărat că și computere cuantice mai puțin performante decât cele de la IBM pot învinge sisteme de criptare care sunt imbatabile în moduri clasice. Puterea de calcul este, pur și simplu, incomparabilă, lucru înțeles chiar de la început. Și cu numai doi qubiți îmbunătățirea este exponențială: de exemplu, în loc de 2n pași clasici, algoritmul Deutsch-Jozsa cuantic face unul singur. Procedurile de păstrare a secretelor informatice trebuie, deci, să dezvolte rezistență cuantică.

Viitorul post cuantic este ambiguu

Algoritmii post cuantici sau rezistenți cuantic alcătuiesc cea mai nouă direcție de cercetare în securitatea informației. Cum un viitor în care toate serviciile criptate ar fi vulnerabile – de la sisteme bancare, la orice bază de date, serviciu de comunicare și stocare a informațiilor personale – este inacceptabil, Institutul Național al Standardelor și Tehnologiei (NIST) din SUA urmărește standardizarea și în acest domeniu. 

Începând cu 2016, NIST a lansat o competiție pentru algoritmi ce nu pot fi învinși nici de computere cuantice, iar în august 2024 a anunțat// „NIST Releases First 3 Finalized Post-Quantum Encryption Standards”, nist.gov // trei noi standarde pe care acești algoritmi trebuie să îi respecte: Federal Information Processing Standards (FIPS) 203, 204, 205. 

Conform coordonatorului proiectului,// „What are quantum-resistant algorithms—and why do we need them?”, technologyreview.com // Dustin Moody, la finalul lui 2024 au fost publicați finaliștii ultimei etape, după mai multe runde de teste împotriva unor atacuri specializate. Standardizarea și cercetările continuă pînă în 2028, dar NIST a menționat că eventuale descoperiri majore în domeniul computerelor cuantice pot grăbi procesul.

Poate contrar așteptărilor, viitorul post cuantic nu diferă cu mult de prezent, cel puțin în ce privește algoritmii criptografici. Cum am mai spus, puterea de calcul a sistemelor cuantice, incomparabilă cu cea clasică, aduce probleme suplimentare.

În plus, și unele sisteme clasice sunt rezistente cuantic, cel puțin pentru viitorul apropiat, dacă se folosesc numere și mai mari. Există chiar și alternative mai elegante, mult mai sofisticate matematic la lucrul cu numere tot mai mari: curbele eliptice. În locul numerelor prime cu aproape o mie de cifre, considerate sigure în RSA clasic, curbele eliptice bazate pe numere cu doar o sută cifre oferă același grad de securizare. 

CITEȘTE ȘI: Criptografie #1: Secretul numerelor prime

Totuși, algoritmul lui Shor a arătat că toți algoritmii cu cheie publică relevanți pot fi atacați cu succes (cel puțin teoretic). Nu e, însă, imposibil ca acest succes să devină o realitate nu foarte îndepărtată. Deja s-au adus îmbunătățiri multiple versiunii originale publicate în 1994 și cercetările continuă. Rezultă că abordarea rezistentă cuantic trebuie să folosească un sistem diferit. 

Curbele eliptice sunt, în continuare, o soluție viabilă, însă cu un preț destul de mare din punct de vedere al dificultății matematice. Separat de aplicațiile lor în criptografie, aceste obiecte, aflate la intersecția dintre geometrie și algebră, conțin multe probleme extrem de dificile pentru orice matematician.

Răspunsul surpriză vine din trecut. Algoritmii cu cheie simetrică, precum și așa-numiții hash, care sunt un fel de vestigii ale criptografiei, abandonați sau ignorați de ani buni în aplicații critice, pot fi actualizați post cuantic.

Un algoritm cu cheie simetrică folosește aceeași metodă și pentru criptare, și pentru decriptare. În consecință, astfel de algoritmi nu pot fi publici: oricine ar afla metoda, ar avea nevoie de exact aceiași pași și aceleași resurse pentru decriptare precum cei care au criptat informația inițial. 

De cealaltă parte, procedurile de tip hash sunt cu intenție imposibil de descifrat precis. Matematic, o procedură este inversabilă dacă există o metodă de tip undo, eventual diferită de cea inițială. Funcțiile sau procedurile hash introduc ambiguitate: există mai multe operații de tip undo, care oferă rezultate posibile multiple și nu există nicio metodă care să-l indice pe cel corect.

Tocmai pe acest tip de ambiguitate se bazează unele proceduri post cuantice. Atât modificări ale sistemelor cu cheie simetrică sau ale funcțiilor hash, precum și metode noi analizate de NIST (bazate pe alte obiecte matematice numite latice) introduc intenționat ambiguități, erori și deviații ale informației, ca și când semnalul ar fi bruiat. 

Însă bruiajul nu este atât de puternic încât mesajul să nu ajungă clar la destinatar, ci doar cât să semene cu un posibil mesaj, pentru ca unui atacator să-i fie imposibil de a-l distinge de mesajul propriu-zis. Incertitudinea și zgomotul din lumea cuantică, amplificate de aceste „defecte“ intenționate contribuie esențial la rezistența algoritmilor, indiferent de puterea de calcul.

Foto: Google

Cum ar fi să rulezi jocuri în 16K la 320 fps?

Cine nu și-ar dori să aibă pe birou un computer cuantic, precum Willow,// „Meet Willow, our state-of-the-art quantum chip”, blog.google // care să poată rezolva orice task în doar câteva milisecunde? 

Nimic nu vine însă doar cu avantaje. În cazul computerelor cuantice, dacă ignori costurile materiale, există limitări implicite, care nu țin de creativitatea sau inteligența inginerilor, ci de însăși alcătuirea naturii. Sistemele cuantice au multe necunoscute, dar chiar și numai din ceea ce se știe, structura probabilistică, non deterministă și plină de incertitudini care stă la baza comportamentului subatomic pur și simplu nu se potrivește preciziei pe care te-ai obișnuit să o aștepți de la computere. 

La fel de prezente sunt și limitările care țin de condițiile de construire și păstrare – e drept, au apărut și arhitecturi noi, care pot funcționa, în principiu, la temperatura camerei, însă cu alt preț de plătit, la nivel de cercetare, stabilitate și precizie. Prin comparație, de exemplu, computerele folosite ca servere conțin componente hardware cu autocorectarea erorilor, astfel încât datele să nu se corupă în timpul procesării sau transferului. 

Astfel de componente sunt imposibil de implementat în computere cuantice, pentru că eliminarea erorilor ar însemna și suprimarea comportamentului cuantic, printr-un fenomen numit decoerență, explicat de Dr. Paraschiv.

Totuși, sistemele criptografice, ca și cele de inteligență artificială, arată că viitorul transmiterii și stocării informației se bazează pe putere de calcul. Tot mai mulți algoritmi utilizați în infrastructuri critice – de securitate, inteligență artificială, medicale sau științifice — vor fi analizați din ce în ce mai atent din punctul de vedere al complexității. 

Deciziile de implementare clasică sau cuantică trebuie să echilibreze toate riscurile și costurile: atât cele materiale, cât și cele computaționale. Și, desigur, să implementeze teorii cunoscute detaliat și testate măcar pe bucăți.

În concluzie, sistemele clasice, chiar organizate în arhitecturi distribuite și de supercomputere nu se pot compara cu cele cuantice și cipuri revoluționare precum Willow vor continua să apară. Aplicațiile lor trebuie, așadar, să justifice eforturile materiale și tehnologice implicate. De aceea, este de așteptat ca viitorul computerelor cuantice, măcar cel apropiat, să-i dea dreptate mai curând lui Feynman, care își imagina aplicații în simulări fidele ale naturii în laboratoare ultraperformante decât fanteziei de pe biroul unui gamer sau din subsolul unui hacker.



Text de

Adrian Manea

Adrian Manea este matematician și profesor, fondator al Poligon Educational, proiect prin care îmbină matematica și științele cu istoria, filosofia, literatura și jocurile. Scrie și pe Substack, Laturi ale științei.

ȘTIINȚĂ|FYI

O ipoteză despre vitamina B1, confirmată după 67 de ani

De
Cercetătorii americani au reușit să stabilizeze o moleculă considerată imposibilă într-un mediu apos, confirmând o teorie biochimică veche de 67 de ani.
ȘTIINȚĂ|OVERVIEW

Criptografie #4: La voia întâmplării

De
Ți-ai lăsa parolele și alte informații sensibile într-o bază de date protejată cu numere aleatorii și irepetabile?
TEHNOLOGIE|OVERVIEW

Ai făcut un test genetic pe 23andMe? Șterge-ți datele cât încă mai poți.

De
23andMe, una dintre cele mai mari companii care oferă teste genetice pentru stabilirea originii etnice, a intrat în procedura de faliment. Dar mai are ceva ce poate valorifica: datele genetice ale clienților.
ȘTIINȚĂ|FYI

Oase cu urme de tăieturi vechi de 1,95 milioane de ani, descoperite în România

De
Urme fine lăsate de unelte de piatră pe oase de animale descoperite în Oltenia arată că strămoșii omului erau în România acum aproape 2 milioane de ani. E cea mai veche dovadă clară din Eurasia.