Musk, Wozniak și Harari cer o pauză în dezvoltarea AI-urilor puternice
O scrisoare deschisă semnată de peste 1.000 de persoane, mulți dintre ei cercetători în inteligență artificială, dar și oameni de afaceri, cer mai puțină grabă și mai multă reglementare în domeniu.
Avansul imens al sistemelor de inteligență artificială creează îngrijorări legitime. Doar în ultima lună, au fost anunțate un număr impresionat de proiecte aflate în diverse stadii de dezvoltare, dintre care probabil cel mai important este lansarea publică a lui GPT-4, cel mai puternic model de limbaj dezvoltat de OpenAI.
CITEȘTE ȘI: Slow Forward: (Aproape) toate lansările AI din ultima lună
În aceste condiții, Detalii pe futureoflife.org o organizație nonprofit din SUA care își propune să abordeze provocările globale generate de tehnologiile avansate, în special cele care prezintă riscuri existențiale pentru umanitate, a inițiat o scrisoare deschisă prin care un moratoriu voluntar general de șase luni în dezvoltarea unor sisteme AI mai puternice decât GPT-4 , timp care să fie folosit pentru reglementarea mai bună a domeniului.
Printre semnatari se numără și Elon Musk, unul dintre finanțatorii inițiali ai OpenAI, Steve Wozniak, co-fondatorul Apple, Yuval Noah Harari, autorul cărții Sapiens, numeroși cercetători și investitori în domeniu, ca Yoshua Bengio (Universitatea Toronto), Victoria Krakovna (DeepMind), Emad Mostaque (Stability AI) etc. Lista conține deja 1.125 de nume și poate fi semnată de oricine.
Îngrijorările sunt cu certitudine legitime, am scris și noi pe larg despre unele dintre el. Dar s-ar putea argumentat și că o parte dintre semnatari o fac doar pentru că n-au prins sau au abandonat acest tren. Plus că destul de greu de stabilit ce înseamnă „sistem AI mai puternic decât GPT-4”, iar un moratoriu general ar putea avea și alte consecințe. Fie ar consolida poziția în piață a OpenAI drept furnizorul principal de servicii AI, fie să ajute concurența să-i prindă din urmă, dacă se decide că „nu sunt la fel de puternice”.
Cert este că reglementarea domeniului e mai mult decât necesară și orice presiune publică în acest sens este binevenită.
CITEȘTE ȘI: ChatGPT, Bing & co și pericolele guvernării algoritmice
Iată mai jos scrisoarea deschisă, tradusă de ChatGPT (varianta cu GPT-4). Textul a necesitat o editare minimală. Pentru a evalua traducerea (și pentru semnături), poți accesa originalul. Pentru comparații (și semnături), „Pause Giant AI Experiments: An Open Letter”, futureoflife.org.
Opriți experimentele gigantice cu AI: o scrisoare deschisă
Cerem tuturor laboratoarelor de AI să oprească imediat, pentru cel puțin șase luni, instruirea sistemelor AI mai puternice decât GPT-4.
Sistemele AI cu inteligență competitivă umană pot prezenta riscuri profunde pentru societate și umanitate, așa cum este demonstrat de Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?🦜. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623). // Bostrom, N. (2016). Superintelligence. Oxford University Press. // Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129). // Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353. // Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company. // Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282-293). // Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models. // Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862. // Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626. // Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking. // Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf. // Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359. Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: ‘A little bit scared of this’. ABC News. // Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time. După cum se menționează în „AI Principles – Future of Life Institute”, futureoflife.org adoptate pe scară largă, „AI-ul avansat ar putea reprezenta o schimbare profundă în istoria vieții pe Pământ și ar trebui planificat și gestionat cu resurse și atenție corespunzătoare.” Din păcate, acest nivel de planificare și gestionare nu se întâmplă, deși în ultimele luni laboratoarele de AI s-au angajat într-o cursă haotică pentru a dezvolta și implementa minți digitale tot mai puternice pe care nimeni – nici măcar creatorii lor – nu le pot înțelege, prezice sau controla în mod fiabil.
Sistemele AI contemporane devin acum competitive cu oamenii Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712. // OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774. și trebuie să ne întrebăm: Ar trebui să lăsăm mașinile să inunde canalele noastre de informații cu propagandă și neadevăruri? Ar trebui să automatizăm toate locurile de muncă, inclusiv cele împlinitoare? Ar trebui să dezvoltăm minți nonumane care ar putea, în cele din urmă, să ne depășească numeric, să ne întreacă în inteligență, să ne facă depășiți și să ne înlocuiască? Ar trebui să riscăm pierderea controlului asupra civilizației noastre? Astfel de decizii nu trebuie delegate liderilor tehnici nealeși. Sistemele AI puternice ar trebui dezvoltate numai după ce suntem încrezători că efectele lor vor fi pozitive și că riscurile lor vor fi gestionabile. Această încredere trebuie să fie bine justificată și să crească odată cu magnitudinea potențialelor efecte ale unui sistem. „Planning for AGI and beyond”, openai.com cu privire la inteligența artificială generală afirmă că „La un moment dat, poate fi important să obținem o revizuire independentă înainte de a începe să instruim sistemele viitoare și pentru ca eforturile cele mai avansate să convină să limiteze rata de creștere a resurselor de calcul utilizate pentru crearea de noi modele.” Suntem de acord. Acel moment este acum.
Prin urmare, cerem tuturor laboratoarelor de AI să oprească imediat, pentru cel puțin șase luni, instruirea sistemelor AI mai puternice decât GPT-4. Această pauză ar trebui să fie publică și verificabilă și să includă toți actorii cheie. Dacă o astfel de pauză nu poate fi instituită rapid, guvernele ar trebui să intervină și să instituie un moratoriu.
Laboratoarele de AI și experții independenți ar trebui să folosească această pauză pentru a elabora și implementa în comun un set de protocoale de siguranță partajate pentru proiectarea și dezvoltarea AI-ului avansat, care să fie supuse unor audituri riguroase și supraveghere din partea experților externi independenți. Aceste protocoale ar trebui să asigure că sistemele care le respectă sunt sigure Există un precedent juridic solid – de exemplu, Principiile AI ale OECD, adoptate pe scară largă, cer ca sistemele AI să “funcționeze corespunzător și să nu prezinte riscuri de siguranță nerezonabile”. Acest lucru nu înseamnă o pauză în dezvoltarea AI în general, ci doar o retragere din cursa periculoasă către modelele imense de cutii negre imprevizibile, cu capacități emergente.
Cercetarea și dezvoltarea AI ar trebui să se concentreze pe îmbunătățirea sistemelor puternice de astăzi, făcându-le mai precise, sigure, interpretabile, transparente, robuste, aliniate, de încredere și loiale.
În paralel, dezvoltatorii de AI trebuie să colaboreze cu decidenții politici pentru a accelera în mod semnificativ dezvoltarea sistemelor robuste de guvernanță AI. Acestea ar trebui să includă, cel puțin: autorități de reglementare noi și capabile dedicate AI; supravegherea și urmărirea sistemelor AI foarte capabile și a resurselor mari de capacitate de calcul; sisteme de proveniență și watermarks pentru a distinge între real și sintetic și pentru a urmări scurgerile de modele; un ecosistem solid de audit și certificare; răspundere pentru prejudiciile cauzate de AI; finanțare publică solidă pentru cercetarea tehnică privind siguranța AI; și instituții bine finanțate pentru a face față perturbărilor economice și politice dramatice (în special pentru democrație) pe care le va provoca AI.
Umanitatea se poate bucura de un viitor prosper cu AI. Reușind să creăm sisteme AI puternice, ne putem bucura acum de o „vară AI” în care să recoltăm recompensele, să proiectăm aceste sisteme în beneficiul clar al tuturor și să dăm societății o șansă de a se adapta. Societatea a pus pauză Exemplele includ clonarea umană, modificarea liniei germinale umane, cercetarea privind câștigul de funcție și eugenia. cu efecte potențial catastrofale asupra sa. Putem face acest lucru și aici. Să ne bucurăm de o vară AI lungă, nu să ne grăbim nepregătiți într-un declin.