Fragment
<<
Conflicte și ciocniri de legitimitate în câmpul marilor ideologii
Problema inteligenței artificiale (AI)
Din punct de vedere istoric, se poate lesne observa cum fiecare invenție tehnologică semnificativă, fiecare inovație majoră și‑a pus, mai devreme sau mai târziu, amprenta asupra evoluției ordinii politice, influențând transformarea sa. A făcut‑o fie în sens strategic – pe componenta militară sau cea economică –, fie în câmpul legitimității și al ideilor prevalente de legitimitate care susțin o anumită ordine. Dacă ne referim la prima chestiune, cea strategică, se știe, de pildă, cum apariția prafului de pușcă a schimbat configurația războiului, ca să nu vorbesc de arma nucleară, care a dat un sens cu totul nou strategiei ca atare. Industrializarea și efectele ei economice și sociale sunt consecințe imediate ale apariției motorului cu aburi și a mecanismelor automatizate de producție, care au revoluționat profund modelele economice tradiționale. Sunt, desigur, exemple foarte cunoscute, prin care doar vreau să evidențiez echilibrul dinamic dintre ordine (în compoziția sa strategică, legată de putere, și, implicit, în folosirea sa) progresul tehnologic și resursele economice. În privința legitimității (a doua mare chestiune în discuție aici), invenția istorică a lui Gutenberg – tiparul – a permis, brusc, diseminarea rapidă și pe scară largă a informației, a noi narative, a unor noi idei și ideologii care au influențat înțelegerea, percepția și funcționarea legitimității. Ele au generat, după cum se va vedea, o schimbare extraordinară în natura ordinii, sub acest aspect critic, legat de principiile de legitimitate care o alcătuiesc (practic, a favorizat, prin Luther și mișcarea sa, reconsiderarea sistemului de legitimitate religioasă ca sursă de legitimare a puterii politice). Toate salturile tehnologice ulterioare au păstrat același potențial transformator. Discuția despre fenomenul modern al internetului și al social media, abordată anterior, este, de altfel, de prisos.
Inteligența artificială (AI) este însă o invenție cu totul revoluționară, unii spun unică, și poate cea mai importantă din istorie, cu potențialul de a afecta fundamental ordinea: mai mult, mai profund și mai rapid ca oricând, pe toate dimensiunile sale considerate aici – strategice și de legitimitate.
Diverse definiții, pe care le putem considera oricum aproximative, arată că inteligența artificială: „se referă la mașini care răspund la stimulare în consonanță cu răspunsuri primite în mod tradițional de la oameni, luând în considerare capacitatea umană pentru contemplare, judecată și intenție…“[1] sau că ea este: „știința instruirii mașinilor pentru a învăța capabilități caracteristice omului… [inclusiv] până la punctul la care AI poate performa toate aptitudinile cognitive umane mai bine decât cei mai inteligenți oameni“[2].
Aceste mașini „operează într‑o manieră intențională, inteligentă și adaptativă“[3]. Sunt câteva cuvinte suficiente pentru a contura magnitudinea acestei evoluții științifice și impactul noii tehnologii asupra societății și asupra civilizației. După cum arăta Henry Kissinger în ultima sa carte scrisă înainte de a muri, „Inteligența artificială (AI) este suficient de diferită, astfel încât devine foarte probabil că va altera traiectoria societăților și cursul istoriei“ și astfel „va altera conceptul umanității despre realitate și în consecință despre sine“[4]. Pentru că, „față de cele două moduri tradiționale prin care oamenii au cunoscut lumea, credința și rațiunea, acum se adaugă un al treilea“.[5] Venite de la un cunoscător și teoretician al istoriei, dar și de la un practician de prim rang al „marii politici“, care nu a părut niciodată surprins de transformările ordinii, oricât de semnificative ar fi fost acestea, asemenea constatări trebuie să dea serios de gândit. Nu e filozofie, deși s‑ar putea să fie mai repede decât credem subiectul său principal: AI demonstrează deja rezultate uluitoare în toate domeniile de interes vital pentru condiția umană, de la medicină și transporturi la economie, finanțe, cultură, justiție sau în zona sensibilă a securității și apărării (și suntem abia la început). Practic, poate executa un rol în administrare și guvernare, deci în exercițiul efectiv de putere, de care se leagă, cum am văzut, evoluția ordinii sociale și politice, structurarea sa internă sau externă. După cum s‑a remarcat însă chiar referitor la acest statut excepțional al AI: „În acest proces, ordinea și legitimitatea sunt conectate: ordinea fără legitimitate este doar forță“.[6] Cum putem privi, așadar, în perspectivă rolul și locul AI având în vedere aceste evoluții cu adevărat revoluționare, care nu mai vizează doar tehnologia per se, ci însăși relația sa cu fundamentele tradiționale ale ordinii? Cel puțin două probleme majore decurg din această discuție, necesitând o reflecție critică urgentă. Am să mă refer mai mult la chestiunea esențială a legitimității și doar indirect, prin implicații, la cea strategică.
Este vorba, în primul rând, de problema dislocării AI în diferitele domenii menționate, ca posibil factor de manifestare autonomă, independentă, în cadrul sistemului politic și social. Implicit, dacă nu explicit, apar probleme majore de legitimitate, inclusiv în plan etic.
Dacă până acum omul putea controla aceste procese de evoluție în conceptul de legitimitate (fiind, desigur, și creatorul ei), în cazul AI, această chestiune nu mai este atât de clară, datorită tehnologiei ca atare, și poate deveni una cu totul specială, pe măsura progresului științific extraordinar și rapid. De aici și dezbaterile (unele foarte alarmiste) privind necesitatea urgentă și obligația reglementării AI, tocmai pentru a înființa forme și mecanisme de control sigur.
Asupra posibilelor probleme legate de folosirea AI s‑au pronunțat deja critic intelectuali de mare reputație, politicieni, dar și oameni din interiorul domeniului care a produs acest salt uriaș în cunoaștere.
O viziune coerentă privind controlul AI este propusă de un pionier al apariției și propagării tehnologiei, Mustafa Suleyman, care vorbește de necesitatea unui program strategic multidimensional de „containment“ (termen specific Războiului Rece) care să cuprindă holistic „abilitatea de a monitoriza, limita, controla și potențial chiar de a închide anumite tehnologii“.[7] În al doilea rând (și acest lucru mi se pare chiar mai interesant decât primul aspect), este vorba de faptul că de data aceasta „un lucru“, „acest ceva“ din afara conștiinței umane (dar care tinde spre o replică a sa), poate, teoretic, pe măsură ce știința își continuă avansul, să genereze efectiv formule noi de legitimitate, narative și „master narative“ independente („sintetice“) sau interpretări autonome ale acestora. Intrăm astfel, brusc, pe un teritoriu necunoscut și imprevizibil, în care ordinea firească se poate îmbogăți cu elemente etice, cu judecăți de valoare, cu raționamente ce nu mai aparțin unui proces cognitiv și social, emanând, strict, de la individ – cu toate slăbiciunile sale, dovedite, de altfel, istoric. Mulți spun că aceasta este o chestiune care forțează deocamdată imaginația și că încă nu se conturează un salt atât de mare al tehnologiei. Erik Larson, de exemplu, este foarte persuasiv în a nega posibilitatea „existenței unui algoritm pentru „superinteligență“, „inteligență generală“ (general intelligence) sau „inteligență artificială la un nivel similar celui uman“ (human level AI)[8]. Este o limită care nu ar putea fi atinsă, în opinia lui, întrucât „ceea ce știm acum despre natura inteligenței“ ne arată indubitabil „că inteligența umană și cea a mașinilor sunt radical diferite“.[9] În viziunea sa, această discuție despre dezvoltarea inteligenței artificiale până la un nivel de gândire este un simplu mit modern. Alții însă, filozofi sau teoreticieni ai științei, spun, dimpotrivă, că inteligența artificială la nivel uman este posibilă și chiar inevitabilă.[10] În orice caz, în acest stadiu, AI poate produce text, imagini, conținut video, poate opera în limbaj și genera discurs, suficient pentru a „produce noi tipuri de vulnerabilități, îndeosebi pentru societățile libere“[11].
Oricum ar fi, ideea unor noi „legitimități artificiale“, „sintetice“, dacă le pot spune așa, construite autonom, care să intre în tensiune sau în conflict cu principii tradiționale de structurare a ordinii (fie ele mai „bune“ sau mai „rele“, mai „morale“ sau mai „imorale“, dar create de om), poate schimba mult din natura istorică a politicii, așa cum o cunoaștem acum, alterând, totodată, și conținutul strategiei.[12] E perfect îndreptățită astfel afirmația conform căreia „tehnologia, strategia și filozofia trebuie aduse într‑un fel de aliniere, altfel una le va elimina pe celelalte“.[13]
_______
[1] Vezi un raport al Institutului Brookings, How Artificial Intelligence is Transforming the World, autorat de Darrell M. West și John R. Allen, aprilie 2018, p. 2
[2] Vezi cartea recentă, de referință asupra subiectului, a lui Mustafa Suleyman (împreună cu Michael Bhaskar), The coming wave. Technology, power and the 21 st century’s greatest dilemma, Crown, New York, 2023, glossary of key terms, p. vii
[3] Idem
[4] Henry Kissinger, Eric Schmidt, Daniel Huttenlocher, The Age of AI, 2022, ed. John Murray, UK, pp. 19, 20
[5] Idem, p. 159
[6] Idem, p. 199
[7] Mustafa Suleyman, op.cit. p. 214.
Suleyman consideră că reglementarea AI, care este deja în dezbaterea UE și a altor state, apropiindu‑se de un statut normativ, nu este suficientă, ca urmare a complexității și unicității fenomenului. El crede că acest „val“ care va veni oricum peste noi trebuie cumva supus „containmentului“ (îngrădirii, izolării), ceea ce este oricum dificil având în vedere caracterul omniscient și hiper‑evolutiv al AI. În acest sens, propune un program multidimensional, desfășurat în trepte, care ar cuprinde, între altele, elemente de siguranță tehnologică, procese de audit, posibilității de frânare sau încetinire a dezvoltării, elemente de control în interiorul tehnologiei, o cultură a schimbului de informații, reglementare legislativă internă și externă, prin legi și tratate. Vezi pe larg Suleyman, op.cit. pp 239 și următoarele.[8] Erick J. Larson, The Myth of Artificial Intelligence, Why Computers Can’t Think The Way We Do, The Belknap Press of Harvard University Press, 2021, p. 2
[9] Idem, p. 1
[10] Ibidem, p. 2, dându‑l de exemplu pe filozoful Nick Bostrom.
[11] Kissinger, op.cit. p. 159.Vezi și mesajul interesant al papei Francisc legat de relația complexă dintre etică și inteligența artificială, în care arată necesitatea unui dialog interdisciplinar având ca scop „dezvoltarea etică a algoritmilor“ numită sugestiv o „algor‑etică“. Message of His Holliness FRANCIS for the 57 World Day of Peace, 1 January 2024, Libreria Editrice Vaticana, Vatican City.
[12] Mi s‑a părut foarte interesantă în acest sens o simulare a unui dialog socratic (Socrate cu Aristotel) pe asemenea chestiuni, pe un Chat GPT‑4, dintr‑un studiu Microsoft, comentat în New York Times:
Socrate: Prietene, sunt preocupat de recenta apariție a așa‑numitelor modele de limbaj autoregresiv.
Aristotel: Ce vrei să spui, Socrate?
Socrate: Vreau să spun că aceste modele sunt folosite pentru a genera text ce pare să fie scris de ființe umane, dar este, de fapt, produs de mașini.
Aristotel: Și care e problema cu lucrul ăsta?
Socrate: Problema e că aceste modele sunt folosite pentru a înșela oamenii, pentru a‑i manipula și pentru a‑i controla.
Cade Metz, Microsoft say new AI shows signs of human reasoning, New York Times, 16 mai 2023[13] Kissinger, op. cit., p. 227
>>
George Cristian Maior Superpolitik 2024 Editura RAO