Despre premisele, dezvoltările și perspectivele unui drept al inteligenței artificiale

Editoriale Anul 2023
Revista Editoriale Anul 2023

Despre situația legiferării domeniului IA la nivel internațional ne vorbește Prof. univ. dr. Mircea DUȚU într-un studiu de amploare, foarte bine documentat, care subliniază cele mai noi concepte juridice care definesc un fenomen cheie în revoluția industrială a secolului XXI, din care prezentăm mai jos un extras. Un articol cadru despre expectative pozitive și îngrijorări, insuficiența eticii și necesitatea consolidării unui drept al inteligenței artificiale, manifestată deja la nivelul ONU, UNESCO, Consiliului Europei și OCDE și indispensabil pentru funcționarea unui stat digital.

Articolul integral va fi publicat în Pandectele Române nr. 2/2024.

ABSTRACT

The pervasive assertion and emergence of evolved forms of AI offer tremendous opportunities for innovation and growth, but at the same time they also generate dangers, unprecedented in nature and scope for human rights, democracy, and the rule of law. Governing the multiple challenges thus generated requires the intervention of regulation, by establishing and complying with voluntary ethical and legal norms. An instrument for regulating human action, law provides the security framework for the defense of fundamental social values and for governing in the general sustainable interest the problems generated by new technologies. Its adaptation to the context and demands of the AI phenomenon requires creative transformations and developments of traditional legal institutions, conceptual additions and adaptations, and major developments in the construction of specific regulatory means and procedures. Configured at the beginning as one of normative suppleness expressed through soft law instruments, favoring an ethics, a voluntary compliance, the regulatory framework of AI quickly evolved towards greater legality especially in the European context. A double perspective of approach and regulation is thus manifested: while UNESCO and the Council of Europe insist on the fundamentalist element (human rights, democracy, rule of law), the OECD and the EU privilege the issues of securing the market and stimulating innovation. The UN General Assembly Resolution of March 21, 2024 favors the regulation of international law and the global approach. The geostrategic stakes of AI determine the assertion of “regulatory empires”: American, Chinese and European with their own particularities, but also integration tendencies under the impetus of the technicality and totality of the phenomenon. AI law is configured as a global right, of coexistence and interdependence of technical-scientific, ethical and legal norms, of voluntary and imposed compliance, resulting from a broad and particular participation of the multitudes of directly and interested actors involved (state, economic, civic) under the general control of major public interest.

Keywords: Artificial Intelligence (AI); AI Law; human rights; global law; ethics; AI, AIS, AGI; AI as subject of law; rule of law; international law, framework treaty; voluntary norms; AI geopolitics; regulatory empires; international AI law.

Dominanța drepturilor umane fundamentale. O analiză atentă a situației de lege lata ne arată că în prezent se manifestă două mari abordări și tot atâtea tendințe de  reglementare ale problematicii inteligenței artificiale. Prima se întemeiază (numai) pe riscuri și se concentrează, în mare parte, pe autoreglementare și pe autoevaluare a dezvoltării noilor tehnologii. În loc să se sprijine pe reguli detaliate, reglementarea  fondată pe riscuri pune accentul pe identificarea și atenuarea acestora în scopul de a obține rezultate. Această perspectivă transferă o mare parte a responsabilităților aferente sectorului privat, dar una deopotrivă de trasare a normativității și de respectare a sa prin auto conformare. Cealaltă abordare constă în a integra drepturile omului în ansamblul ciclului de viață al IA. Așadar, principiile drepturilor umane se impun a fi incluse în colectarea și selectarea datelor, precum și în concepția, dezvoltarea, desfășurarea și utilizarea modelelor, instrumentelor și serviciilor care rezultă. Relevantă este în acest sens rezoluția Consiliului pentru Drepturile Omului al ONU din 13 iulie 2023 care subliniază importanța „garantării, promovării și protejării drepturilor omului de-a lungul ciclului de viață al sistemelor de inteligență artificială”. La rândul său,  rezoluția Adunării Generale a ONU din 21 martie 2023 privind promovarea de sisteme ale inteligenței artificiale sigure, securizate și demne de încredere reclamă tuturor statelor membre și părților interesate „să se abțină ori să înceteze să utilizeze sisteme  de inteligență artificială care sunt imposibil de exploatat conform dreptului internațional al drepturilor umane ori care prezintă riscuri incluse pentru exercitarea drepturilor umane”.

În contextul interstatal, primul generator de juridicitate la nivel comun, internațional se poate constata că, în pofida multiplicării și diversificării inițiativelor interguvernamentale de gen (promovate în special în cadrul ONU, UNESCO, OCDE, Consiliului Europei și Uniunii Europene), principalele măsuri prevăzute de textele regulare ale inteligenței artificiale și ale utilizării sale reiau tradiționala dublă orientare, desigur cu unele nuanțări și particularizări de situație și de conjunctură. Se observă astfel că documentele adoptate atât de Adunarea Generală și Consiliul pentru Drepturile Omului ale ONU,  UNESCO, cât și în Consiliul Europei, organizații de cooperare și coordonare interstatală  politică insistă mai ales pe dimensiuni și aspecte așa-zis „fundamentaliste” ținând cu  precădere de valorile de respectat și de cadrele de repere acționale, în timp ce OCDE și  UE, ca organizații de orientare și integrare economică, privilegiază (prioritar) chestiuni  aferente securizării pieței și stimulării inovării.

Primul text mondial privind etica inteligenței artificiale, Recomandarea UNESCO din 7  noiembrie 2021 (Artificial intelligence ethics recommendation), „tinde a modifica în  mod fundamental balanța puterilor ce există între oamenii de rând și guvernele și societățile ce dezvoltă instrumente de IA”[1]. El acordă întâietate a patru valori fundamentale, respectiv respectul, protecția și promovarea drepturilor umane și  demnității, diversitatea și incluziunea, promovarea de societăți pașnice juste și  interdependente, mediul și ecosistemele care prosperă pe care statele membre se angajează să le respecte și să le asigure respectarea la nivelul lor. O abordare fondată pe drepturile omului, întemeiată pe 10 principii: proporționalitate și inocuitate,  siguranță și securitate, respectarea vieții private și protecția datelor, guvernanță și colaborare multipărți și adaptative, responsabilitate și redevabilitate, sensibilizare și educație, transparență și explicabilitate, supraveghere și decizie umană, durabilitate, echitate și nediscriminare. Documentul UNESCO listează, de asemenea, acțiuni pe care cele 193 de state membre aderente trebuie să le realizeze, în special stabilirea unui instrument legislativ spre a încadra și monitoriza aplicațiile IA spre „a asigura o securitate totală pentru datele personale și sensibile”, precum și a educa masele asupra acestui subiect. Se enunță valori și principii comune care să ghideze instituirea infrastructurii juridice necesare pentru a asigura o dezvoltare sănătoasă și echitabilă a IA. După stabilirea astfel a cadrului mondial al statelor, la 5 februarie 2024, cu prilejul celui de-al doilea forum mondial al UNESCO în materie de etică a IA privind transformarea guvernanței inteligenței artificiale (Krany, Slovenia), opt giganți ai Tech (GSMA, INNIT, Lenovo Group, LG Al Research, Mastercard, Microsoft, Salesforce și Telefonica) au semnat o Cartă spre a „clădi o inteligență artificială mai etică”, marcând astfel o nouă etapă a procesului de reglementare, prin asumarea acelorași angajamente din partea marilor întreprinderi, o alianță a sectoarelor publice și private. Semnatarii se angajează să-și asume plenar rolul în protecția drepturilor umane, în conceperea, dezvoltarea, cumpărarea, vânzarea și utilizarea IA. Se stipulează, în special, stabilirea de proceduri de verificare spre a se asigura că normele de securitate sunt respectate, că efectele nefaste vor fi identificate și că măsurile vizând a le limita și corija să fie aplicabile într-un termen rezonabil, cu respectarea legislațiilor naționale. De asemenea, se subliniază importanța testelor ex ante (înainte de punerea pe piață) și se face apel, de asemenea, la dezvoltarea de practici ex post (după desfășurare) de evaluare și atenuare a riscurilor, ținând seama de evoluția rapidă a sistemelor de IA care sunt deja pe piață.

În aceeași perspectivă, inclusiv prin sugestia încheierii unui tratat internațional în materie, Consiliul Europei se pronunță pentru un cadru juridic privind dezvoltarea, conceperea și aplicarea inteligenței artificiale, fondat pe normele europene în materie de drepturi ale omului, de democrație și de stat de drept. Desigur, abordarea unional-europeană în frunte cu Regulamentul UE pertinent pe cale a fi finalizat se întemeiază pe valorile europene și riscurile prezentate de aplicațiile IA, în scopul de a asigura securitatea și protecția drepturilor fundamentale, chiar dacă balanța corectă între securitatea juridică și dezvoltarea acestei noi tehnologii nu e atât de evident de găsit. Ea se înscrie, mai degrabă, în continuitatea istorică dominantă în 2000, sub impulsul ideii secretarului general al ONU de atunci (Kofi Annan) privind importanța conferirii „unei fețe umane pieței”, reflectată și urmată de un cadru de acțiune (Pactul mondial), inițiative de orientare și recomandări și norme voluntare (precum Principiile directoare ale ONU privind întreprinderile și drepturile omului și Principiile directoare ale OCDE în intenția întreprinderilor multinaționale) în scopul de a ghida entitățile economice în concilierea intereselor de performanță economică și respectarea persoanelor și a planetei. O nouă etapă a acestor evoluții o reprezintă adoptarea, în decembrie 2023, a directivei UE privind îndatorirea de diligență a întreprinderilor în materie de durabilitate (Corporate Sustainability Due Diligence Directive, CSDDD), care instaurează un cadru juridic obligatoriu pentru marile întreprinderi, în scopul de a regla impacturile negative ale lanțului lor de activități asupra mediului și a drepturilor omului.

Dar în afara unor astfel de diferențieri de abordare, corespunzătoare și datorate mai ales mandatelor constitutive ale acestor diferite structuri cooperative, discursurile aferente rămân în realitate marcate și chiar dominate de respectiva dublă perspectivă, în scopul de a se ajunge la un echilibru, prin concilierea drepturilor omului și a inovării, de această dată în contextul „exploziei” IA și a aplicațiilor sale. Așa se face că în Recomandarea privind etica IA din 7 noiembrie 2021 a UNESCO se menționează importanța evaluărilor sistemelor de inteligență artificială de-a lungul întregului lor ciclu de viață, în timp ce în European AI Act, amintindu-se că baza juridică a demersului legislativ o constituie art. 114 din TFUE, vizând asigurarea stabilirii și funcționării pieței interioare, se insistă asupra necesității „de a garanta un nivel ridicat de protecție a drepturilor fundamentale” garantate de Carta drepturilor fundamentale a UE și în special dreptului la demnitate umană (art. 1), respectul vieții private și al protecției datelor cu caracter personal (art. 7 și 8), nediscriminarea (art. 21), egalitatea între femei și bărbați (art. 23), libertatea de expresie (art. 11) și cea a reuniunilor (art. 12), dreptul la o acțiune efectivă și accesul la un tribunal imparțial, drepturilor apărării și prezumția de nevinovăție (art. 47 și 48). Într-adevăr, așa cum s-a subliniat în literatura de specialitate, dezvoltarea IA e cu prețul încrederii, după cum aceasta din urmă e cu cel al unui echilibru între piață și protecție. Așadar, Regulamentul UE din 13 martie 2024 ne prezintă o „protecție crescândă și transversală a drepturilor umanului”[2], deopotrivă ca principiu și obiect central al său, enunțat în art. 1.1 și pe această bază referința la respectarea drepturilor fundamentale participă, mai întâi, la definiția a mai multor concepte-cheie (precum cea, a contrario, a „riscului înalt” ori a celei explicite de „risc sistemic”). Apoi, atingerea drepturilor omului e un criteriu al posibilității de a modifica prin act delegat definiția „riscului înalt” ori chiar a listei sectoarelor de activitate de „înalt risc” din anexa III a AI Act. De asemenea, riscurile de atingere previzibilă a drepturilor fundamentale sunt în centrul obligațiilor ce se impun operatorilor care pun pe piață ori în serviciu sisteme de inteligență artificială (SIA) de înalt risc, care privesc aplicarea unui sistem de management al riscurilor, cercetarea prejudecăților în materie de guvernanță a datelor, instrucțiunile de uzaj a SIA ori obligația de a prezerva un control uman. În final, un articol special consacră în sarcina desfășurătorilor-utilizatorilor profesioniști ai anumitor sisteme de IA de înalt risc o analiză de impact în materie de drepturi fundamentale, completând în mod potențial analiza de impact în materie de protecție a datelor prevăzută de RGPD.

Astfel, drepturile fundamentale rămân un fundament comun al acțiunilor autorităților interguvernamentale, pentru o IA în serviciul umanului human-centric, indiferent că reglementarea/reglarea e dominată de norme de etică sau de drept.

4.1. Riscuri majore și preocupări juridice. În prima linie a preocupărilor se află riscurile pe care le prezintă utilizarea noilor tehnici de IA pentru drepturile umane fundamentale și care constituie, de altfel, cheia abordărilor de reglementare a problematicii în materie. Se invocă în acest sens mai ales amenințarea de diluare a semnificațiilor acestora, deopotrivă în privința formei și fondului lor. Referitor la prima, numeroasele instrumente normative suple, respectiv ansamblul recomandărilor, liniilor directoare, codurilor de conduită ș.a. se înscriu în perspectiva unei promovări a autoreglării actorilor, propunându-se o etică a IA cât mai complexă și mai adecvată, dar considerată ca suficientă până la exclusivă. S-a susținut, de altfel, un timp că numai soft law-ul ar permite o reglementare armonioasă, mai potrivită specificului și adecvată naturii acestei tehnologii emergente în plină afirmare. Totuși, analiza atentă a conținutului angajamentelor propuse ne arată adesea un amestec de genuri: un număr dintre ele reiau în realitate drepturi fundamentale consacrate și garantate. După cum e cunoscut, caracteristic normei etice e faptul de a fi o regulă de comportament fără sancțiune statală, pe care actorii ecuației și-o impun ei înșiși. Or, respectarea drepturilor umane fundamentale nu e una opțională, care nu trebuie niciodată să depindă exclusiv de voința subiecților în cauză, ținând în mod esențial de ecuația „contractului social”. Fără a mai lua în calcul că actorii în joc sunt în realitate cei mai puternici, adeseori singurii capabili să impună o normă de comportament, ceea ce complică și mai mult datele problemei. Desigur, dreptul „soft”, „mou” „flu” ș.a. prezintă un interes evident, ținând mai ales de aceea că regulile sale transnaționale sunt mai suple, dezlegate de orice procedură strictă și (mai) respectat, fiind acceptate de către părțile interesate. Dar privatizarea normelor, cu corolarul lor dezangajarea/neimplicarea statelor nu pare a fi de dorit și în orice caz nu oferă o perspectivă exclusivă și definitivă, dimpotrivă. De aici, dacă apelul la drepturile fundamentale poate fi prevăzut ca o întărire, prin confirmare, porozitatea normativă comportă astfel riscul de degradare a drepturilor fundamentale, lăsând a se considera că ele nu ar aparține unei zone de imperativitate. Ca regulă generală, norma etică trebuie să se articuleze cu regula legală și să nu i se substituie. Relația nu e de rivalitate, ci una de complementaritate. În această abordare, pe fond dacă drepturile fundamentale apar incontestabil ca un obiectiv partajat, critici au fost formulate în special împotriva preconizatului regulament al UE în materie ca neînțelegând decât în mod imperfect mizele fundamentaliste și parțial. Mai precis, unii analiști denunță absența garantării unei „IA demnă de încredere din punct de vedere juridic” și din perspectiva drepturilor fundamentale. Așa, de exemplu, dispozițiile relative la sistemele de IA de înalt risc nu oferă o protecție suficientă împotriva daunelor generate de inteligența artificială, inclusiv a violărilor drepturilor fundamentale. În afară de aceasta, practicile interzise (notația socială, manipularea comportamentelor, recunoașterea facială în spațiile publice ș.a.) sunt insuficient încadrate, în timp e altele, excluse clasificării propuse prezintă, de asemenea, riscuri importante. Este vorba în special de sistemele de recunoaștere a emoțiilor ori cele de categorisire biometrică la distanță în direct de către forțele de ordine care ar trebui a minima să fie considerate ca de înalt risc. S-ar putea replica desigur că atari neajunsuri ale reglementării unional-europene țin de însăși natura apartenenței sale la un drept centrat pe funcționarea pieței interioare și cu limite referitoare la perceperea și sesizarea dimensiunilor aferente drepturilor umane reflectate în viziunea promovată și conținutul aferent Cartei drepturilor fundamentale a UE. Prioritatea cvasiabsolută acordată asigurării securității juridice a inovației tehnologice absolute și majore adusă de IA se cuvine completată și chiar amendată cu primatul absolut și indiscutabil ce se cuvine recunoscut și garantat drepturilor fundamentale, valorilor societății democratice și reperelor statului de drept. Însă, relativa transparență și palida implicare a publicului, și acelea mai mult promise decât efectiv asigurate, sunt departe de a satisface imperativele procesului de acceptare socială și încadrare juridică a IA.

4.2. Necesitatea unui Habeas Corpus al IA? În abordarea onusiană, de departe cea mai general acceptabilă dintre toate cele existente, în pofida, poate, caracterului său considerat de unii oarecum idealist în raport cu mizele aflate în joc și cu diferențele de poziții exprimate, s-ar impune stabilirea unui cadru global de guvernanță al problematicii aferente IA. După ce în 2021 UNESCO a promovat primul cadru normativ mondial pentru etica inteligenței artificiale, adoptat în unanimitate de cele 193 state membre ale organizației, în continuarea sa, la 26 octombrie 2023 Secretarul general al ONU a lansat un comitet consultativ destinat să formuleze recomandări vizând o atare guvernanță internațională, o înțelegere și asumare partajate ale riscurilor și provocărilor aferente, precum și oportunitatea legată de realizarea Obiectivelor Dezvoltării Durabile (ODD), iar la 5 februarie 2024, la Krany (Slovenia) a fost adoptată de 8 giganți privați ai domeniului, sub egida UNESCO în cadrul procesului inițiat în 2021, o Cartă pentru a construi o etică a IA, cerându-se astfel o „veritabilă alianță mondială” în materie. În această viziune, principiile guvernanței în materie de IA ar trebui să se bazeze pe „Carta ONU și Declarația universală a drepturilor omului din 1948”, iar reflecția cuvenită, pe măsură ce sistemele respective devin tot mai performante și mai autonome, să se concentreze asupra modului de reglementare a conceperii și utilizării lor, în scopul de a le fundamenta pe valori umane și a preveni scăparea lor de sub controlul democratic, cu consecințe imprevizibile și ireparabile. În același timp, AI Safety Summit de la Londra din noiembrie 2023 a arătat o mișcare a statelor spre o reglementare crescândă a IA, în contextul în care se manifestă și mize globale, inclusiv geopolitice și chiar civilizațional existențiale. Cu această ocazie s-a înregistrat deja existența în lume a peste 1600 de politici publice și strategii în materie. Necesitatea unei reglementări și guvernanțe cât mai globale, comune, coordonate și mai respectate este evidentă. În același timp, nu pot fi ignorate nici revendicările de adaptare regională, cu soluții locale, în principiu „artizanale” a acestora. Ea e reclamată și de starea de lucruri existentă, care pare a trena, în timp ce tehnologiile în cauză se dezvoltă în ritm alert spre orizonturi de autonomizare a aplicațiilor IA și de scăpare de sub control uman. Un atare decalaj între reglementare și control, pe de o parte, și afirmare a tehnologiilor cu întregul lor cortegiu de riscuri e inacceptabil. De altfel, dilema dacă o ființă umană poate cu adevărat să dețină controlul de decizie a unei IA rămâne una fundamentală, încă în căutarea unui răspuns.

Într-adevăr, în planul faptelor multiplicarea surselor în domeniu pare, cel puțin la prima vedere, și deopotrivă în cel al sistematizării normative și în cel al sintezei ideatice, a genera impresia unei dispersii și inconsecvențe a inițiativelor și o slăbiciune a reacției juridice. La rândul său, foaia de parcurs normativă nu e în realitate decât aparentă. Dincolo de coordonarea formală între organizațiile interguvernamentale (prin aceea că, fiecare participă, cel mai adesea, în calitate de observator, la lucrările celuilalt), la care s-au adăugat, în ultima perioadă, reprezentanții sectorului privat, diferitele texte normative constituie, împreună, un tot pertinent care arată orientările unei reglementări a IA fără contradicții. Să reamintim, în acest sens, că instanțele în cauză evocă cele două axe de intervenție pertinente insistând mai mult pe piață (și pe conformare), iar pe drepturile fundamentale în considerarea mandatului lor complementar. De altfel, în lipsa unui instrument normativ internațional, pentru moment a fost instituită o instanță informală de armonizare a regulilor relative la inteligența artificială, respectiv Global Policy AI în vederea „atingerii de obiective comune prin cooperarea interguvernamentală privind IA”. Ideea este în mod evident aceea de a se propune un cadru de coordonare coerent pentru a securiza piața și a proteja drepturile indivizilor. În fața unor atari dileme asistăm la cristalizarea ideii necesității, elaborării și adoptării unui „Habeas Corpus al IA”[3]. La nivelul normativului etic propriu-zis, s-a ajuns deja, fie și numai cu caracter de recomandare deocamdată, la emiterea complementară a două perspective de abordare, exprimare și acțiune în materie, respectiv cea de poziționare interstatală (interguvernamentală) universală reprezentată de Rezoluția UNESCO din 7 noiembrie 2021 și Carta unei IA mai etice semnată de opt giganți privați ai tehnologiei aferente, dominanți pe piața specializată, la 5 februarie 2024 în Slovenia. În fine, deosebit de relevantă devine în materie inedita Convenție-cadru a Consiliului Europei privind inteligența artificială, drepturile omului, democrația și statul de drept din 17 mai 2024 „fondată pe normele CE și propice inovării”, cu o vocație mondială. Ea consacră obligația generală a statelor de a adopta și a asigura respectarea de către inteligența artificială a marilor principii, precum: demnitatea umană și autonomia individuală, transparență și control, obligația de a da seamă și responsabilitate, egalitate și nediscriminare, respectarea vieții private și protecția datelor cu caracter personal, prezervarea sănătății, fiabilitatea și încrederea, inovația sigură aplicabile tuturor sistemelor de IA. Sunt prevăzute, totodată, drepturi și garanții procedurale menite să asigure prin mecanisme adecvate aplicarea respectivelor reglementări și imperative.

Întrebările care se ridică și dilemele ce se manifestă în acest context sunt numeroase și își așteaptă grabnic răspunsurile cuvenite și rezolvările potrivite. Așa, de pildă, IA necesită un aggiornamento a drepturilor fundamentale? Acestea din urmă sunt solubile în prima? IA alienează ori activează drepturile umane? Întrucât modifică comportamentele și/sau contribuie la remodelarea societății inteligența artificială influențează în mod logic, deopotrivă, câmpul și substanța anumitor, dacă nu într-o anumită măsură și diverse forme toate drepturile fundamentale, până la a contribui la nașterea de noi drepturi. Invers, la rândul lor, drepturile omului inhibă anumite folosințe ale noilor utilizatori ori favorizează altele. Mai mult decât atât, ne putem pune problema dacă nu cumva IA ar ajunge la punctul disruptiv la care ar obliga chiar o rescriere și chiar o regândire a drepturilor fundamentale ori cel puțin la adoptarea unui habeas corpus specific? În această ultimă privință ideea e deja în germeni. Se pledează, de exemplu, pentru o „Convenție 108+IA”; în unele state s-au consacrat chiar drepturi fundamentale ale digitalului. Până la rezolvări tranșante sub spectru reglementar, noile adaptări și drepturi sunt chemate să survină și să se afirme cât mai plenar. Dar până atunci IA rămâne supusă mai ales corpusului reglementar existent, inclusiv în materia dreptului drepturilor omului, care poate constitui „dreptul IA”, așa cum există, imperfect și inadecvat, în așteptarea unui drept pentru o inteligență artificială, aplicabil acesteia și aplicațiilor sale, integrat dreptului global, ce se manifestă și se aplică pe planeta Terra.

În orice caz, din punct de vedere tehnic, în condițiile în care aplicațiile IA se caracterizează printr-o constantă și accelerată evoluție și reglementările aferente, indiferent de natura lor (etice, juridice, administrative, tehnice) care guvernează sistemele de IA și utilizatorii lor trebuie să fie polivalente și încontinuu aduse la zi, prin mecanisme adecvate spre a rămâne suficient de reactive. S-au avansat, în acest sens, propuneri de gestionare a fenomenului de genul sistemului de negocieri permanente și cadru instituțional-normativ general ce funcționează în privința schimbării climatice. O jurisprudență adecvată și orientată, alături de o doctrină sensibilă avansurilor tehnico-științifice și percutantă la impacturile juridice cuvenite ar putea completa în mod corespunzător arsenalul juridic aferent inteligenței artificiale.

Posibile concluzii. La capătul unor asemenea considerații privind implicarea reglementării în dezvoltarea IA și rolul dreptului în guvernarea aplicațiilor sale se impun o serie de concluzii relevante. Marea „revoluție” științifico-tehnologică la care asistăm presupune și o profundă transformare a mijloacelor de reglementare și ipostazelor de exprimare, în primul rând juridice. Guvernanța pe care o implică astfel inteligența artificială trebuie să pornească de la înlăturarea a două mai prejudecăți ce par a se fi insinuat nu în mod dezinteresat. Prima, privește o așa-zisă inadecvare a dreptului față de ineditul problematicii noilor tehnologii, reflectată prin o pretinsă incapacitate a sa de a percepe și de a putea guverna desfășurarea acestora în societate. Nimic mai neadevărat! Dincolo de orice dreptul își păstrează și față de asemenea provocări calitatea de indispensabil regulator, de data aceasta al „inteligenței” umane în raporturile cu prelungirile sale artificiale. Apoi IA și aplicațiile sale au efecte majore duale și, ca atare, se cuvine nu numai a le încuraja, stimula și favoriza dezvoltarea, dar a și ne proteja și deci de a fi reglementate într-un mod cerut de interesul general și cu participarea cuvenită a tuturor părților interesate, în afara oricărui conflict de interese. Indiferent de dinamica mai lentă a cadrului juridic în raport cu ritmul impetuos al evoluției și promovării tehnologiilor există întotdeauna și poate acționa ansamblul dreptului pozitiv în vigoare, „luminile” judecătorului și jurisprudența sa și perspicacitatea doctrinarului și creația sa juridică menite să ofere răspunsuri adecvate la problemele acute, până la intervenția reglementării potrivite și pe deplin eficiente. În privința posibilului decalaj între ritmul accelerat de afirmare a IA și lentoarea intrinsecă reglementării juridice se pot găsi formule de adaptare și compatibilizare între nevoia social-tehnică și capacitatea dreptului de a se implica eficient în problemă. După aceea, la fel de neîntemeiată este și teama că nu ar exista o articulare suficientă și pertinentă cu economia și inovația tehnologică, fiind de domeniul evidenței că, bine croită și înțelept aplicată, regula de drept nu constituie un obstacol în calea afirmării lor ci, dimpotrivă, rămâne un instrument indispensabil în asigurarea securității juridice a actorilor și mizelor IA în  gestionarea pieței aferente. Cerințele imperativului reglementării adecvate și suficiente țin atât de competitivitatea economică, exigențele unei societăți democratice și respectarea drepturilor umane, de suveranitate, cât și de concurența normativă și configurația și poziționările geopolitice inevitabile domeniului. Revine politicului ca, pe cale juridică, să fixeze punctul de echilibru între cele două aspecte ale primei ecuații ce se manifestă și care uneori pot să devină chiar contradictorii, pe de o parte, creșterea economică și progresul tehnic, pe de alta, drepturile individuale, valorile democratice și imperativele statului de drept. Este de domeniul evidenței că IA oferă extraordinare oportunități de creștere, însă expune în același timp individul la riscuri multiple și impactează major raporturile sociale. Pentru reglarea și reglementarea unor atari provocări etica e un instrument important, dar insuficient. Așa cum s-a arătat, specific normei etice e a fi o normă de comportament general fără sancțiune statală, pe care actorii o impun lor înșiși, dar respectarea drepturilor fundamentale și a cadrului democratic societal nu e opțională și nu trebuie să depindă de voința actorilor implicați și profund interesați. Dimpotrivă, norma etică se impune a se articula cu regula legală, nu să i se substituie, cu atât mai mult cu cât între ele nu există concurență, rivalitate, ci convergență de perspectivă și complementaritate de acțiune. Anunțarea ChatGPT (2022) și prefigurarea stadiilor următoare reprezentate de IA generalizată (AGI) ori chiar de superinteligența artificială (SIA) au generat o veritabilă febră a reglementărilor voluntare, etice sau juridice. Dacă la începuturi cadrul reglementar s-a configurat ca unul al supleței normative, exprimat prin instrumente de soft law, favorizând mai degrabă o etică, o conformare voluntară, orientarea a evoluat rapid spre o mai mare juridicitate, atât la nivel unional-european prin AI Act (2024), cât și la cel internațional, în cadrul Consiliului Europei (CE) și al ONU. Pe conținut asistăm la o dublă perspectivă de abordare și evoluție: în timp ce UNESCO și CE insistă mai ales pe elementul fundamentalist (drepturile umane, democrație, stat de drept), măsurile preconizate și promovate în documentele OCDE și UE privilegiază chestiunile de securizare a pieței și de stimulare a inovației. De asemenea, pentru început prioritară e vizată zona drepturilor fundamentale, a căror protecție are ca obiectiv o IA demnă de încredere din punct de vedere juridic. Calea reglementării prin drept a fost deschisă și e favorizată prin rezoluția Adunării Generale a ONU din 21 martie 2024 Sesizarea posibilităților oferite de sistemele de inteligență artificială sigure, securizate și demne de încredere pentru dezvoltarea durabilă și prefigurate prin Convenția-cadru a CE privind inteligența artificială, drepturile omului, democrația și statul de drept (17 mai 2024), care prefigurează reperele unui drept internațional general în materie.

În același timp, reacțiile marilor giganți în materie care tind a se afirma ca puteri economice în concurență cu statele, generează o influență din ce în ce mai consistentă asupra reglementării, perceptibilă deopotrivă în privința fondului și formei acesteia și îi acreditează întocmai ca și contributori la și beneficiari ai normei de drept. Este o altă particularitate care marchează procesul de reliefare reglementară a fenomenului inteligenței artificiale și-l afiliază procesului de constituire ca drept global într-o materie dată. În același timp devin interesante influențele și determinațiile aferente fenomenului juridic ca atare și mai ales în privința viitorului său. Într-o variantă a unor evoluții moderate și a păstrării IA la statutul de unealtă de acțiune a umanității, juridic se va impune formula unui drept global al inteligenței artificiale. Începând cu și dincolo de AGI e posibil și fezabil să asistăm la un transjuridism cu perspective mai puțin clare, dar în orice caz revoluționare în însăși substanța și natura reglementării. Din punctul de vedere al manierei generale de abordare se favorizează, prin forța lucrurilor, formula unor acte globale cadru, care să ofere suplețea necesară domeniului și mecanismele de completare și actualizare permanentă, în ritmul de evoluție a problemelor pe calea actelor adiționale. Totodată, după modelul schimbării climatice s-a emis și ideea instituirii unui Grup interguvernamental pentru problemele IA, compus din experți, reprezentanți ai autorității statale, ai giganților tehnologici și ai societății civile care să ofere cunoștințele și concluziile necesare progresului tehnico-reglementar. O conferință a Părților la tratatul-cadru de bază ar putea gestiona negocierile permanente care să conducă la adoptarea continuă de reglementări adecvate, actualizate și operative. Sunt așteptate cu deosebit interes și primele reacții la nivelul constituțiilor și/sau cel al jurisprudenței constituționale. Până la atari evoluții decisive, cel mai probabil se va recurge la soluția stabilirii de măsuri aplicate, „de la caz la caz”, respectiv la problemele punctuale specifice diferitelor domenii și aspecte supuse reglementării. Mai precis, se consideră că întrucât problemele ridicate pot diferi de la un obiect de reglementare la altul, cea mai potrivită cale de operare ar fi aceea de a efectua evaluări de impact asupra drepturilor umane și a cadrului democratic societal pentru fiecare act normativ, politică sau strategie publice pertinente.

O etapă pe cale deja a fi depășită, de pregătire a reacției juridice complete, adecvate și sistematice – reglementară, jurisprudențială și doctrinară – la marile provocări ale inteligenței artificiale care tinde a se generaliza.

[1] A. Beelen, Ph. Dambly, (R)Evolution de l’intelligence Artificielle. Vers un cadre juridique et technique de l’IA, lucr. cit., p. 246.

[2] J. Sénéchal, L’AI Act dans sa version finale – provisoire –, une hydre à trois têtes, Dalloz Actualité, 11 mars 2024.

[3] A. Bensamoun, Vers un droit de l’intelligence artificielle fondamentaliste?, în: V. Barbé, St. Mauclair (dir.), „Intelligence artificielle et droits fondamentaux”, Editions L’Epitage, Paris, 2022, p. 15-16.

Cuvinte cheie:
Citește articolul complet în platforma de documentare juridică Sintact.ro! Solicită un cont demo gratuit completând formularul de mai jos: