Probleme și dileme privind necesitatea, oportunitatea și posibile dimensiuni ale regimului juridic al răspunderii civile privind inteligența artificială
Editoriale Anul 2025ABSTRACT
The European model for regulating artificial intelligence (AI), prefigured by the adoption, in 2024, of two founding legal texts – Regulation (EU) of 13 June laying down harmonised rules and, respectively, the Council of Europe Framework Convention of 5 September on Artificial Intelligence and Human Rights, Democracy and the Rule of Law – and with a clear universal vocation, laid the foundations of artificial intelligence law (AIL) as a new branch of the legal system and a novel scientific discipline. The initial draft also provided for a representative (special) law component of civil liability in the field of AI through two proposals for directives of 28 September 2022: one on product liability (now Directive 2024/2853) and another on civil liability for AI (withdrawn on 10 February 2025). Thus initiated and left unfinished, the EU regulatory approach relaunches and fuels the dilemma on the necessity, opportunity and possible dimensions of a legal regime for liability and compensation for damages caused by the use of AI, a central element justifying the establishment and expressing the specificity of the AIL. Clearly, the abandonment of the draft directive on civil liability in the field of AI did not take place for legal reasons, but some of them are exclusively related to political-economic conjunctures and are part of the perspective of geostrategic self-interested contestation of the regulatory model of the development of new technologies, and overcoming the “critical moment” will require the resumption of the legislative process. The assessment of the opportunity and possible content of such a special legislative act starts from the role of EU law in arranging and harmonizing the rules of civil liability in line with the specificity of the Community legal order, their particularization to the requirements of ensuring the internal market and promoting technological innovation, defending fundamental rights and the values of democracy and the rule of law. Thus, a “third kind of liability” is affirmed, derogating from the regulation of tort civil liability in civil law, an expression of a special law of civil liability in the field of AI, a normative nuance of the common law law, in full affirmation and constitution of its own specificity.
Keywords: civil liability; AI Act; fault liability; defective products; AI liability; AI law; civil code.
REZUMAT
Modelul european de reglementare a inteligenței artificiale (IA), prefigurat prin adoptarea, în 2024, a două texte juridice fondatoare – Regulamentul (UE) din 13 iunie de stabilire a unor norme armonizate și, respectiv, Convenția-cadru a Consiliului Europei, din 5 septembrie privind inteligența artificială și drepturile omului, democrația și statul de drept – și cu evidentă vocație universală, a pus bazele dreptului inteligenței artificiale (DIA) ca nouă ramură a sistemului juridic și inedită disciplină științifică. Proiectul inițial prevedea și o reprezentativă componentă de drept (special) al răspunderii civile în materie de IA prin două propuneri de directivă din 28 septembrie 2022: una privind răspunderea pentru produsele cu defecte (devenită Directiva nr. 2024/2853) și o alta referitoare la răspunderea civilă privind IA (retrasă la 10 februarie 2025). Astfel inițiat și rămas neterminat, demersul reglementar unional-european relansează și alimentează dilema asupra necesității, oportunității și dimensiunilor posibile ale unui regim juridic de răspundere și reparare a daunelor provocate de utilizarea IA, un element central de justificare a constituirii și de exprimare a specificității DIA. În mod evident, abandonarea proiectului de directivă privind răspunderea civilă în domeniul IA nu a avut loc din rațiuni juridice, ci din unele ținând exclusiv de conjuncturi politico-economice și se înscrie perspectivei contestării interesate geostrategice a modelului reglementar al dezvoltării noilor tehnologii, iar depășirea „momentului critic” va impune reluarea procesului legislativ. Aprecierea oportunității și a posibilului conținut al unui atare act legislativ special pornește de la rolul dreptului UE de amenajare și de armonizare a regulilor răspunderii civile în consonanță cu specificul ordinii juridice comunitare, particularizarea lor la exigențele asigurării pieței interioare și promovării inovației tehnologice, apărării drepturilor fundamentale și a valorilor democrației și statului de drept. Se afirmă astfel o „răspundere de al treilea tip”, derogatorie de reglementare a răspunderii civile delictuale din dreptul civil, expresie a unui drept special al răspunderii civile în domeniul IA, o nuanțare normativă a celei de drept comun, aflată în plină afirmare și constituire a specificității proprii.
Keywords: Răspundere civil, AI Act, răspundere pentru culpă, lucruri cu defecte, răspundere pentru IA, dreptul AI, Cod civil.
Considerații introductive. În condițiile accelerării tranziției digitale a societății, dreptul își asumă inedite obiecte de reglementare (precum datele, inteligența artificială ori riscurile cyber) și implică noi actori, ca, de exemplu, platformele. În acest timp și pentru moment, dreptul civil, mai conservator, prin structura sa, rămâne relativ indiferent la atari evoluții. Codurile civile nu au perceput mediul digital decât în mod marginal, de pildă, prin încheierea contractelor pe cale electronică. Dacă marile noțiuni de drept civil se pot limita la a reacționa sporadic la progresul digital, multiplicarea regulilor speciale (active digitale, contracte de furnitură de conținuturi digitale, regimuri speciale de răspundere etc.) și evoluția vulnerabilității persoanelor fizice, a practicilor contractuale ori a compoziției patrimoniilor la contactul cu acest mediu, invită la a reflecta asupra insuficiențelor și a posibilelor sale renovări mai ales în contextul general al limitărilor de acțiune aferente perspectivelor de constituire a dreptului UE pertinent. Cele mai mari provocări le generează, în acest context, afirmarea inteligenței artificiale (IA), aflată în plină expansiune, deopotrivă tehnologică și economico-socială. Este necesară consacrarea unui regim de răspundere din fapta/pentru inteligenței artificiale? Răspunsul cunoaște variante și nuanțări și ține de justificări deopotrivă tehnico-științifice, economice și juridice. Cu titlu preliminar, se menționează faptul indubitabil că problema inteligenței artificiale și a eventualei răspunderi asociate acesteia se înscriu în cadrul mai larg al dezvoltării unei economii și chiar a unei societăți digitale, ceea ce implică, pe cât posibil, și o abordare de anvergură internațională, dacă nu mondială, declinată apoi în contexte de sisteme de drept și tradiții naționale. Pentru statele membre ale UE, inclusiv România, se adaugă implicațiile apartenenței lor la o entitate economică și politică și la un sistem legislativ care a înțeles să stabilească norme armonizate, pe cale de regulament, act legislativ care se aplică direct și cu caracter uniform în toate țările Uniunii. În plus, Convenția-cadru a Consiliului Europei privind inteligența artificială și drepturile omului, democrația și statul de drept (Vilnius, 5 septembrie 2024)[1] și Regulamentul (UE) nr. 2024/1689 din 13 iunie 2024, de stabilire a unor norme armonizate privind inteligența artificială (AI Act sau RIA) sunt considerate elemente integrate ale unei abordări normative (în primul rând continentale) a IA, cu angajamente coerente și care se consolidează reciproc, dispuse la mai multe niveluri. Acesta din urmă, deși nu tratează în mod direct problema răspunderii civile din fapta IA, prezintă o legătură indirectă cu aceasta, întrucât edictează un anumit număr de obligații în sarcina actorilor IA, a căror nerespectare e de natură să angajeze o atare răspundere. Din această perspectivă, dacă s-a respins de plano o reglementare națională a răspunderii legate de IA ca inadecvată și neavenită, cel puțin pentru acest moment, referitor la instituirea unui regim paneuropean, dezvoltat la nivelul Uniunii Europene, după modelul răspunderii pentru produsele cu defecte, punctele de vedere rămân mai diverse și mai nuanțate. Se contura deja perspectiva civiliștilor francezi, de exemplu, de a considera că, chiar plasată la nivel cvasicontinental, mai degrabă decât național, introducerea unui regim de răspundere pentru fapta inteligenței artificiale nu se impunea ca unul nici necesar și nici chiar posibil. Așa se face că, deși la început, în 2022, s-a inițiat și propunerea unional-europeană de instituire a unei directive (UE) speciale în materie, în tandem cu cea privind răspunderea pentru produsele cu defecte, în cele din urmă, dar din rațiuni diferite de considerente juridice, ținând mai ales de cerința simplificării reglementar-administrative sub impulsul imperativului competitivității economice, programul de lucru al Comisiei Europene pentru 2025, publicat la 11 februarie 2025, arată că respectivul text a fost retras, fără un acord previzibil. La acest stadiu, ea a indicat că va evalua dacă o altă propunere va trebui să fie depusă ori un alt tip de abordare se va impune a fi adoptat[2]. Tocmai în asemenea condiții, discuțiile și disputele asupra necesității și formulării unui regim special de răspundere în privința IA rămân de actualitate, se relansează și prezintă un sporit interes, chiar dacă întâmpină puternice rezistențe din diverse direcții și de naturi diferite. Radicalitatea transformărilor și ineditul situațiilor pe care le generează revoluția IA în planul dreptului răspunderii, inclusiv în dimensiunea sa tradițională „civilă”, rapiditatea și amploarea manifestărilor sale justifică urgența și reclamă profunzimea cuvenită analizelor, soluțiilor rezultate și eventualelor propuneri pertinente aferente.
1. Aplicarea dreptului pozitiv al răspunderii civile. Reglementările de drept pozitiv în vigoare și jurisprudența aferentă propun deja soluții considerate ca relativ satisfăcătoare atunci când se aplică inteligenței artificiale, cel puțin pentru nivelul actual de dezvoltare a noilor tehnologii și a implicațiilor lor prin intermediul regimurilor de reparație preexistente, dar care nu au fost concepute în mod special pentru a trata daunele cauzate de IA. Într-adevăr, după adoptarea Codului civil al lui Napoleon I (1804) și, conform modelului său a altora în numeroase țări, inclusiv la noi (1864) în parte, mai ales sub influența dreptului UE, în ultimele decenii, dar și din cauza dificultăților practice evidențiate în anumite tipuri de contencios, s-au instituit regimuri specifice de răspundere derogatorii de la cel general și concepute pentru a facilita indemnizarea victimelor. Este, în special, pentru dreptul francez, cazul accidentelor de circulație, domeniul vizat prin dezvoltarea vehiculelor autonome și într-un plan mai general, cel în materie de produse cu defecte. Într-adevăr, în Franța, printr-o lege din 5 iulie 1985 (nr. 85-677) ce tindea la ameliorarea situației victimelor accidentelor de circulație și la accelerarea procedurilor de indemnizare, a fost adoptat în fața constatărilor dificultăților practice suscitate de aplicarea prevederilor clasice ale răspunderii pentru fapta lucrurilor, un regim special ce privește și vehiculele (semi) autonome[3]. A urmat apoi răspunderea din fapta produselor cu defecte, fondată pe transpunerea Directivei nr. 85/374/CEE din 25 iulie 1985, care permitea angajarea răspunderii producătorului tehnologiei cu defecte și nu a persoanei utilizatorului. Riscul de dezvoltare constituie, totuși, o cauză de exonerare, chiar dacă arareori aplicată în practică, în ipoteza în care, la momentul în care producătorul a introdus pe piață marfa, starea cunoștințelor științifice și tehnice n-a permis decelarea existenței defectului. Dilema care s-a ridicat și a rezistat în timp se referea la faptul dacă se putea vorbi de „produs” în materie de IA. Chestiunea aplicabilității răspunderii pentru (fapta) produselor cu defecte la softuri a fost dezbătută în doctrină și, dacă în cartea sa verde privind responsabilitatea în domeniu Comisia Europeană nu se referea decât la mobile corporale, dimpotrivă în Franța, printr-un document orientativ al Ministerului Justiției din 24 august 1998, se considera că același text comunitar se aplică și în materie de software[4]. Aceste ambiguități au fost lămurite prin directiva pertinentă din 2024.
Confruntat cu o tehnologie foarte inovatoare, chiar de ruptură și în constantă evoluție, dreptul răspunderii civile tinde să caute, în această privință, un punct de echilibru între două imperative diferite, până la antagonism: pe de o parte, să protejeze în mod suficient victimele potențiale ale IA, iar, pe de alta, să nu împiedice inovarea, aflată într-o dezvoltare concurențială mondială și decisivă. Dacă sistemele de IA „materializate” sunt încorporate într-un obiect de aceeași natură (roboți chirurgicali, vehicule autonome etc.), altele sunt lipsite de orice suport fizic și rămân pur imateriale (agenții conversaționali, SIA utilizate în sectorul bancar și financiar, pentru realizarea investițiilor ori evaluarea capacităților de împrumut a clienților). Or, regimul răspunderii civile, în formula sa clasică, ca și dezvoltările de până acum, care nu a fost gândit pentru a se ocupa de „nelegiuirile” imaterialului pur e, a priori, prost „înarmat” pentru a trata daunele cauzate de SIA dematerializate. Așa se face că, victimele respective se confruntă cu obstacole probatorii, deopotrivă considerabile și inedite. Mai întâi, marele număr de participanți la elaborarea unui sistem de IA (conceptorul algoritmului, programatorul care îl implementează, data scientist-ul care gerează datele, antrenorul de IA care concepe și supervizează procesul de învățare etc.) complică identificarea responsabilului(-lor). Apoi, mai ales caracterele proprii ale SIA contemporane sunt de natură de a plasa victimele într-o situație de cvasi neputință de a le proba. Ele țin de particularitățile modelelor de inteligență artificială astăzi dominante, zise „conexioniste” sau „neuronale” și se exprimă printr-o autonomie și opacitate funcționale, ceea ce face deosebit de dificilă pentru victime probarea faptului generator și a legăturii sale de cauzalitate cu dauna astfel produsă[5].
Pentru confruntarea cu atari provocări, drepturile naționale au optat să privilegieze o abordare prudentă, pragmatică și progresivă. Într-o primă fază, se face apel la resursele oferite de dreptul pozitiv, limitându-se, pentru indemnizarea daunelor cauzate de IA, la utilizarea regimurilor de reparație deja existente. Desigur, față de dificultățile cu totul inedite pe care le ridică IA se impune efectuarea anumitor amenajamente ale acestora, spre a permite tratarea prejudiciilor IA. Pentru moment, numai răspunderea pentru lucrurile cu defecte a făcut obiectul unui efort legislativ de adaptare la particularitățile IA, fără a fi însă suficient pentru amploarea problematicii aferente. În puține cazuri, precum în cel al Coreei de Sud și Braziliei, au fost avansate proiecte de legi speciale privind răspunderea civilă în domeniul IA, iar în altele (Venezuela, China) sunt consacrate capitole speciale în (proiectele) legilor generale privind IA[6].
1.1. Situația din dreptul român. Nu există, nici în dreptul român, un regim de reparare propriu daunelor cauzate de IA; ca urmare, victimele unui atare prejudiciu trebuie să-și întemeieze cererea de despăgubire pe regimurile preexistente, al căror prim obiect nu e acela de a trata daunele provocate de această nouă tehnologie. În mozaicul acestor reglementări în vigoare, mai multe pot, în diverse grade, să servească la indemnizarea daunelor ocazionate de IA. Unele au vocația de a juca un rol principal, în timp ce altele nu pot pretinde decât unul secundar, subsidiar. Unul dintre acestea ocupă un loc important în repararea prejudiciilor cauzate de IA, întrucât apare mai eficient decât altele în indemnizarea victimelor acestei tehnologii. Este vorba de răspunderea pentru produsele cu defecte, care poate, a priori, servi în acest scop. El transcende distincția dintre răspunderea contractuală și cea delictuală, prin aceea că se aplică oricărei victime, fie ca terț ori precum cocontractant, are un caracter exclusiv ori cvasiexclusiv în sensul că, odată ce condițiile de aplicare sunt reunite, se înlătură aplicarea oricăror altor regimuri, sau cel puțin unele dintre ele. În fine, e vorba de un regim de răspundere obiectivă, „de plin drept”. Celelalte regimuri de reparație existente pot, cu titlu secundar, la rândul lor, servi la indemnizarea victimelor IA. Se implică, mai întâi, regimul de răspundere de drept comun, care posedă o vocație subsidiară generală, el reprezentând ultima resursă a victimelor care nu dispun de o altă cale de drept pentru a obține satisfacție: răspunderea delictuală bazată pe culpă, răspunderea pentru fapta lucrurilor și răspunderea contractuală.
În această perspectivă se aplică, prin particularizarea la datele domeniului, regulile generale ale Codului civil român privind răspunderea civilă contractuală și, respectiv, cea delictuală. Aceasta din urmă prezintă, conform art. 1349 C. civ. trei forme de manifestare: răspunderea pentru fapta proprie (bazată pe culpă), răspunderea pentru fapta altuia (părinți pentru copii, comitenți pentru prepuși) și răspunderea pentru fapta lucrurilor ori animalelor aflate sub paza sa, precum și pentru ruina edificiului, toate comportând rezonanțe mai mult sau mai puțin ample și în privința IA. Alineatul (4) al articolului prevede expres că „Răspunderea pentru prejudiciile cauzate de produsele cu defecte se stabilește prin lege specială”, aceasta din urmă, la momentul de față, face obiectul Legii nr. 240 din 7 iunie 2004 privind răspunderea producătorilor pentru pagubele generate de produsele cu defecte (republicată)[7]. Totodată, prevederile art. 1387 din Codul civil reglementează repararea prejudiciului în caz de vătămare a integrității corporale sau a sănătății unei persoane, iar răspunderea pentru culpă medicală, posibil a fi pertinentă și în privința IA, cunoaște reguli specifice, stabilite prin legislația specială.
În doctrina de drept comparat, precum cea franceză, s-a considerat că în absența unei distincții între lucrurile corporale și cele incorporale legea are vocația să se aplice și softurilor[8]. Un progres reglementar important s-a înregistrat prin adoptarea Directivei (UE) nr. 2024/2853 din 23 octombrie 2024 privind răspunderea pentru produsele cu defecte.
2. AI Act și problematica răspunderii civile în domeniul IA. În virtutea naturii sale juridice, AI Act se aplică direct și pe deplin în drepturile naționale ale statelor membre. Potrivit considerentului 1 al Preambulului său, obiectivul lui e unul dublu: pe de o parte, promovarea inovării și ameliorarea funcționării pieței interioare, iar pe de alta, protejarea indivizilor contra efectelor negative ale utilizării sistemelor de IA. Respectivul regulament, care „nu aduce atingere normelor prevăzute de alte acte juridice ale Uniunii referitoare la protecția consumatorilor și la siguranța produselor” [art. 2 alin. (9)], angajează un mare număr de persoane legate de utilizarea unui sistem de IA. În particular, furnizorul, entitatea responsabilă cu aplicarea, importatorul, fabricantul, reprezentantul autorizat al furnizorilor (nestabiliți într-un stat membru al UE) și persoanele vizate situate în UE constituie câmpul de aplicare subiectiv al RIA [art. 2 alin. (1)]. Cel obiectiv e format din diferitele sisteme de IA și utilizarea lor în domeniul relevant al ariei de aplicare a legislației UE [art. 2 alin. (3)]. În ceea ce privește natura eventualelor prejudicii rezultând din utilizarea IA, acestea pot fi, potrivit considerentului 5, materiale sau morale, inclusiv de natură fizică, psihologică, societală sau economică. La nivel reglementar, art. 16 impune o serie de obligații pentru furnizorii de sisteme de IA cu grad ridicat de risc (vizând diferite categorii), în special obligația de a se conforma exigențelor de conformitate prevăzute expres de regulament (în secțiunea II), precum cele de instituire a unui sistem de management al calității, păstrarea evidențelor, transparența și informarea, concepția adecvată care să permită supervizarea umană, precizia, robustețea, securitatea cibernetică.
Referitor la problematica răspunderii în general (nu numai cea civilă) în raport cu conținutul actului legislativ, mai întâi în considerentul 79 se indică faptul că se cuvine să se atribuie responsabilitatea pentru introducerea pe piață sau punerea în funcțiune a unui sistem de IA cu grad ridicat de risc unei anumite persoane fizice sau juridice, definită drept furnizor, indiferent dacă aceasta e persoana care a proiectat sau a dezvoltat sistemul. Pentru persoanele responsabile, această responsabilitate constă în aceea de a lua măsurile corective necesare, după caz, pentru stabilirea sistemului în conformitate, a retrage, dezactiva ori să invoce sistemul respectiv, în timp ce art. 85 și 86 prevăd drepturile individuale de a depune o plângere pe lângă o autoritate de supraveghere a pieței și de a fi informat/a i se explica în privința rolului sistemelor de inteligență artificială (SIA) în procesul decizional. De altfel, art. 99, intitulat „Sancțiuni”, prevede la alin. (4) că nerespectarea de către persoanele responsabile a obligației de a asigura respectarea exigențelor de conformitate specifice (prevăzute la art. 16, 22, 23, 24, 26, 31, 33, 34, 50) „face obiectul unor amenzi administrative de până la 15 milioane euro sau, în cazul în care autorul infracțiunii este o întreprindere, de până la 3% din cifra de afaceri mondială totală anuală pentru exercițiul financiar precedent, luându-se în considerare valoarea cea mai mare dintre acestea”. Sancțiunile prevăzute de RIA sunt de natură administrativă. Din această perspectivă, problema care se ridică e aceea de a ști dacă exigențele individuale de conformitate reglementară pot să fie considerate ca având un efect normativ asupra dreptului răspunderii civile, de exemplu în „clarificarea” și specificarea îndatoririlor (obligațiilor) de diligență în materie de răspundere contractuală și extracontractuală. Introducerea în ordinea juridică internă a statelor membre ale UE a anumitor reguli privind punerea în aplicare a RIA, în special pentru desemnarea autorităților naționale competente (cel puțin o autoritate de notificare și cel puțin una de supraveghere a pieței), care pot oferi orientări și consiliere în acest sens și să ia măsuri corespunzătoare pentru a asigura un nivel de securitate cibernetică adecvat (art. 70 din Regulament), prezintă rezonanțe și în materie de răspundere. Mai mult decât atât, conform art. 99 alin. (1) statele membre stabilesc normele privind sancțiunile și alte măsuri de aplicare a legii, care pot include, de asemenea, avertismente și măsuri nemonetare. De remarcat și „efectul Bruxelles” al regulamentului, care s-ar putea produce și în privința raportării reglementărilor sale în planul dreptului răspunderii civile, cum s-a întâmplat în privința Chinei, unde clasificarea riscurilor introdusă de AI Act a fost preluată ca referință de practica judiciară din această țară și se așteaptă ca preconizata lege națională privind IA să o asimileze în ceea ce privește dreptul pozitiv pertinent[9].
3. Răspunderea pentru produsele digitale cu defecte, în condițiile Directivei (UE) nr. 2024/2853
3.1. Extinderea răspunderii pentru produse cu defecte la softuri și la digital
3.1.1. Produsele vizate de directivă. În termenii Directivei nr. 85/374/CEE de apropiere a actelor cu putere de lege și a actelor normative ale statelor membre cu privire la răspunderea pentru produsele cu defecte, produs înseamnă „orice bun mobil, cu excepția produselor agricole primare și a vânatului, chiar în cazul în care sunt încorporate într-un alt bun mobil sau imobil”. Evaluarea aplicării acestui text de către Comisie, în 2018 arăta faptul că, în practică, 53% din plângerile aferente priveau materii prime (21%), produse farmaceutice (16%) și vehicule (15%). Doctrina și jurisprudența (practica) din statele membre au statuat că, în absența unei distincții între lucrurile corporale și incorporale, legea avea vocația să se aplice și softurilor. Aceeași analiză releva și că 18 state membre nu stabiliseră nicio formă de răspundere extra contractuală pentru a proteja consumatorii de daunele ce rezultă din defecțiunile softurilor.
Directiva (UE) nr. 2024/2853 integrează, în mod explicit, software-ul în câmpul său de aplicare, față de împrejurarea că în era digitală acesta „poate fi introdus pe piață ca produs de sine stătător și ulterior poate fi integrat în alte produse drept componentă, putând provoca prejudicii în momentul operării sale” (considerentul 13). Termenul de produs desemnează „orice bun mobil, chiar dacă este integrat într-un alt bun mobil sau imobil ori dacă este interconectat cu acesta; aceasta include energia electrică, fișierele digitale de producție, materia primă și software-ul” (art. 4. pct. 1). Noțiunea de fabricant (care înlocuiește pe cea de producător utilizată anterior, deși în versiunea română s-a optat tot pentru producător) se referă la „dezvoltatorii sau producătorii de software, inclusiv furnizorii de sisteme de IA în înțelesul Regulamentului (UE) nr. 2024/1689 al Parlamentului European și al Consiliului, ar trebui să fie considerați fabricanți și tratați ca atare” (considerentul 13).
3.1.2. Conceptul de software încorporat sau interconectat. Domeniul de aplicare a directivei privește software-urile considerate ca produs în sine ori „autonom” (de exemplu, o aplicare teledescărcată asupra unui magazin de aplicații sau un soft instalat pe un calculator) al cărui defect ar fi susceptibil, în special echipamentul, să creeze o daună utilizatorului său. Ea ar fi indemnizabilă în sensul art. 6 al directivei (UE) nr. 2024/2853, cu condiția ca aplicația ori softul în cauză să nu fi fost integrate într-un produs, sau interconectat cu acesta de fabricant sau sub controlul său. Textul privește, de asemenea, softul ca o componentă al unui alt produs, în sensul art. 4 pct. 4 din directivă, adică înțeles ca orice element, fie material sau imaterial, orice materie primă sau orice serviciu conex, care e integrat într-un produs sau interconectat cu acesta. De menționat că termenul „integrat” utilizat în definiția de „component”, trebuie să fie considerat ca un simplu sinonim al celui de „încorporat”, care figurează în definiția de „produs”, în măsura în care versiunea engleză utilizează, indiferent de situație, termenul de „integrated”. Directiva citează în special ca exemple de servicii conexe: „furnizarea continuă de date privind traficul într-un sistem de navigație” (considerentul 17, exemplul 6, serviciu a priori interconectat cu produsul), sau un serviciu de control al temperaturii care monitorizează și reglează temperatura unui frigider inteligent (exemplul 7, serviciu a priori integrat în produs, considerentul 17). Textul art. 8 (1) paragraful 2 al directivei precizează că, atunci când softul e prevăzut ca o componentă, răspunderea producătorului (fabricantului) acoperă orice prejudiciu cauzat de o componentă defectă dacă aceasta a fost integrată într-un produs aflat sub controlul producătorului respectiv sau a fost interconectată cu acesta. Dimpotrivă, simplul fapt de a oferi posibilitatea tehnică a integrării sau a interconectării sau de a recomanda anumite mărci nu e suficient spre a crea un atare control (considerentul 18). În lipsa controlului fabricantului produsului, art. 8 (1) lit. b) enunță răspunderea producătorului unei componente defecte, în cazul în care aceasta a fost integrată într-un produs aflat sub controlul său sau interconectat cu aceasta și a cauzat defectarea produsului respectiv.
În fine, dacă nu ne găsim în niciuna dintre aceste situații (softul nu a fost integrat drept componentă al unui alt produs de către fabricantul produsului ori de cel al componentei), softul responsabil al daunei va trebui să fie considerat nu ca o componentă, ci ca un produs defect în întregime.
3.1.3. Cazul software liber. Directiva nr. 2024/2853 exclude din domeniul său de aplicare [art. 2 (2)] software-urile libere și cu sursă deschisă, în condițiile în care sunt dezvoltate sau furnizate în afara unei activități comerciale. O atare opțiune se explică prin dorința de a nu împiedica inovația ori cercetarea și prin constatarea că aceste softuri nu sunt, prin definiție, introduse pe piață. De ce o atare constatare? Dacă revenim cu atenție la textul art. 2 se poate observa că directiva se aplică produselor introduse pe piață sau puse în funcțiune după 9 decembrie 2026.
În înțelesul actului legislativ introducerea pe piață e „punerea la dispoziție pentru prima oară a unui produs pe piața Uniunii” (art. 4 pct. 8) care reprezintă „orice furnizare a unui produs pentru distribuție, consum sau utilizare în cursul unei activități comerciale, contra cost sau gratuit”. La rândul său, „punerea în funcțiune” înseamnă utilizarea pentru prima dată a unui produs în Uniune în cursul unei activități comerciale, contra cost sau gratuit, în condițiile în care produsul respectiv nu a fost introdus pe piață înainte de prima sa utilizare (art. 4 pct. 9), astfel „cum ar fi cazul ascensoarelor, al mașinilor sau al dispozitivelor medicale” (considerentul 26). În realitate, nu e atât un obiect de „software liber” care e exclus ci, mai degrabă, un context, respectiv „furnizarea de software liber și cu sursă deschisă către organizațiile non-profit” a priori necomerciale în afara cazului ca el să fie „furnizat în schimbul unui preț sau al datelor cu caracter personal utilizate altfel decât exclusiv pentru îmbunătățirea securității, compatibilității sau interoperabilității software-ului și, prin urmare, este furnizat în cadrul unei activități comerciale” (considerentul 14).
Dacă respectivele softuri sunt integrate precum componente ale unui produs în cadrul unei activități comerciale, fabricantul (producătorul) ar putea să fie ținut ca răspunzător de defectuozitatea produsului în cauză (considerentul 15).
3.2. Caracterul defectuos din perspectiva digitalului
3.2.1. Dimensiunea securității cibernetice. Articolul 7 din directivă prevede elementele caracterului defectuos, plasate inclusiv în contextul digital. Mai întâi, se precizează că un produs e considerat defect „atunci când nu oferă siguranța la care o persoană are dreptul să se aștepte sau care e prevăzut în dreptul Uniunii sau dreptul intern”. În privința software, se impune a face apel la Regulamentul (UE) 2024/2847 din 23 octombrie 2024 privind cerințele orizontale în materie de securitate cibernetică pentru produsele cu elemente digitale (Regulamentul privind reziliența cibernetică). Domeniul său de aplicare este deopotrivă apropiat și diferit de cel al directivei (UE) nr. 2024/2853. Referitor la primul aspect, e vorba de faptul că un produs cu elemente digitale e definit de regulament precum „un produs software sau hardware… pus pe piață în mod separat” și regăsim aici noțiunea de produs digital ori de componentă digitală. Un anumit număr de divergențe există, totuși, referitor la aceste noțiuni:
– dispozitivele medicale, în mod cert acoperite de directivă, sunt excluse din domeniul regulamentului, în măsura în care le sunt supuse unor exigențe de securitate specifice;
– în afară de aceasta, regulamentul presupune, în termenii art. 2 (1), ca utilizarea preconizată ori previzibilă în mod rezonabil a produsului să includă o conexiune de date, logică sau fizică, directă sau indirectă la un dispozitiv sau la o rețea, ceea ce nu e cerut de directivă;
– de altfel, potrivit art. 3 pct. 6 componenta trebuie, la rândul său, integrată într-un sistem informatic electronic (capabil să prelucreze, să stocheze sau să transmită date digitale) care poate să fie acoperit (ceea ce nu e precizat în directivă, la câmpul mai întins, dar ar fi în realitate în mod sistematic cazul unui soft).
Soluția de prelucrare a datelor la distanță a regulamentului pare, la rândul său, relativ similară serviciului conex al directivei, întrucât trebuie să fie necesară pentru cel puțin o funcționalitate a produsului. Cu titlu ilustrativ aceasta menționează o aplicație mobilă (produsul) care să necesite accesul la o bază de date furnizată de intermediarul unui serviciu (soluția) dezvoltat de fabricant. Se au în vedere, desigur, soluțiile de cloud, dar acestea nu sunt toate avute în vedere: directiva le vizează în măsura în care ele sunt necesare unei funcționalități dintr-un produs (de exemplu, dacă acestea permit controlul la distanță).
În concluzie, este vorba despre produsele digitale și cele materiale care comportă componente digitale acoperite de directivă în mod general defectuoase în caz de neconformitate cu regulamentul în măsura în care produsul e conectat. Referitor la soluțiile de prelucrare, ele nu vor trebui să fie defectuoase în caz de neconformitate cu regulamentul – vis-a-vis de fabricantul produsului – decât în măsura în care ele sunt dezvoltate sub răspunderea sa.
În concret, regulamentul (UE) 2024/2847 prevede exigențe esențiale în anexa sa nr. 1, relative la produs și la fabricant.
3.2.2. Alte precizări asupra noțiunii de defectuozitate. În afară de problema conformității cu textele aplicabile, art. 7 (2) al directivei (UE) nr. 2024/2853 impune luarea în considerare a tuturor circumstanțelor, printre care:
– prezentarea și caracteristicile produsului;
– utilizarea previzibilă în mod rezonabil a produsului;
– efectul pe care îl are asupra produsului capacitatea de a continua să învețe sau să dobândească noi caracteristici;
– efectul produselor utilizate împreună cu produsul în cauză, inclusiv prin interconectare;
– momentul în care produsul a fost introdus pe piață, pus în funcțiune sau a ieșit de sub controlul producătorului (fabricantului);
– cerințele pertinente în materie de securitate (inclusiv securitatea cibernetică);
– orice rechemare a produsului sau orice altă intervenție relevantă din partea unei autorități sau a unui operator economic legate de securitate;
– nevoile specifice ale grupurilor de utilizatori finali;
– în cazul unui produs al cărui scop este tocmai prevenirea pagubelor, orice situație în care acesta nu și-l îndeplinește.
Printre aceste circumstanțe, unele sunt gândite ori își găsesc o interpretare particulară în contextul digitalului. Astfel, interconexiunea dobândește sensul său deplin în contextul produselor conectate (Internet of Things – IoT), în special în domeniul domoticii, dar, de asemenea, de exemplu, cel al dispozitivelor medicale conectate la softuri de telesupraveghere. Efectul capacității de învățare pare, la rândul lui, în mod intrinsec legat de inteligența artificială. La fel, noțiunea de „moment la care produsul a ieșit de sub controlul fabricantului” sugerează o raportare la soft, așa cum se subliniază în considerentul 50 al directivei.
3.2.3. Răspunderea fabricantului produsului sau componentei defectuoase. Așadar, directiva de față vizează organizarea regimului de răspundere a operatorilor în legătură cu daunele aduse persoanelor fizice, adică prejudiciile corporale sau psihologice și pagubele provocate bunurilor sau datelor în afara cadrului profesional. Din acest punct de vedere, domotica și televiziunile nu sunt cele mai bune cazuri de studiu, în timp ce autovehiculele, dispozitivele medicale, avioanele apar drept cele mai bune exemple. Să ne amintim, în special, că, în 2018, un soft firmware legat pacemaker-ului societății Abbot a trebuit să facă obiectul unei actualizări de securitate din cauza unei falii, ce permitea modificarea parametrilor pertinenți.
Pentru un produs digital sau integrat digital recunoscute ca defectuoase și care nu au implicat asemenea daune, chestiunea răspunderii este tratată prin prevederile art. 8 și 12 din directiva (UE) nr. 2024/2853. Ele prevăd astfel răspunderea a numeroși actori:
– în primul rând, a fabricantului produsului cu defect care a cauzat dauna, inclusiv pentru componentele integrate ori interconectate sub controlul său. Modificarea substanțială a produsului de un terț (inclusiv prin actualizare și modernizare), urmată de o introducere pe piață sau punere în funcțiune face din el un fabricant;
– în al doilea rând, fabricantul componentei care a cauzat defectul și s-a integrat sau interconectat sub controlul său;
– în al treilea rând și, după caz, importatorul, reprezentantul, prestatorul de servicii de executare a comenzilor sau distribuitorul produsului.
Acești operatori pot să fie ținuți răspunzători în mod solidar.
Totodată, art. 11 al actului legislativ menționat instituie un anumit număr de exonerări, dintre care una a fost în mod specific adaptată digitalului. Este vorba de ipoteza în care e probabil ca defectul care a cauzat prejudiciul să nu fi existat la momentul introducerii pe piață, punerii în funcțiune sau, în cazul unui distribuitor, al punerii la dispoziție pe piață. Ea nu se aplică în mod explicit dacă defectul unui produs e cauzat de: un serviciu conex, de software, inclusiv actualizări sau îmbunătățiri ale sale, neefectuarea actualizărilor sau a îmbunătățirilor de software necesare pentru menținerea siguranței, o modificare substanțială a produsului, cu condiția să se afle sub controlul producătorului. Așadar, noțiunea de control e apreciată de o manieră particulară în materie digitală, în măsura în care fabricantul/dezvoltatorul este în general în măsură să efectueze actualizările și îmbunătățirile sau să adapteze produsul/serviciul său în mod direct în cazul unei furnizări software as a service. Din această cauză el rămâne, în general, responsabil de defectele apărute după introducerea pe piață ori după punerea în funcțiune.
Concluzii. Directiva (UE) nr. 2024/2853 relativă la răspunderea (din fapta) produselor cu defecte, aplicabilă produselor introduse pe piață începând din 9 decembrie 2026 vizează în mod direct și produsele de software, integrate ori interconectate unui soft sau unui serviciu digital.
Caracterul defectuos al unuia din aceste elemente de soft, inclusiv neconformitatea cu o normă de securitate, o luare în calcul necorespunzătoare a riscurilor ridicate de produsele interconectate, ori absența actualizării, necesară menținerii securității, ar putea antrena răspunderea fabricantului (producătorului) produsului care a provocat dauna, ca o componentă ce a cauzat defectul produsului.
Editorii trebuie să aibă în vedere aceste noi reguli, în special atunci când softurile pe care le furnizează sunt susceptibile să provoace daune persoanelor fizice (sectorul sănătate sau cel al industriei automobilelor, de exemplu) și se impun să asigure un management al calității și o documentație aferentă, pe măsura acestor mize.
4. Propunerea de directivă privind răspunderea în materie de IA: o reglementare prematură? Demersul Comisiei Europene de instituire a unui regim de răspundere ad-hoc pentru inteligența artificială s-a înscris, pe fond, în tendința generală de obiectivizare a responsabilității din fapta activităților digitale. De altfel, propunerea de directivă relativă la răspunderea (delictuală) în materie de inteligență artificială a fost publicată în aceeași zi cu cea care avea să devină directiva (UE) 2024/2853 din 23 octombrie 2024 privind răspunderea pentru produsele cu defecte, respectiv la 28 septembrie 2022. Ea urma unei rezoluții a Parlamentului European din 20 octombrie 2020 care cuprindea recomandări ale Comisiei privind un regim de răspundere civilă pentru inteligența artificială vizând instaurarea unui regim de responsabilitate parțial, obiectiv fondat pe riscuri. Dar propunerea de act legislativ nu preconiza, totuși, un regim de răspundere fără culpă, bazat pe riscuri, o atare opțiune inițial formulată fiind expres înlăturată de CE; ea viza numai o ușurare a sarcinii probei culpei producătorului unui sistem de inteligență artificială, prin jocul unei prezumții simple de cauzalitate, precum în materie de infecții nosocomiale, de transfuzie a sângelui, de daună de mediu ori de ruptură brutală a relațiilor comerciale stabilite. Obiectivul afișat de Comisie rezida în voința de a învinge efectul de „cutie neagră” al inteligenței artificiale și opacitatea astfel generată. Așadar, preconizatul regim trebuia să permită victimelor daunelor cauzate de SIA să demonstreze dacă o culpă a producătorului e la originea daunelor lor. Incertitudinile aferente fazei de învățare, mai ales atunci când mașina continuă să o facă în timpul utilizării sale, face astfel mai dificilă proba cauzalității. În acest sens, se propunea ca, în materie de inteligență artificială jurisdicțiile competente să poată dispune comunicarea sau conservarea tuturor probelor necesare. Cererile aveau posibilitatea să fie adresate furnizorului sistemului de inteligență artificială în cauză, dar și fabricanților sau distribuitorilor, importatorilor și utilizatorilor care au modificat destinația SIA ori i-au adus o modificare substanțială. Se avea în vedere, de asemenea, crearea unei prezumții de cauzalitate între fapta ilicită și prejudiciul generat prin acțiunea eronată a sistemului de inteligență artificială. Culpa ar fi fost, în special, constituită prin orice neîndeplinire a obligațiilor reieșite din Regulamentul (UE) 2024/1689 privind IA ori ale obligațiilor relative la deciziile automatizate, precum în materie de drept al daunelor aferente datelor personale. În fine, propunerea de directivă preconiza să stabilească o prezență de culpă în caz de nerespectare a obligațiilor de comunicare a mijloacelor (elementelor) de probă.
Documentul preconiza un regim diminuat de răspundere pentru producătorii de SIA cu grad ridicat de risc, distingând după calitatea pârâtului; atunci când acțiunea în justiție era îndreptată împotriva unui furnizor de sisteme de inteligență artificială cu grad ridicat de risc, prezumția de cauzalitate ar fi urmat să nu se aplice pentru orice culpă, ci numai dacă ar fi fost vorba de neîndeplinirea anumitor obligații provenite din AI Act pertinente. O atare situație ar fi urmat să fie apreciată în funcție de măsurile luate în cadrul „sistemului de management al riscurilor”, prevăzut la art. 9 și 16 (a). Ele se referă la calitatea datelor, transparență, controlul uman, exactitate, robustețe și securitate cibernetică și la cele de corecție sau de scoaterea din funcțiune, care nu au fost luate imediat. Prezumția de cauzalitate urma să nu se aplice atunci când furnizorul SIA cu grad ridicat de risc și-ar fi îndeplinit integral obligațiile sale provenite din RIA.
În situația în care o acțiune ar fi fost introdusă contra unui utilizator de sisteme de inteligență artificială cu grad ridicat de risc, dispozițiile relative la prezumția de cauzalitate nu se aplicau pentru orice fel de culpă, ci numai dacă reclamantul proba că utilizatorul SIA cu grad înalt de risc nu și-a îndeplinit obligațiile sale de supraveghere și a lăsat să se introducă date care nu sunt pertinente și care, la rândul lor, urmau a fi citite în lumina aceluiași AI Act. De remarcat însă că respectarea de către utilizator a obligațiilor rezultate din acest text se opuneau prezumției de cauzalitate; ele purtând asupra calității datelor de intrare și controlului funcționării sistemului de IA.
Criticii săi și adepții inoportunității și chiar imposibilității (teoretice și practice) adoptării unui regim de răspundere propriu, specific legat de inteligența artificială au făcut din eșecul ajungerii la adoptarea propunerii de directivă, un alt argument în favoarea susținerilor lor.
Recomandarea adresată de Parlamentul European, Comisiei Europene, în 2020, de reglementare a problemei, conținea o propunere de regim de răspundere din fapta inteligenței artificiale dar, în afară de faptul că acesta nu era în realitate unitar (bazat în special pe o distincție între inteligența artificială cu grad ridicat de risc și celelalte forme), prezenta grave lipsuri și a făcut obiectul a serioase critici. Așa se explică faptul că, în propunerea sa de directivă privind răspunderea legată de IA, publicată în 2022, Comisia Europeană nu a preluat în mare parte sugestiile PE.
În mod semnificativ, textul său nu preconiza un regim de răspundere propriu inteligenței artificiale. Nu exista problema faptului generator de răspundere particular și nici cauzele de exonerare specifice. Se propunea, pur și simplu, o sintetizare a regulilor de probă, în scopul de a facilita punerea în aplicare a regimurilor naționale de răspundere pentru culpă în caz de daune legate de utilizarea unei inteligențe artificiale. Nu exista decât, mai degrabă, expresia implicită a tezei că un regim de răspundere proprie IA e dificil de conceput. Chiar și sub această formă palidă, regulile respective riscau să rămână literă moartă; de asemenea, în timp ce propunerea de directivă privind răspunderea pentru produse cu defecte a făcut obiectul unor dezbateri aprofundate între PE, CE și statele membre, cea referitoare la răspunderea în materie de IA, publicată în același timp, a rămas în expectativă, nefiind discutată, sub pretextul așteptării adoptării Regulamentului (UE) 2024/1689, intervenită la 13 iunie 2024 și a sfârșit prin a fi retrasă în februarie 2025. Din punctul de vedere al Comisiei, documentul urma să „completeze și modernizeze cadrul UE în materie de răspundere civilă, introducând, pentru prima dată, reguli specifice daunelor cauzate de sistemele de IA”. Noile reguli erau destinate „să permită victimelor daunelor cauzate de tehnologiile de IA a accede la o reparație în același mod dacă ar fi fost lezate în alte circumstanțe”. Principalul argument pentru un atare demers ținea de faptul că regulile naționale actuale în materie de răspundere, nu ar permite tratarea cererilor de reparare pentru daunele generate de produsele și de serviciile dotate cu IA; răspunderea pentru culpă prezenta dificultăți legate de identificarea persoanei responsabile și stabilirea legăturii de cauzalitate; repararea pagubei presupune reguli adecvate ș.a.
Desigur, explicațiile unui asemenea deznodământ sunt mai multe, mai complicate și țin mai degrabă de conjunctura creată de evoluțiile economice din ultima perioadă și de aprecierile cuprinse în evaluările Raportului M. Draghi din 9 septembrie 2024, care au văzut în reglementare una din piedicile administrative ale animării competitivității UE în cursa competițională mondială a noilor tehnologii.
5. Imposibilitatea stabilirii unui regim juridic de răspundere propriu inteligenței artificiale? Alături de teza inexistenței unei necesități de a se institui un regim de răspundere propriu inteligenței artificiale, și în completarea acesteia se afirmă și ideea chiar a imposibilității creării sale, atât pe plan teoretic, cât și în cel practic. Din prima perspectivă se pleacă de la întrebarea: pentru ce să se stabilească un regim special de răspundere în materie? Iar în încercarea formulării unui răspuns ferm se are în vedere că, într-un sistem juridic precum cel francez și, prin extrapolare, ne putem referi la orice reglementare generală asemănătoare, inclusiv cea din România, unde există deja un regim general de răspundere delictuală (răspundere bazată pe culpă), unul special nu se justifică decât în caz de insuficiență a acestuia, iar pentru a fi într-o atare situație ar trebui să existe un număr semnificativ de daune, prezentând între ele o anumită unitate de cauză (fără de care nu s-ar putea crea un regim spre a le acoperi) și a cărei răspundere pentru culpă nu permite să i se asigure repararea. Rezultă, deci, că regimurile speciale de răspundere sunt, în principiu, legate fie de o activitate particulară ce prezintă un risc specific de daună (circulația automobilului, aeriană, utilizarea energiei nucleare etc.), fie de o anormalitate susceptibilă să cauzeze daune (defectele produselor, de exemplu). În contextul unor atari aprecieri, se ridică întrebarea preliminară, dar esențială: ce este, din această perspectivă, inteligența artificială? În virtutea capacității sale de a pătrunde în toate sectoarele vieții sociale și în sfera celei private, IA, prin aplicațiile prezentate și utilizarea tot mai largă, ar putea cauza o multitudine de varietăți de daune și din ce în ce mai numeroase: unele corporale, în caz de utilizare a unui vehicul autonom ori a unuia de diagnostic medical, prejudiciu de discriminare, în situația de folosire a unui mecanism automatizat de triere a candidaților sau financiar, în condițiile de recurgere la o procedură de „credit-rating” etc. Altfel spus, nu ar exista un caz-tip de accident cauzat de inteligența artificială ori de daună-tip (contrar a ceea ce se petrece, de pildă, în privința accidentelor de circulație ori în cazul unui defect de securitate al unui produs). Mai mult decât atât, și poate oarecum cel mai important, încă nu există pur și simplu cazuri de daune provocate de IA ori, în orice caz, ele sunt foarte puține. Iar o atare împrejurare ridică, în concepția susținătorilor acestei teze a imposibilității (teoretice) de creare a unui regim special de răspundere pentru fapta inteligenței artificiale, mai multe dificultăți. Mai întâi, și în consecință: cum să construim un regim de răspundere fără cazuri concrete de gen? Și aceasta întrucât reglementările specifice domeniului se nasc, cel mai adesea, având în vedere tocmai particularitățile daunei și a modului de reparare a sa. Așa se face că o atare întreprindere juridică are loc după acumularea unui număr relevant de experiențe în afara regulii și ca infirmare a sa și spre a se contura și afirma un răspuns adecvat. Tot așa și atunci când legislatorul creează un regim de răspundere aparent ex nihilo, el o face ca răspuns la o problemă socială identificată și spre a-și asuma ipotezele de daune destul de precis identificate și definite. Așadar, atâta timp cât nu ar exista cazuri de daune implicând inteligența artificială, ar apărea dificil de a concepe și stabili un regim de răspundere din fapta inteligenței artificiale (presupunând, desigur, că el e posibil și pertinent, ceea ce unii nu consideră că ar fi cazul). Apoi, cum să se construiască un regim de răspundere care s-ar aplica în toate cazurile în care o inteligență artificială e susceptibilă să intervină în survenirea unei daune? Cum să fie cristalizat unul care să convină, deopotrivă daunei corporale accidentale (în caz de accident ce implică un vehicul autonom, de exemplu) și discriminării rezultate dintr-un defect „structural” al unui program de selecție a candidaților la un post? Un regim care să se aplice tuturor cazurilor potențiale de răspundere ar exista deja: e vorba de răspunderea bazată pe culpă, de unul aferent tuturor produselor, din momentul când acestea au defecte (dar care nu acoperă, în mod obligatoriu, toate tipurile de daune): răspunderea pentru produsele cu defecte. Așadar, rețeaua operată de diferitele cazuri de răspundere existentă e deja foarte densă și devine dificil a concepe un regim suplimentar și diferit care: a) ar fi un regim de răspundere fără culpă (întrucât cel pentru cea pentru culpă e deja stabilit în Codul civil), dar b) fără să fie fondat pe noțiunea de defect de securitate (care e deja faptul generator de răspundere pentru produsele cu defecte) și c) s-ar aplica la toate daunele care implică o inteligență artificială. Dar, consideră partizanii unei atare poziționări, crearea unui asemenea regim, tip „one size fits all” apare ca o sarcină imposibilă, în afară de faptul de a preconiza o răspundere pur cauzală. Un regim atât de radical și de riguros pentru responsabili potențiali, nu s-ar putea, totodată, justifica pentru toate aplicațiile inteligenței artificiale. La stadiul actual de dezvoltare a IA, reglementările existente ar fi suficiente și adecvate. A prevedea un regim de răspundere „din fapta inteligenței artificiale” nu ar însemna să se stabilească o răspundere particulară bazată nu pe un risc specific, cum se întâmplă în mod obișnuit, ci pe o tehnologie particulară. Or, după toate probabilitățile, aceasta nu s-a făcut niciodată (până acum!). Dar, desigur, aceasta nu înseamnă, în principiu, excluderea constituirii sale dacă situația o impune. Și acesta din bunul motiv că, în mod tradițional, regimurile de răspundere sunt neutre din punct de vedere tehnologic, mai puțin din principiu, cât pentru că, începând din momentul în care o tehnologie e susceptibilă să se aplice în domenii diferite și să contribuie la survenirea de daune în contexte variate, e foarte dificil a identifica un element comun plecând de la care să se construiască un regim specific. Prin urmare, după cum ar fi greu să se conceapă un regim de răspundere specifică legat de uzul electricității, tot așa, a fortiori, și pentru cazul inteligenței artificiale, al cărei câmp de aplicare potențială pare aproape tot atât de larg, precum cel al activităților umane. În fine, imposibilitatea practică a unui asemenea demers de reglementare spre crearea unui regim de răspundere specific în materie de IA ar rezulta pur și simplu din aceea că niciuna din propunerile de până acum în acest sens nu a reușit să se concretizeze și, iarăși fără excepție niciuna dintre ele nu e considerată convenabilă, în condițiile în care dezvoltarea aplicațiilor IA cunoaște un ritm accelerat, fiind nevoie de timp pentru sedimentarea particularităților de producere și a exigențelor de asimilare juridică.
6. Teza lipsei necesității unui regim de răspundere proprie a inteligenței artificiale. Dezvoltată în doctrina franceză, o atare poziție teoretică pornește de la constatarea că, tradițional și care s-a dovedit de-a lungul timpului atât de maleabilă, răspunderea pentru fapta lucrului nu reprezintă regimul adecvat spre a răspunde cererilor de reparare, ce ar putea fi generate de IA și, într-un plan mai general, crearea unuia specific al răspunderii pentru fapta inteligenței artificiale nu e necesar, întrucât, contrar a ceea ce unii par a se teme, nu există lacune în materie.
Referitor la prima afirmație, ideea că instituirea unui regim de răspundere pentru fapta inteligenței artificiale nu ar fi necesară în dreptul francez, concluzie ce ar putea fi extrapolată și în celelalte sisteme de drept civil, inclusiv în cel român, s-ar întemeia, pur și simplu, pe constatarea că un atare regim ar exista deja, mai exact ar fi vorba de răspunderea din fapta lucrurilor, fondată pe prevederile articolului 1242 alin. (1) din Codul civil napoleonian (preluată și de codurile civile române din 1864 și 2011). Respectivul străvechi regim de răspundere fără culpă și-ar putea trăi astfel o nouă tinerețe și demonstra plasticitatea sa intrinsecă, prin posibilitatea aplicării sale creatoare la această nouă realitate reprezentată de inteligența artificială și consecințele sale. Aspectul principal al unei asemenea perspective ar pleca de la faptul că termenul de lucru e printre cele mai vagi și s-ar putea invoca, așadar, și în cazul de față. Dar, în această situație, o atare interpretare, în pofida supleței și flexibilității sale tradiționale, ridică serioase interogații. În literatura franceză se discută dacă dispozițiile respective se aplică lucrurilor incorporale, din care fac parte, în mod incontestabil, softurile și algoritmii și, deci, inteligența artificială. Pe de o parte, am putea fi tentați să invocăm principiul ubi lex non distinguit, non debemus distinguere, de unde ar rezulta că nu se impune a distinge între lucrurile corporale și cele incorporale, în privința aplicării textului vizat, care vorbește pur și simplu de „lucruri”, fără alte precizări. Argumentul exegetic, chiar dincolo de o interpretare evolutivă a sa, nu e decisiv și are o greutate relativă, diminuată de faptul că e vorba de un text redactat în urmă cu mult peste două secole și care nu avea, pentru redactorii săi, deschiderea normativă ce i se pretinde astăzi. În plus, se consideră că, e evident, autorii care au sugerat și susținut dezvoltarea unei răspunderi fără culpă în temeiul acestui text legal, nu se gândeau decât la lucrurile corporale (și chiar numai la unele dintre ele). Nimic și nimeni nu întrevedea și nu putea să o facă atunci că ar trebui și ar putea să se aplice și celor incorporale și mai ales particularităților generate de revoluția IA.
Pe de altă parte, se consideră că se impune a măsura, așa cum se cuvine, consecințele pe care le-ar antrena o aplicare a prevederilor de genul celor cuprinse în art. 1242 alin. (1) din Codul civil francez, precum sunt înțelese ele astăzi, lucrurilor incorporale. Elementul lor cel mai comun e acum informația. Ca atare, se vrea, totuși, un regim de răspundere fără culpă pentru orice daună, chiar imaterială, pe care s-ar putea cauza prin „fapta” informației, adică, în realitate, pentru oricare informație eronată? Consecințele unui asemenea răspuns asupra libertății de expresie ar fi devastatoare, ceea ce generează reținerile cuvenite și exprimate în acest sens. Se concluzionează astfel că, a aplica răspunderea pentru fapta lucrurilor inteligenței artificiale nu ar fi nu numai periculoasă ci, de asemenea, și mult mai delicată decât ni se pare la prima vedere. Simpla împrejurare că o inteligență artificială ar interveni în survenirea unei daune ar fi, oare, suficient să caracterizeze o atare faptă? Am avea însă, într-o atare situație, o răspundere pur cauzală, ceea ce ar apărea prea riguroasă? S-ar impune, așadar, probarea unui fapt anormal de inteligență artificială? Dar prin ce ar diferi ea de culpa care servește deja de fundament al răspunderii pentru produsele cu defecte? Nu se poate ignora nici constatarea că răspunderea pentru fapta lucrurilor e un regim de responsabilitate relativ frustă, ale cărei cauze de exonerare, în special, sunt destul de sumare (ceea ce nu e surprinzător, având în vedere că e vorba de un regim pur pretorian). Or, complexitatea și multiplicitatea ipotezelor în care inteligența artificială e susceptibilă să cauzeze daune ce implică cauze de exonerare detaliate, cel puțin dacă pretindem să le aplicăm un regim de răspundere unic. În alți termeni, răspunderea pentru fapta lucrului la starea sa actuală nu s-ar putea aplica ca atare la daunele cauzate de inteligența actuală. S-ar impune, în mod considerabil, a se preciza regimul său, în special în ceea ce privește cauzele de exonerare. Concluzia ar fi aceea că răspunderea pentru fapta lucrului, așa cum există ea în dreptul francez și drepturile de această inspirație, nu e adaptată la repararea daunelor cauzate de inteligența artificială.
7. Soluții posibile. Aplicarea altor regimuri de răspundere. Ca o primă constatare, e de domeniul evidenței că e, în principiu, întotdeauna aplicabil regimul de răspundere pentru culpă, în afara domeniului contractual. În cazul de daună legată de utilizarea inteligenței artificiale, dificultatea va ține de caracterizarea unei culpe în spatele acțiunii acesteia. S-ar putea depăși aceasta, căutând culpa inteligenței artificiale ca atare, plecând de la a i se atribui personalitate juridică. Problema e că, dacă în teorie e posibil a prevedea aprecierea comportamentului inteligenței artificiale precum cel al unei persoane rezonabile, care constituie criteriul fundamental al culpei, un atare demers riscă să se confrunte cu o imposibilitate ori cel puțin cu o mare dificultate practică, atunci când va fi vorba să se evalueze comportamentul unei IA însărcinată cu o misiune prea complexă, pe care omul o poate îndeplini el însuși. Atâta timp cât algoritmii și roboții sunt însărcinați să îndeplinească responsabilități în locul ființelor umane, e de prevăzut a determina dacă se comportă precum o persoană umană, dar atunci când li se încredințează sarcini ce depășesc capacitățile cognitive ale unei ființe umane obișnuite – ceea ce reprezintă unul din interesele utilizării acesteia – referențialul nu va mai funcționa. A ne referi la noțiunea de „bun robot” ori de „bună inteligență artificială”, un avatar modern al bonus pater familias nu ar rezolva problema, întrucât atunci s-ar impune să se determine care ar fi trebuit să fie comportamentului acestei „bune” inteligențe artificiale. Apoi, în afară de a putea aprecia comportamentul IA ca atare, juriștii vor ajunge să-și pună, în mod natural, întrebarea asupra caracterului satisfăcător al mecanismelor ce ar fi condus la adoptarea comportamentului litigios de către inteligența artificială, adică în final privind „defectuozitatea” eventuală a acesteia ori, mai exact, a programării sale. E ceea ce trimite la problema defectului inteligenței artificiale și, deci, la răspunderea pentru produsele cu defecte. Or, dacă răspunderea pentru culpă riscă să fie dificil de aplicat în caz de daună legată de utilizarea inteligenței artificiale, să nu uităm că regimurile privind acțiunea ori prezența unui lucru, precum cel aferent răspunderii pentru produsele cu defecte ori din fapta lucrului, au vocația să se aplice lucrurilor materiale „însuflețite” de o inteligență artificială. Astfel, dacă IA, care animă un robot, îl conduce să cauzeze o daună, cel care îl are în pază ar putea să fie ținut să răspundă în baza art. 1376 din Codul civil român. La fel, dacă inteligența artificială face un lucru cu defecte, producătorul acesteia va fi responsabil de daune cauzate (prin) de defect, conform prevederilor pertinente din legislația specială, de transpunere a directivei (UE) 2024/2853. Ca regulă, în toate cazurile în care inteligența artificială ar cauza o daună prin intermediul unui lucru corporal ori al acțiunii unei persoane, victima va putea, deci, să se sprijine pe regimurile de răspundere existente. Riscul de vid juridic, din punctul de vedere al victimelor primare, nu există decât în cazurile în care aceasta va voi să acționeze direct inteligența artificială, fără ca această acțiune să fie mediată de intervenția unei persoane sau de un lucru corporal. Cu toate acestea, o atare ipoteză se întrevede ca rară în practică. În plus, o atare lacună are vocația de a fi acoperită de directiva (UE) 2024/2853 din 23 octombrie 2024 privind răspunderea pentru produsele cu defecte, care se aplică expres produselor incorporale și deci și algoritmilor și inteligenței artificiale, independent de încorporarea într-un lucru corporal.
Desigur, în realitate e vorba mai ales responsabilii primari, adică, de exemplu, păzitorul ori producătorul lucrului făcut dăunător de inteligența artificială, ori cel mai adesea asigurătorii lor, care se află în situația de a acționa contra conceptorului ori „vânzătorului” de inteligență artificială. Va fi vorba atunci de o acțiune în garanție, care va fi supusă regulilor răspunderii contractuale și guvernate de clauzele contractelor în virtutea cărora inteligența artificială a fost „furnizată”.
Prin urmare, concluzia emisă de doctrina franceză e aceea că nu există, în dreptul Hexagonului, cel puțin la acest moment, un vid juridic privind daunele susceptibile a fi cauzate de inteligența artificială ori legate de uzul său. Ele au vocația de a fi prinse de regimurile de răspundere existente, care pot fi de aplicare generală (precum răspunderea pentru culpă, răspunderea din fapta lucrului ori răspunderea din faptul produselor defectuoase) ori sectoriale (ca răspundere aplicabilă diferitelor tipuri de transport). E adevărat că aceste regimuri pot apărea în anumite cazuri mai puțin adaptate la specificitățile inteligenței artificiale; culpa poate să fie astfel dificil de caracterizat în contextul recurgerii la IA; la fel a proba defectul inteligenței artificiale în cadrul răspunderii pentru produsele cu defecte. Și aceasta în situația în care, din păcate, nu ar exista alternativă serioasă la aceste regimuri, întrucât posibilitatea de a crea un regim special de răspundere din fapta inteligenței artificiale s-ar dovedi în realitate iluzoriu[10]. Desigur, o atare constatare ar putea fi extinsă și în privința dreptului român, având în vedere reglementările pertinente de lege lata și argumentele invocate, mai ales dacă ținem seama de similitudinea dintre cele două sisteme de drept și a tradițiilor juridice comune.
8. Concluzii. Dreptul IA e marcat de evoluția conceptelor și a reglementărilor care îl structurează. În alți termeni, în funcție de emergența tehnologiilor și de modul în care acestea din urmă influențează actorii, modelează societățile și relațiile noastre, dreptul se declină în mod diferit astăzi decât ca ieri și, mai ales, precum mâine: contextul în care acționează umanul acționează, gândește, trăiește grație ori din cauza uneltelor tehnologice cere laurea în considerare a altor dimensiuni, precum inteligența artificială, internetul obiectelor, cloud-ul sau chiar recunoașterea altor drepturi subiective. E cunoscut principiul neutralității drepturilor față de progresul tehnologic: ideea e aceea de a afirma că dreptul trebuie să se aplice în lumea on-line precum în cea off-line și că, în orice ipoteză, trebuie căutată echivalența funcțională. Afirmație seducătoare, dar care prezintă limitele sale!
Mai mult ca niciodată, realitățile socio-juridice ne arată astăzi necesitatea adaptării continue a dreptului la dimensiunile noi ale mediului informațional. Se afirmă, pe bună dreptate, că un atare principiu devine lipsit de conținut și semnificațiile sale înșelătoare atunci când realitatea tehnologică mătură realitățile care au fundamentat prescripțiile juridice. Astfel, ce devine libertatea de expresie atunci când, fiecare, de azi și mai ales de mâine, cu inteligența artificială generativă se poate improviza în jurnalist și revendica libertatea presei și lansa în dezinformare? Nu trebuie să consacrăm noi privilegii pentru o anumită presă, defini noi actori, precum factcheckers ori ODR, crea proceduri înainte de a pronunța retragerea ori pentru a i se opune, să definim balanța între libertatea de întreprindere a platformelor și libertatea de expresie. Mai ales jurisprudența europeană – a instanțelor de la Strasbourg și, respectiv, Luxemburg – reflectă această îndrăzneală inovatoare: obligații pozitive ale statelor, iar pe baza lor, consacrarea de drepturi noi, dacă înțelegem să răspundem dorințelor celor care au creat drepturile omului ca o exigență în serviciul persoanei umane față de mizele unei societăți care evoluează și acum chiar se confruntă, în această privință, cu provocări tehnologice de ruptură, generate de irumperea și expansiunea extraordinare ale inteligenței artificiale[11].
Pentru început, efortul de adaptare, preponderent pe calea interpretării creative a dreptului pozitiv existent revine cadrului pretorian și celui doctrinar. Rapiditatea avansurilor tehnice și radicalității și complexitatea transformărilor sociale implicate presupun însă și intervenția grabnică și pe măsură a normativității juridice.
Asemenea considerații sunt valabile, cu titlu general, și în privința reacției dreptului răspunderii civile, la provocările IA și care, în pofida „conservatorismului” domeniului de referință nu poate rezista, fără răspunsuri pertinente și adecvate impactului noilor tehnologii. O confirmare, o dată în plus, că inteligența artificială reprezintă, în sine, nu numai o revoluție tehnico-științifică, ci și una în planul dreptului, a conceptelor, principiilor și instituțiilor sale fundamentale.
2. În mod evident și în ritm accelerat sistemele de inteligență artificială favorizează dezvoltarea unei noi generații de produse și servicii, a căror utilizare generează riscuri pe măsură – ca inedite și amploare – atât pentru indivizi, cât și pentru societate în general, și provoacă daune specifice, care reclamă reguli și măsuri particulare de prevenire, constatare și reparare. În acest context, o dimensiune importantă a DIA devine, la nivel național și unional-european, aceea exprimată prin evoluțiile necesare calificării și indemnizării prejudiciilor potențiale cauzate de inteligența artificială. Dacă accidentul cauzat de un vehicul autonom e unul dintre riscurile cele mai spectaculoase și mai mediatizate, tipologia celor aferente, în general, uzajului de SIA, este mult mai largă[12]. Asemenea riscuri nu sunt toate și unele în totalitate noi, dar se pot amplifica în raport cu o tehnologie informatică zisă clasică și devine deosebit de complexă din cauza unor factori precum: multiplicarea actorilor (fabricant, furnizor, dezvoltator, importator, implementator, utilizator ș.a.), slaba trasabilitate determinată de opacitatea algoritmilor, volumetria datelor și evolutivitatea soluțiilor și interacțiunea mașină-uman ce permite o supervizare umană, dar și o întrepătrundere de răspunderi[13]. De aici apare o anumită insuficiență și inadaptabilitate a regulilor de drept comun ale răspunderii civile și, în plan general, nevoia completării și adecvării lor spre a răspunde provocărilor noilor tehnologii, iar în cel al UE imperativul constituirii unui regim de norme armonizate în materie, conform modelului european privind IA și integrat specific dreptului inteligenței artificiale și contextului juridic aferent.
3. E cunoscut faptul că dreptul are oroare de vid și de aceea și cel consacrat inteligenței artificiale se poate revendica, într-o oarecare măsură și o anumită formă, ca parte a sa, fiind suficient, în acest sens, ca la noul obiect apărut – IA – să se aplice regulile dreptului comun. Din această primă perspectivă, analiza situației în materie, la nivelul statelor membre ale UE, ne arată o stare de tranziție caracterizată prin dominația regimului de drept comun de răspundere civilă, parțial completat și particularizat prin regulile rezultate din transpunerea în dreptul intern al prevederilor Directivei (UE) nr. 2024/2853 din 23 octombrie 2024. Principiul de bază al răspunderii civile rămâne cel al răspunderii pentru culpă, chiar dacă răspunderea pentru fapta lucrurilor oferă instrumente special adaptate la particularitățile noilor tehnologii. Recurgerea la răspunderea fondată pe culpă, definită ca nerespectarea obligației de prudență și diligență rămâne posibilă și aceasta nu numai în cadrul celei delictuale, ci și a răspunderii contractuale. Totuși, după cum proba defectului e delicată în cadrul celei pentru produsele cu defecte, proba culpei în dreptul comun e chiar problematică. În orice caz, aceasta poate apărea ca o cale moderată, ținând seama de dificultățile de ordin tehnic pe care le-ar avea în a proba o culpă a unui intervenient, mai ales a unuia din conceptorii de inteligență artificială. Din această perspectivă elaborarea unei tipologii a culpelor care pot să fie la originea daunei cauzate de un sistem de inteligență artificială e considerată binevenită. Mai apropiat de daună, utilizatorul final poate să fi comis o culpă, abținându-se de a prelua controlul mașinii, atunci când aceasta era necesară (numai chiar expres cerut de ea) ori și-a fondat decizia (de exemplu, diagnosticul medical) exclusiv pe IA, fără a proceda la cea mai mică reflecție în această privință. Mai în amonte, implementatorul de SIA pe mașina aferentă (precum un autovehicul) poate să fi comis o culpă, de pildă, necontrolând faptul dacă unealta de implementare se va comporta în mod identic celei de dezvoltare (diferită de hardware). În prealabil, persoanele însărcinate să controleze, să testeze inteligența artificială puteau să fi comis o culpă prin a nu fi controlat IA într-un număr suficient de situații. Încă și mai înainte poate să fie preconizată o faptă ilicită a antrenorului de IA. Într-adevăr, datele inoportune ar fi putut să servească drept bază de antrenament pentru aplicațiile de IA. O altă posibilitate e aceea ca antrenorul să fi fost neglijent în verificările sale, mai ales atunci când nu constată că antrenează o inteligență artificială. Într-un mod și mai tehnic, și apropiindu-ne de sursă, conceptorul inteligenței artificiale poate să fi comis o culpă alegând, de exemplu, un prost optimizator ori definind necorespunzător o funcție de pierdere. În fine, într-o manieră mai surprinzătoare, dauna cauzată de IA poate parveni, uneori, dintr-o faptă a conceptorului machine learning framework, chiar și în amonte, dintr-o eroare de limbaj de programare, a sistemului de exploatare, când nu e vorba de microprocesor.
4. Oportunitatea construirii – teoretic și reglementar –, a unui drept special al răspunderii civile din fapta inteligenței artificiale rămâne în discuție și chiar incertă. Un pas normativ în acest sens ar adăuga un element definitoriu și ar reprezenta un avans important în constituirea, recunoașterea și afirmarea de sine stătătoare a dreptului inteligenței artificiale, deopotrivă ca nouă ramură a sistemului juridic, inedită disciplină științifică și stadiu noi, în formarea viitoarei normativități regulatoare.
Cele două tentative de reglementare pertinente – vizând acordarea de personalitate juridică roboților, în general, și inteligenței artificiale, în special și, respectiv, adoptarea de reguli speciale în materie de răspundere civilă extra-contractuală – au fost reportate mai degrabă decât a fi abandonate. Prima, poate prea timpurie în raport cu stadiul de dezvoltare a tehnologiei și al conștientizării implicațiilor revoluției IA, a fost amânată, considerându-se în principal că a conferi personalitate juridică unei IA ar fi un nonsens în planul dreptului persoanelor, în condițiile în care mașina nu ar dispune de liberate de acțiune, aceasta din urmă desfășurându-se în cadrul limitelor impuse de conceptorii respectivi, argument care dispare în perspectiva (apropiată) a unei IA generalizate.
Retragerea propunerii de directivă de către Comisia Europeană, la 11 februarie 2025, a intervenit într-un climat particular, chiar la Summitul de la Paris (10-11 februarie 2025) în timpul căruia UE a fost viu criticată pentru abordarea sa reglementară considerată ca excesivă potențial nefastă pentru inovație. Unul dintre detractorii cei mai virulenți a fost vicepreședintele SUA, J.D. Vance, care cerea o „demantelare a reglementărilor europene în materie de IA. În acest context, retragerea propunerii de directivă nu poate fi interpretată decât ca o manevră strategică a instituțiilor de la Bruxelles vizând să dea un semnal de deschidere capitalului și inovării, spre a arăta că noua prioritate o reprezintă și la nivel european competitivitatea și a face astfel dovada unui gest de bunăvoință pentru noua administrație americană[14].
Dacă, în cele din urmă, cadrul juridic unional-european în materie de IA a fost în mod considerabil consolidat prin adoptarea Regulamentului (UE) nr. 2024/1689 din 13 mai 2024 (AI Act) și a Directivei (UE) nr. 2024/2853 din 23 octombrie 2024 privind răspunderea pentru produsele cu defecte, care rezolvă parțial problema, cea a armonizării regimurilor de răspundere bazată pe culpă, rămâne în suspensie. Viitorul ne va spune dacă o nouă propunere de act legislativ pertinentă va fi inițiată și adoptată, dar măsura abandonării demersului special aferent marchează și o turnantă în abordarea UE a reglementării IA, posibil într-un sens mai favorabil întreprinderilor și inovației, cu riscul însă de a se provoca o fragmentare juridică prejudiciabilă pieței unice și drepturilor fundamentale ale cetățenilor.
5. În aprecierea oportunității adoptării și a posibilului conținut ale unui act legislativ unional-european (directivă) special privind răspunderea în materie de IA, trebuie să pornim de la și să avem permanent în vedere rolul dreptului UE în problema dată, respectiv în amenajarea regulilor răspunderii civile delictuale în consonanță cu specificul ordinii juridice comunitare. Din acest punct de vedere e de observat, în acest sens, că e vorba nu atât de o adaptare a regulilor de drept civil pertinente la un nou domeniu de interes, respectiv repararea daunelor provocate prin fapta IA de o dezvoltare intrinsecă a dreptului civil, cât mai ales de o particularizare a semnificațiilor sale la exigențele asigurării pieței interioare și imperativul promovării inovației tehnologice. Apoi, dacă în planul exclusiv al viziunii și practicilor de drept civil ca atare adoptarea și consacrarea la nivelul reglementării concrete a unui regim special de răspundere privind IA poate apărea ca excesiv, în considerarea suficienței dreptului preexistent pertinent și chiar inoportună, stabilirea unor norme armonizate privind inteligența artificială, cu titlu de cadru general european și aspirației de model universal, reclamă o abordare asemănătoare și în privința dimensiunilor completatoare ale regimului juridic novator, de ruptură al IA, care se pretează, prin natura implicațiilor de complexitate tehnologică și de competitivitate economică și poziționare geostrategică a principalilor actori în domeniu la o afirmare de „bloc”, „pol” de interese, precum cea a UE. Din aceeași perspectivă edificatoare dintr-un atare punct de vedere e și situația răspunderii pentru produsele cu defecte, care face în prezent obiectul Directivei (UE) nr. 2024/2853 din 23 octombrie 2024 și în care armonizarea normelor comune justificată prin cerințele bunei funcționări a pieței interne, întrucât divergențele dintre sistemele juridice ale statelor membre pot denatura concurența și afecta circulația bunurilor.
Totodată, ediția din 2024 a Directivei nr. 85/374/CEE este justificată și de nevoia revizuirii sale „în lumina evoluțiilor legate de noile tehnologii, inclusiv inteligența artificială, noile modele de afaceri bazate pe economia circulară și noile lanțuri de aprovizionare globale, care au condus la inconsecvențe și insecuritate juridică” [punctul 3 din Preambulul directivei (UE) nr. 2024/2853].
După cum e cunoscut în doctrină și așa cum rezultă, de altfel, și din concepția codului nostru civil, răspunderea pentru prejudiciile cauzate de produsele cu defecte e considerată drept o răspundere de tipul al treilea, o formă de răspundere specială, derogatorie de la răspunderea civilă delictuală. Astfel, sediul său principal se află în alineatul (4) al art. 1349 C. civ., consacrat răspunderii delictuale și care se mărginește a-i consacra existența și a enunța că „se stabilește prin lege specială”. Așadar, dreptul special reprezintă doar o nuanțare normativă a celui comun, acesta fiind abandonat în aplicare odată cu și în măsura intervenției reglementării speciale, dar continuând să reprezinte principiile și regulile de bază, de la care el înțelege să se abată în dorința de a asigura în dreptul intern armonizarea necesară la nivel unional-european, exprimat în termenii actului legislativ comunitar pertinent. Credem că, din aceeași perspectivă și cu atari argumente, se impune reluarea propunerii CE de adoptare a unei directive (UE) privind răspunderea pentru daunele cauzate prin fapta inteligenței artificiale. Cel puțin pentru stadiul actual de dezvoltare a IA, regimul juridic de răspundere poate fi configurat la nivel unional-european printr-un act legislativ particular ancorat principial în prevederile pertinente ale Codurilor civile și dezvoltat reglementar printr-o lege specială națională. Astfel, în concret, după modelul urmat în privința răspunderii pentru prejudiciile cauzate de produsele cu defecte, la art. 1349 din Codul civil român s-ar putea adăuga un nou alineat, al 5-lea, care să recunoască și să consacre o a doua situație (formă) de răspundere specială, „de tipul al treilea”, răspunderea pentru prejudiciile cauzate de IA și să prevadă că aceasta „se stabilește prin lege specială”, mai exact se reglementează condițiile angajării și regulile specifice aplicabile.
6. Dreptul răspunderii civile poate constitui, și în privința IA, un veritabil laborator de analiză. Adesea doctrina propune teorii simultane care ajută la sistematizarea unei răspunderi calificate de „drept în bucăți”. Și aceasta fie că ne gândim la distincția între obligațiile de mijloace și cele de rezultat (R. Demogue), la construcția unei teorii a riscului nu fără influență asupra dreptului accidentelor de muncă și a răspunderii din fapta lucrurilor (L. Josserand și R. Saleilles), la distingerea între păstrarea structurii și cea a comportamentului (B. Goldman), ori la conceptul însuși de răspundere contractuală, ignorat de redactorii Codului civil napoleonian. Atunci când doctrina nu propune ceva semnificativ, e rândul jurisprudenței care impune soluții de la caz la caz, potrivit circumstanțelor și epocilor prin intermediul hotărârilor „strigăt de alarmă” ori a celor provocatoare, care reclamă și chiar anunță reglementări speciale care se cer a interveni fără întârziere. Dincolo de o doctrină ce propune și o jurisprudență care impune, pentru un timp cel puțin, ultimul cuvânt aparține legislatorului care dispune în mod general și abstract asupra temelor aparținând actualității majore a societății. O atare logică devenită clasică a evoluțiilor în planul dreptului se aplică și în privința perceperii și exprimării „revoluției IA”? Două caracteristici intrinseci: rapiditatea și radicalitatea schimbărilor pe care le induce, la care se adaugă generalitatea și profunzimea impacturilor, deopotrivă sociale și individuale pe care le provoacă, fac să fie puse în discuții și modificate, cel puțin în parte, datele respectivei ecuații de până acum. În acest caz nu mai e vorba ori doar în mică măsură și pentru o perioadă redusă de afirmare a faimoaselor „interpretări evolutive” a textelor și a rolului ansamblului principiilor generale structurante. Dimpotrivă, asistăm la sporirea contributivă și la afirmarea priorității imaginației doctrinei, chemată să surprindă și să exprime, la nivelul conceptelor și abordărilor, datele marii transformări promovate de noile tehnologii și în planul dreptului. Din această perspectivă, manifestările de până acum ale impactului IA în zona dreptului răspunderii civile de genul celor expuse mai sus, nu marchează decât începutul firav la unui proces, care va genera în ritm accelerat și la orizontul unor decenii mutații juridice
[1] Convenția-cadru nu cuprinde prevederi speciale în materie civilă, dar art. 9 stipulează angajamentul pentru părți de a adopta și menține măsuri spre a garanta obligația de a da seama și de a-și asuma responsabilitatea pentru impacturile negative în privința drepturilor omului, democrației și statului de drept ce rezultă din activități desfășurate în cadrul ciclului de viață al sistemelor de inteligență artificială.
[2] Programme de travail de la Commission pour 2025, 11 février 2025, ann. IV, no. 32, p. 26.
[3] Th. Gisclard, Le droit de la responsabilité civile applique à l’intelligence artificielle, în M. Lanna, Em. Py (dir.). „Smart city et prise de décision”, Editions Mare&Martin, Paris, 2023, p. 207 și urm.
[4] J.-S. Borghetti, La responsabilité du fait des produits, étude de droit comparé, LGDJ, Paris, 2004, p. 231.
[5] Spre o înțelegere adecvată a situației, se cuvine avut în vedere că aceste modele de IA dominante se bazează pe un algoritm de învățare întemeiat pe rețele neuronale artificiale, inspirate de structura creierului uman. Un sistem IA conexionist nu e conceput pentru a executa direct o sarcină pre-programată, ci, mai degrabă pentru a învăța el însuși a realiza o sarcină. Așadar, o atare inteligență artificială este auto-învățată (faimoasa machine learning, a cărei formă cea mai răspândită e azi deep learning): plecând de la o imensă bază de date (big data), sistemul învață să realizeze o sarcină căutând recurența ori corelări între date, fără instrucțiuni pre-programate. Un sistem de IA conexionistă raționează astfel prin inducție probabilistică, plecând de la date puse în corelație statistică, așa fel încât rezultatul la care parvine e exprimat sub formă de probabilitate. De aici decurg două caracteristici notabile ale sale. Prima, ține de o anumită autonomie de funcționare; el se întemeiază pe un algoritm „nedeterminat”, în realizarea sarcinilor ce îi sunt încredințate, având capacitatea de a efectua alegeri nedeterminate înainte de intervenția unei ființe umane (fie că e vorba de conceptorul IA ori de utilizatorul său). Rezultă, astfel, că comportamentul său nu e previzibil, din moment ce, plecând de la aceeași intrare, un sistem de IA conexionistă poate, de la caz la caz, să producă rezultate diferite. Cea de-a doua caracteristică a sa, care e strict corelată cu prima, rezidă în opacitatea de funcționare (devenită, în limbajul specialiștilor, „efectul de cutie neagră”), mecanismul intern de operare al unui sistem de IA, care manevrează asemenea date de intrare, ce îl alimentează până la rezultatul care se va produce (recomandare, decizie, producere de conținut), rămâne misterios, chiar pentru conceptorul sistemului. A voi a-l diseca ex-post, va trebui să se reconstituie o cale care presupune intervenția a milioane de neuroni artificiali și miliarde de conexiuni, ceea ce nu e niciodată practicabil, având în vedere timpul și energia pe care le consumă. În pofida cercetărilor contemporane tinzând la ameliorarea explicabilității algoritmice, în scopul unei mai bune înțelegeri a logicii de funcționare a sistemelor de IA conexioniste, opacitatea acestora e departe de a fi disipată. Autonomia și opacitatea de funcționare a sistemelor de IA de acest tip sunt, în realitate, sistemice, în măsura în care pornesc de la concepția mai multor factori tehnici care le sunt inerenți: natura însăși a algoritmului, care e nedeterminată; auto-învățarea sistemului de IA (care poate fi urmărită dincolo de data introducerii pe piață: învățarea continuă, atunci când e implementat în sistem, permite acesteia să evolueze prin el însuși până la sfârșit, dincolo de programarea sa inițială). Or, o atare autonomie și o asemenea opacitate sistemică de funcționare au ca efect inevitabil a face mai dificilă proba, de către victimă, a faptului generator de răspundere și a legăturii sale cauzale cu dauna produsă.
[6] Aflată pe ordinea de zi a parlamentului, legea prevede că dacă operatorul comercial al unei IA cu grad ridicat de risc provoacă o daună utilizatorului, prin nerespectarea obligațiilor legale ce-i revin în această calitate, este ținut a le indemniza, regulă de la care sunt prevăzute unele excepții (G.H. Kim, Rapport sud-coréen, Association H. Capitant, „Journées internationales sud-coréennes – L’intelligence artificielle”, Séoul, 16-18 Juin 2025.)
[7] Legea nr. 240/2004 transpune în dreptul intern Directiva nr. 85/374/CEE din 25 iulie 1985 de apropriere a actelor cu putere de lege și a actelor administrative ale statelor membre cu privire la răspunderea pentru produsele cu defecte, care a fost abrogată prin Directiva (UE) nr. 2024/2859 din 23 octombrie 2024 privind răspunderea pentru produsele cu defecte.
[8] F.-X. Testu și J.-H. Moitry, La responsabilité du fait des produits défectueux,. Commentaire de la loi 98-389 du 19 mai 1998, în „Droit des affaires”, 1998, no. 125, p. 61.
[9] Wei Lin, Rapport chinois, p. 6; Association H. Capitant, „Journées internationales sud-coréennes – L’intelligence artificielle”, Seoul, 16-18 Juin 2025. Modelul de reglementare a domeniului în China pe termen scurt vizează extinderea dreptului existent, plus o reglementare flexibilă și norme sectoriale; pe termen lung: introducerea riscurilor pe niveluri, similar AI Act, evaluarea etică (deja parțial prezentă) și extinderea răspunderii stricte pentru comportamentele imprevizibile ale IA autonome, ținând seama de previzibilitatea tehnică a dezvoltatorului.
[10] J.-S. Borghetti, Faut-il consacrer un régime de responsabilité du fait de l’intelligence artificielle dans le Code civil?, în: Association Henri Capitant, „Le renouvellement du droit civil sous l’influence du numérique”, lucr. cit., p. 155.
[11] M. Mekki, Dialogue entre l’École et le Palais à l’aune. Des derniers arrêts de la Cour de cassation, în: J.-S. Borghetti, M. Mekki, Y. Pagnerre, L. Thibierge (dir.), „Responsabilité, réparation, proportionnalité”, Editions Lefebvre Dalloz, Paris, 2025, p. 3 și urm.
[12] Ea cuprinde, în principiu: a) riscuri individuale – daune corporale și incorporale (eroare, discriminare, infamare etc.) și b) riscuri sociale – prejudecăți, daune pe scară largă în caz de atac cibernetic, exercitarea iresponsabilă a puterii conferite de digital etc. Conseil d’Europe, Étude sur les incidences des technologies numériques avancées (dont l’intelligence artificielle) sur la notion de responsabilité, sous l’angle des droits humains, 2019.
[13] S. Marcellin, Droit de l’intelligence artificielle, Editions Guliano-Lextenso, Paris, 2025, p. 34.
[14] V. Fauchoux, L’abandon de la directive européenne sur la responsabilité en matière d’IA : analyse juridique et implications, DDG-IA, 24.02.2025.
Cuvinte cheie: |
Citește articolul complet în platforma de documentare juridică Sintact.ro! Solicită un cont demo gratuit completând formularul de mai jos: |