Prima lege din lume în domeniul Inteligenței artificiale (IA) a intrat în vigoare. Este vorba despre Regulamentul Uniunii Europene(UE) privind IA și urmărește să garanteze că sistemele de IA sunt sigure, etice și de încredere.
Absolut remarcabil este și faptul că la nivelul UE au fost sesizate încă din 2021 pericolele asociate folosirii IA. ChatGPT a fost lansat în 30 noiembrie 2022, iar la 6 decembrie 2022 Consiliul și-a validat deja poziția referitoare la noile norme privind IA.
Actul legislativ a fost adoptat în mod formal de Consiliu la 21 mai 2024 și a intrat în vigoare la 1 august 2024.
Prognozele experților de la Bruxelles au fost ulterior confirmate și chiar depășite de realitate.
Tendințe periculoase – drepturile de autor
Să trecem în revistă principalele motive care au impus adoptarea de reglementări legale.
Inteligența artificială generativă poate fi utilizată printre altele și pentru a crea conținut scris, audio, video, cod și imagini.
În doar doi ani și jumătate de la lansarea în spațiul public a algoritmilor IA, au putut fi identificate deja o serie de efecte periculoase.
Primul semnal notabil a fost revolta scriitorilor și actorilor din Statele Unite ale Americii care au constatat că ChatGPT se folosește de munca scriitorilor, poeților și actorilor — fără consimțământul lor și deci fară respectarea drepturilor de autor.
Este un fapt cunoscut că Inteligența Artificială generativă poate imita stilul de scriere. Și ca urmare, cărțile scrise de oameni reali sunt înlocuite de cărți scrise de inteligența artificială generativă în același stil ca și scriitorii cunoscuți, la prețuri mai mici. Aceasta face din inteligența artificială generativă soluția preferată când vine vorba despre plagiat.
În prezent, conflictul dintre scriitori, editori, pe de o parte, și companiile IA, de cealaltă parte a ajuns în instanță. În Canada, un grup de organizații de știri au dat în judecată producătorul ChatGPT pentru încălcarea drepturilor de autor, iar în SUA este pe rol procesul similar dintre The New York Times și OpenAI.
Dar trebuie observat de asemenea faptul că firmele producătoare de algoritmi IA sunt mai puțin dispuse să își asume responsabilități legale sau etice față de consecințele dăunătoare ale folosirii programelor lor.
Paradoxul securității cibernetice cu IA
În al doilea rand, teoretic, Inteligența Artificială ar trebui să revoluționeze și lumea securității, inclusiv a celei cibernetice. IA poate detecta amenințările mai rapid, poate automatiza sarcinile și poate obține informații valoroase. Prin urmare ar trebui ca securitatea sistemelor cibernetice și nu numai să fie din ce în ce mai bună prin utilizarea IA.
Practic, însă, s-a constatat că IA este în același timp și cea mai mare amenințare. Inteligența artificială accelerează viteza atacurilor cibernetice, cu timpi de declanșare acum adesea sub o oră. Posibilitatea hackerilor de a utiliza instrumente de inteligență artificială le permite să creeze mesaje și metode personalizate și realiste care pot ocoli mecanismele tradiționale de detectare.
Aceasta face ca securitatea datelor personale, cele mai sensibile fiind informațiile bancare sau de sănătate, să fie permanent sub amenințare.
Criminalitatea cibernetică
În al treilea rând, principalul risc global în 2025 este riscul cibernetic, aflat pe primul loc de patru ani la rând, în timp ce în urmă cu zece ani, acesta se clasa doar pe locul 8 la nivel global.
Schimbarea a venit rapid. În ceea ce privește tipul de infracțiune, atacurile ransomware sunt cele mai frecvente, cu o creștere alarmantă a complexității lor.
De asemenea, s-au înmulțit atacurile cibernetice asupra bazelor de date, inclusiv în domeniul sănătății, unde milioane de înregistrări sunt vulnerabile. Până acum, în prima jumătate a anului 2025, peste 29 de milioane de persoane au fost afectate de încălcări ale securității datelor din domeniul sănătății.
O atenție specială trebuie acordată și „deepfake-urilor”. Se estimează că 8 milioane de astfel de materiale video sau audio, create cu ajutorul IA, vor fi distribuite în 2025, față de numai 500.000 în 2023.
Comisia Europeană afirmă că materialele pornografice reprezintă aproximativ 98% din deepfake-uri. Deepfake-urile prezintă riscuri mai mari pentru copii decât pentru adulți, deoarece copiii au mai multe dificultăți în a le identifica.
Copiii sunt mai susceptibili la practici online dăunătoare, inclusiv agresiune fizică, hărțuire cibernetică și materiale care conțin abuzuri sexuale asupra minorilor.
Răspunsul juridic al UE
Acesta este contextul în care Uniunea Europeană a inițiat, în aprilie 2021, demersurile legale pentru completarea cadrului juridic actual.
Înca în octombrie 2021, Consiliul a discutat regulamentul propus, subliniind, pe de o parte, beneficiile societale și economice considerabile pe care IA le poate aduce într-o gamă largă de sectoare și, pe de altă parte, necesitatea de a proteja viața privată și de a garanta siguranța și securitatea persoanei.
Regulamentul privind IA va fi pe deplin aplicabil la 2 august 2026, în mod etapizat:
• interdicțiile și obligațiile în materie de alfabetizare în domeniul IA au intrat în vigoare la 2 februarie 2025;
• normele de guvernanță și obligațiile pentru modelele GPAI au devenit aplicabile la 2 august 2025;
• normele privind sistemele de IA cu grad ridicat de risc – integrate în produsele reglementate – au o perioadă de tranziție prelungită până la 2 august 2027.
Despre legea europeană a IA
Obligațiile prevăzute de Regulamentul european privind Inteligența Artificială (AI Act) pentru furnizorii de modele de IA de uz general (GPAI) au intrat în vigoare în 2 august 2025, în Uniunea Europeană.
Scopul asumat al noilor reglementări este acela de a obține pentru utilizatori mai multă transparență, siguranță și responsabilitate din partea furnizorilor de modele GPAI.
În susținerea textului Regulamentului, au fost puse la dispoziția producătorilor de algoritmi IA un set de orientări oferind lămuriri în legătură cu cine sunt cei care trebuie să se conformeze noului cadru juridic european.
De asemenea a fost redactat și un Cod de bune practici privind GPAI, semnat până acum printre alții de Google, Microsoft și xAI.
Esențial, textul pornește de la identificarea riscurilor asociate folosirii IA și ia în considerare patru niveluri de risc:
– risc inexistent sau minim
– risc limitat
– risc ridicat
– risc inacceptabil.
Trebuie menționat că sunt considerate sisteme IA cu grad ridicat de risc cele folosite în diagnosticarea bolilor, conducerea autonomă a vehiculelor și identificarea biometrică a persoanelor implicate în activități infracționale. Înainte de a fi acceptate pe piața unică UE, aceste sisteme trebuiesc testate de o manieră extrem de riguroasă și se cere pentru ele supraveghere umană.
Sunt interzise în UE sistemele ce au capacitatea de a manipula comportamental-cognitiv, de a realiza analize predictive destinate activităților poliției sau recunoașterea emoțiilor la locul de muncă și în instituțiile de învățământ.
Normele impun obligații furnizorilor și implementatorilor de tehnologii IA și reglementează autorizarea sistemelor de inteligență artificială pe piața unică a UE.
Legea abordează nu numai riscurile legate de IA, dar și prejudecățile, discriminarea și lacunele la nivelul asumării răspunderii, promovează inovarea și încurajează adoptarea IA.
Pentru încălcarea normelor sunt stabilite amenzi. Acestea reprezintă un procent din cifra de afaceri globală a firmei furnizoare din anul precedent sau un cuantum fix, luându-se în considerare valoarea cea mai mare. IMM-urile și întreprinderile nou-înființate primesc amenzi proporționale.
Fiind prima lege din lume care reglementează IA, normele UE ar putea stabili un standard mondial pentru reglementarea IA, la fel cum a făcut-o Regulamentul general privind protecția datelor (RGPD) în ceea ce privește confidențialitatea datelor, promovând o inteligență artificială etică, sigură și de încredere la nivel mondial.
Poliana MARDARI a intrat în presa scrisă în 1990. A urmat cursurile postuniversitare de Mass media și comunicare în masă, organizate de Școala Națională de Studii Politice și Administrative. A lucrat pentru Evenimentul zilei, Jurnalul Național, Prima TV și Antena 1, ca analist politic și documentarist. În ultimii doisprezece s-a specializat în comunicare politică și a acumulat o valoroasă experiență colaborând cu Comisia pentru politică externă a Camerei Deputaților și cu Comisiile pentru apărare, ordine publică și siguranță națională din Senat și Camera Deputaților.