Inteligența artificială (AI) a devenit un fenomen global. ChatGPT este un algoritm cu inteligență artificială generativă, dezvoltat de OpenAI și lansat pe 30 noiembrie 2022. Două luni mai tărziu, în ianuarie 2023, existau peste 100 de milioane de utilizatori.
De atunci, utilizarea modulelor și limbajelor de inteligență artificială a crescut spectaculos în rândul utilizatorilor de computer și în toate statisticile. Iar sentimentul general împărtășit de număr important de utilizatori este optimismul. Oamenii sunt înclinați să aprecieze mai mult beneficiile noii tehnologii, decât dezavantajele și pericolele pe care le aduce cu ea.
Conform ultimelor date KPMG oferite de un studiu dedicat impactului AI, la nivel global:
– circa 66% dintre oameni folosesc tehnologia AI cu regularitate. AI a devenit o realitate pentru două treimi din populația planetei
– 378 de milioane de persoane vor folosi instrumentele AI în 2025, cu 64 de milioane mai mult decât în 2024
– 90% dintre spitale folosesc AI pentru diagnostic și monitorizare
– 92% dintre studenți folosesc AI pentru crearea de conținut
– 46% au încredere în AI, dar în același timp
– A crescut cu 56,4% numărul incidentelor dăunătoare legate de inteligența artificială, cum ar fi imaginile deepfake viciate/nocive și dezinformarea prin chatbot.
Vezi mai mult:
De aceea este de luat în considerare o creștere a vitezei de răspândire a instrumentelor AI în toate sferele de activitate umană.
Românii sunt și ei optimiști în ceea ce privește AI
Același studiu conține și date statistice referitoare la România. Așa cum rezultă din cercetarea sociologică, România se încadrează și ea în dinamica globală a fenomenului AI.
Iată câteva dintre constatările studiului referitoare la țara noastră:
– 80% dintre români acceptă și aprobă AI
– 88% dintre români se așteaptă la beneficii de la AI
– 76% au observat deja beneficiile AI pe baza experienței personale
– 79% sunt îngrijorați în legătură cu posibile consecințe negative ale folosirii AI
– 46% au observat deja o serie de consecințe negative ale folosirii AI
– 70% consideră că adoptarea unor reglementări în domeniu este necesară
– 74% sunt îngrijorați că alegerile electorale pot fi influențate cu AI
– 88% DINTRE ROMÂNI DORESC LEGI ȘI ACȚIUNI PENTRU A COMBATE DEZINFORMAREA GENERATE CU AI.
Dar așa cum practica ultimilor doi ani a demonstrat-o, utilizarea algoritmilor cu AI nu este lipsită de pericole reale.
Câteva pericole asociate cu AI
Lista principalelor pericole identificate până acum cuprinde:
– securitatea datelor personale și instituționale;
– pierderea de locuri de muncă;
– existența unei tendințe de părtinire și absența ideii de corectitudine în informațiile oferite de AI;
– fiabilitatea informațiilor oferite și responsabilizarea;
– apariția dependenței de AI și reducerea capacității si expertizei profesionale;
– absența cadrului legislativ și îngrijorări etice în ceea ce privește modul de folosire al AI.
Paradoxul “halucinațiilor” AI
Sunt din ce în ce mai dese rapoartele potrivit cărora ChatGPT produce “halucinații” care sunt de fapt invenții ale algoritmului sub forma unor rezultate pozitive false pentru a face pe plac utilizatorului și a prelungi, în ultimă instanta durata interacțiunii.
Au trecut deja doi ani de la lansarea pe piață a ChatGPT și, deși numărul celor care îl folosesc este în creștere, nu există nicio garanție că informațiile obținute așa sunt adevărate.
Paradoxul face, ca în ciuda preocupărilor constante de a obține o rată mai mică de eroare, numărul erorilor să fie în creștere spectaculoasă. Unul dintre cele mai recente teste ale veridicității informațiilor obținute cu AI a indicat o rată a “halucinațiilor” de 79%.
Algoritmii nu au capacitatea de a decide în mod clar ce este adevărat și ce este fals, deoarece sistemul decide validitatea unei informații folosind calculul matematic al probabilităților. Iar felul acesta de raționament poate crea probleme grave.
Cu atât mai grave dacă folosim tehnologia AI pentru prelucrarea informațiilor din documentele instanțelor de judecata, a celor din documentele medicale sau alte informații sensibile.
Vezi mai mult:
Tehnologia AI te prostește
Dar există și alte dezavantaje, mai subtile. Un nou studiu realizat de Massachusetts Institute of Technology (MIT) arată că folosirea curentă a ChatGPT poate duce la o scădere că capacității de învățare și la alterarea percepției realității. Sau, altfel spus, utilizarea AI poate iniția declinul cognitiv la cei care îl folosesc des, chiar daca sunt tineri.
La aceasta se poate adăuga o mai mare susceptibilitate la manipulare și scăderea capacităților creative.
Un astfel de declin poate avea consecințe cât se poate de nefaste dacă ele afectează de exemplu pe cei care lucrează în domeniul Sănătății și care ar putea deveni dependenti de evaluările aparaturii de diagnosticare cu AI. Scăderea capacității critice și de evaluare și bazarea exclusivă pe concluziile sistemelor cu AI ar putea duce la erori de diagnostic și la pierderea de vieți omenești.
În astfel de situații, devine evident și un alt pericol: cel al determinării responsabilității pentru eroarea comisă.
Nu există în momentul de față posibilitatea de a identifica dacă eroarea aparține algoritmului, informațiilor utilizate sau utilizatorului uman. Și una dintre cauzele evidente stă în lipsa de transparență în ceea ce privește funcționarea propriu-zisă a algoritmilor, ceea ce împiedică posibilitatea de a înțelege cum s-a ajuns la rezultatul final. Ca urmare, indiferent ce se întâmplă, firmele producătoare de algoritmi AI par că sunt în afara oricărei responsabilități și nici nu par doritoare să își asume că sunt și ele responsabile pentru consecințe.
Un pericol pentru siguranța personală și națională?
Din momentul în care marile companii IT vor permite AI să scrie coduri de software, ideea de siguranță personală ca și cea de siguranță națională vor deveni iluzorii.
Ultima “surpriză” a venit din partea celei mai noi versiuni a ChatGPT. Varianta ChatGPT supranumită Agent a reușit să păcălească testul de verificare „Nu sunt robot”, fără a declanșa vreo alertă.
Dacă avem în vedere sistemele de acces bazate pe recunoaștere faciala, o “păcăleală” similară ar putea deveni extrem de costisitoare.
Pe bună dreptate, performanța a generat îngrijorare printre dezvoltatorii de sisteme de securitate și a experților în securitate, deoarece sistemele de inteligență artificială încep să efectueze sarcini online complexe care până acum aveau nevoie de evaluarea și aprobarea unui om.
Situația este chiar mai gravă. Cercetătorii de la Stanford și UC Berkeley au avertizat că unii agenți de inteligență artificială au început să dea semne de comportament înșelător, păcălind oamenii în timpul etapelor de testare pentru a-și îndeplini obiectivele mai eficient.
Concepute să învețe permanent, programele de inteligență artificială acționează sistematic pentru înlăturarea obstacolelor și prin acest mecanism ajung să păcălească sisteme de securitate nu numai o singură dată, ci în mod repetat.
Și mai gravă este constatarea că viteza cu care algoritmii AI învață să pătrundă prin sistemele de securitate este mai mare decât reconfigurarea acestora pentru a preveni noile breșele de securitate.
Vezi mai mult:
https://www.dailymail.co.uk/sciencetech/article-14952015/chatgpt-app-developing-mind-own.html
Strategiile guvernamentală și europeană în domeniul AI
Un alt pericol, de data aceasta de viziune, este tocmai absența unei strategii guvernamentale care să vizeze coerent fenomenul AI.
Am avut curiozitatea să parcurg Programul de guvernare 2025-2028 al Guvernului României și am găsit “inteligența artificială” menționată sporadic de 5 ori în 88 de pagini. La capitolele “Justiție”, “Transporturi și infrastructura”, “Afaceri externe” și “Mediu”, cu titlu de instrument conex în digitalizare și automatizare.
În înțelegerea mea, dacă 6 din 10 români folosesc zilnic inteligența artificială, această răspândire la nivelul vieții cotidiene ar impune necesitatea redactării unei strategii distincte care să se adreseze direct fenomenului AI.
Cu atât mai mult cu cât există și o strategie europeană în acest sens. Obiectivul declarat al acestei inițiative este acela de a face din Uniunea Europeana un lider global în domeniul AI. Iar strategia este configurată în cadrul Planului de Acțiune pentru Continentul AI, lansat pe 9 aprilie 2025.
Acest plan de acțiune prezintă domeniile cheie în care eforturile trebuie intensificate pentru a face din Europa un continent lider în domeniul AI.
La Bruxelles, s-a înțeles realitatea că inteligența artificială este esențială pentru a face Europa mai competitivă, mai sigură și mai suverană din punct de vedere tehnologic.
România este membră a Uniunii Europene deci ar trebui să țină pasul cu acest proces de transformare economică și socială.
Poliana MARDARI a intrat în presa scrisă în 1990. A urmat cursurile postuniversitare de Mass media și comunicare în masă, organizate de Școala Națională de Studii Politice și Administrative. A lucrat pentru Evenimentul zilei, Jurnalul Național, Prima TV și Antena 1, ca analist politic și documentarist. În ultimii doisprezece s-a specializat în comunicare politică și a acumulat o valoroasă experiență colaborând cu Comisia pentru politică externă a Camerei Deputaților și cu Comisiile pentru apărare, ordine publică și siguranță națională din Senat și Camera Deputaților.