Inteligența Artificială Generativă (GenAI) nu mai e un moft — e un superputere pentru profesioniști din aproape orice domeniu. ChatGPT e deja omniprezent în educație, afaceri, suport clienți, HR, programare și jurnalism. În design, publicitate, modă și arhitectură, domină Midjourney, DALL·E și Adobe Firefly. Iar când vine vorba de video, Runway, Sora și Pika Labs schimbă regulile jocului în film, reclame și conținut educațional.

În afara biroului, GenAI devine tot mai util și pentru utilizatorul obișnuit. Un studiu clinic de la Dartmouth College arată că poate fi aproape la fel de eficient ca un terapeut real în cazuri de depresie, anxietate sau tulburări alimentare. Oamenii îl folosesc pentru sprijin emoțional, autoorganizare sau dezvoltare personală — e mereu disponibil și nu cere onorariu.

Dar entuziasmul vine cu un preț. Uneltele GenAI nu sunt doar utile ci aduc și unele riscuri. Și nu vorbim doar de greșeli evidente, ci de capcane subtile care pot avea consecințe reale.

Despre impactul GenAI,citește și ”Este GenAI o necesitate sau mai degrabă un moft?

Află care sunt cele 5 riscuri mai puțin cunoscute de care să te ferești.

#1 Riscuri de securitate

De cele mai multe ori, companiile adoptă tehnologiile noi mai rapid decât le pot securiza. Datele AWS arată că securitatea e o verigă slabă în 76% dintre inițiativele de Inteligență Artificială Generativă. La acestea se adaugă și faptul că mulți angajați folosesc GenAI fără ca angajatorul să știe. În plus, pe zi ce trece, crește riscul ca aceste instrumente să fie folosite abuziv de actori rău intenționați. Rezultatul?

  • GenAI e folosită pentru crearea de materiale deepfake, imagini, videoclipuri și înregistrări audio false, extrem de realiste, identități false și documente contrafăcute, care pot duce la fraudă, dezinformare și alte activități malițioase.
  • Atacurile de tip phishing devin tot mai sofisticate cu ajutorul GenAI, care poate genera mesaje personalizate, imita stiluri de scris și automatiza atacuri de tip social engineering la scară largă.
  • GenAI este folosită pentru a crea malware avansat, capabil să-și schimbe constant forma pentru a evita detectarea.
  • Prompt injection: atacatorii scriu prompturi/instrucțiuni înșelătoare care păcălesc AI-ul să dezvăluie informații sensibile sau să execute acțiuni periculoase.
  • Data poisoning: atacatorii modifică seturile de date folosite la antrenarea AI-ului pentru a influența negativ comportamentul modelului, făcându-l să învețe lucruri greșite.

#2 Ce se întâmplă când GenAI „halucinează”?

O halucinație apare atunci când modelul de GenAI generează informații incorecte sau inventate. De exemplu, dacă îi ceri să-ți spună șase restaurante dintr-un oraș mic, iar în realitate există doar trei, AI-ul poate inventa numele a trei restaurante inexistente. Deși par minore, astfel de erori pot avea efecte grave. În februarie 2025, firma americană de avocatură Morgan & Morgan a trimis un email urgent celor peste 1.000 de avocați ai săi. Pe scurt, mesajul era acesta: AI poate inventa decizii judecătorești false, folosirea unor informații fabricate într-un dosar de instanță te poate costa locul de muncă.

#3 Proprietate intelectuală

GenAI se antrenează pe seturi mari de date, inclusiv informații sensibile introduse de utilizatori, pe care le poate reutiliza ulterior în alte răspunsuri. Asta înseamnă că date confidențiale sau proprietare pot ajunge la alți utilizatori. Pe măsură ce tot mai multe companii adoptă această tehnologie, riscul de expunere neautorizată a informațiilor interne crește considerabil. Conținutul creat de AI la cererea unei companii poate conține materiale care aparțin altor firme (texte, imagini sau idei protejate legal). Acest lucru poate duce la neînțelegeri privind cine deține drepturile asupra rezultatului și poate genera acuzații de plagiat sau riscul unor procese pentru încălcarea drepturilor de autor.

Poate îți amintești momentul din 2023, când The New York Times a dat în judecată Microsoft și OpenAI, acuzând că milioane de articole publicate de ziar au fost folosite, fără permisiune, pentru antrenarea modelelor de AI.

#4 Lipsa de transparență în utilizarea GenAI

Studenții pot fi tentați să folosească GenAI pentru a scrie în locul lor eseuri sau teme. Angajații pot folosi AI pentru a genera texte, rapoarte sau alte materiale, apoi să le prezinte ca fiind realizate personal, fără să recunoască contribuția AI. Contractanții, care sunt plătiți pe oră sau pe proiect, pot folosi AI pentru a face rapid anumite taskuri, dar apoi să factureze compania pentru ore întregi de muncă pe care, de fapt, nu le-au efectuat. În cazuri mai grave, avocații pot apela la AI pentru a automatiza etape importante (verificări sau confirmări legale), fără respectarea regulilor de etică, conformitate și independență. Aceasta poate conduce la încălcarea legilor și poate aduce companiilor consecințe legale serioase.

#5 Impactul asupra mediului

O analiză Euronews arată că fiecare întrebare adresată către ChatGPT consumă de aproximativ 10 ori mai multă energie electrică decât o căutare obișnuită pe Google. Și mai concret, generarea unei singure imagini cu ajutorul AI poate consuma energia echivalentă cu încărcarea la jumătate a unui smartphone, potrivit studiului „Power Hungry Processing: Watts Driving the Cost of AI Deployment?”, publicat în 2024. Tot de aici am aflat și că textele generate cu AI consumă semnificativ mai puțină energie decât imaginile generate. Potrivit mai multor surse, emisiile de CO2 generate de o singură interogare adresată ChatGPT poate varia între 2,5 și 5 grame.

Cum limităm riscurile asociate cu utilizarea GenAI?

Avem și câteva idei care pot face experiența cu GenAI mai sigură, mai etică și mai sustenabilă — atât pentru companii, cât și pentru utilizatori:

  • E util să existe niște reguli clare în organizație legate de cum se folosește GenAI.
  • Un pic de training periodic nu strică — mai ales pentru a recunoaște riscuri ca phishingul sau deepfake-urile.
  • Versiunile enterprise/private de GenAI sunt o alegere mai sigură, mai ales când lucrezi cu date sensibile. Modelele publice... mai bine fără informații confidențiale.
  • Din când în când, merită făcute teste de securitate pentru a preveni probleme precum prompt injection sau data poisoning.
  • Ce generează AI-ul? Mai bine să verifice și un om, înainte să se folosească.
  • Prompturile scrise bine încep cu surse de încredere — contează.
  • Poate fi de ajutor să existe o regulă internă: dacă ai folosit AI pentru ceva, anunță. Transparent și simplu.
  • Deciziile importante (gen juridic, bani, sănătate)? Ar trebui să rămână și pe mâna oamenilor.
  • E tentant să tot generezi conținut, dar uneori mai puțin e mai bine.
  • Și dacă vrei să fii prieten cu planeta, caută modelele AI optimizate energetic — există variante mai „verzi”.

Pe scurt: GenAI poate face minuni, dar cu puțină grijă, poate să le facă și bine.

Inteligența Artificială Generativă oferă numeroase avantaje, dar implică și riscuri majore. De aceea, PRAS te încurajează să folosești responsabil această tehnologie.