2023 va rămâne fără îndoială marcat de apariția uneltelor de Inteligență Artificială generativă ca ChatGPT și Google Bard. ChatGPT a devenit aplicația cu cea mai rapidă creștere din toate timpurile, ajungând la 100 de milioane de utilizatori în doar două luni și fiind integrată în cele mai diverse domenii de activitate, de la artă la securitatea cibernetică.

În cybersecurity, AI-ul devine însă o armă cu două tăișuri, ajutând atât infractorii să-și rafineze mesajele și atacurile, cât și departamentele IT să automatizeze procesele de detecție, analiză și reacție. Această „cursă a înarmărilor” este surprinsă și de numeroase studii recente. Un sondaj realizat de compania BlackBerry, care a făcut trecerea de la telefoane mobile la securitate, arată principalele temeri ale directorilor și managerilor din domeniul de IT cu privire la impactul negativ al AI. Capacitatea instrumentelor de tipul ChatGPT de a-i ajuta pe hackeri să creeze e-mailuri de phishing mai credibile și cu un conținut mai legitim este principala preocupare la nivel global (53%), urmată de posibilitatea ca hackerii mai puțin experimentați să își îmbunătățească, cu ajutorul AI, cunoștințele tehnice și să dezvolte abilități specializate (49%), și de utilizarea instrumentelor AI pentru răspândirea dezinformării (49%).

Pe de altă parte,  raportul „Reinventing Cybersecurity with Artificial Intelligence” al Capgemini Research Institute arată că AI-ul devine un ajutor esențial pentru departamentele de securitate cibernetică, două treimi dintre participanți afirmând că nu ar putea identifica amenințările critice fără AI, iar cca 75% testând în mod curent diverse scenarii de utilizare a inteligenței arficiale în scenarii de securitate cibernetică.

Iată principalele direcții prin care tehnologiile de inteligență artificială transformă domeniul securității cibernetice.

Impactul negativ: cum folosesc hackerii Inteligeța Artificială

Infractorii cibernetici pot folosi inteligența artificială pentru a concepe și lansa noi tipuri de atacuri cibernetice mai complexe și la scară mai mare.

ChatGPT și alte instrumente de inteligență artificială generativă le permit să construiască programe malware mai bune și mai sofisticate. Spre exemplu, AI poate fi folosită pentru a genera tulpini malware greu de detectat și pentru a executa atacuri, iar combinat cu algoritmi de Machine Learning (ML), malware-ul își poate masca intenția până la îndeplinirea scopului. Malware-ul creat prin inteligență artificială poate fi folosit pentru a se sustrage măsurilor de securitate tradiționale, ceea ce îl face mai greu de detectat și de combătut. Până și infractorii cibernetici începători pot scrie coduri malițioase cu ajutorul instrumentelor de AI, ocolind relativ ușor măsurile de protecție implementate, inclusiv în cazul ChatGPT, pentru a-i împiedica să genereze programe malware/conținut în scopuri ilegale.

În ceea ce privește e-mailurile de phishing personalizate, cu ajutorul AI generative acestea sunt de acum lipsite de semnele care indică o înșelătorie: ortografie și gramatică proastă, lipsa contextului și a logicii. Algoritmii de AI de tipul Large Language Model (LLM), precum ChatGPT, permit infractorilor să genereze intantaneu texte conversaționale care să imite diferite stiluri de comunicare ale unor organizații sau persoane de încredere. Nu peste mult timp infractorii cibernetici îi vor manipula pe utilizatori să împărtășească informații sensibile folosind tehnologiile LLM în combinație cu alte materiale generate de AI: imagini, înregistrări audio și clipuri. Instrumentele de AI generative pot fi folosite și pentru a genera date deep fake pentru activități frauduloase precum furtul de identitate, frauda financiară și dezinformarea.

Mai mult, prin utilizarea ML, infractorii pot sparge CAPTCHA-uri, pot îndeplini sarcini repetitive precum ghicitul parolelor și atacurile de tipul „brute-force”. AI poate fi folosită și pentru a suprasolicita un sistem de securitate cu prea multe rezultate fals pozitive, vulnerabilizându-l pentru ca ulterior să poată fi luat prin surprindere printr-un atac cibernetic real.

Impactul pozitiv: cum folosesc departamentele de cybersecurity AI-ul

Majoritatea companiilor de cybersecurity au integrat deja tehnologii de AI sub diverse forme în soluțiile pe care le dezvoltă. Platformele de securitate cibernetică bazate pe inteligență artificială identifică vulnerabilitățile pe care atacatorii le-ar putea exploata, semnalează/analizează anomalii și corelează evenimente, automatizând detectarea amenințărilor și răspunsul la acestea. Iată câteva direcții în care AI îmbunătățește domeniul de cybersecurity.

Detectare și răspuns în timp real, automatizare

Instrumentele de AI simplifică munca echipelor de securitate suprasolicitate, prin automatizarea sarcinilor manuale/repetitive, permițându-le să se concentreze pe aspectele critice ale activității. Sistemele de securitate pot astfel monitoriza rețelele, dispozitivele terminale și alte tipuri de dispozitive/sisteme pentru a detecta anomalii, tipare comportamentale și alți indicatori de compromitere. AI poate automatiza și protocoalele/procesele de răspuns la amenințări, precum izolarea dispozitivelor infectate sau blocarea traficului malițios.

Machine Learning și analiză predictivă

Prin utilizarea algoritmilor de ML pentru analiza volumelor mari de date, AI identifică proactiv vulnerabilități și riscuri potențiale care pot fi cu ușurință ratate de măsurile de cybersecurity tradiționale. AI folosește tehnici de deep learning pentru a analiza comportamentul utilizatorilor și pentru a identifica abaterile de la normalitate. Acest lucru permite răspunsul imediat și îmbunătățește măsurile de securitate viitoare prin blocarea amenințărilor similare. AI poate filtra automat și rezultatele fals pozitive, care în mod normal necesită revizuire manuală, economisind astfel resurse valoroase. În plus, modelele de self-learning permit tehnologiilor de AI să identifice cele mai bune metode de remediere și pot efectua întregul proces de la început până la sfârșit, fără supraveghere umană. Procesele de învățare constantă al Inteligenței Artificiale face ca munca hackerilor să fie mult mai dificilă.

Alte aplicații ale AI în cybersecurity

Inteligența Artificială poate recunoaște și bloca boții folosiți pentru răspândirea unui malware sau pentru furtul de date, prin identificarea tiparelor lor, prin crearea de captchas mai sigure și prin implementarea de honeypots pentru a-i prinde în capcană. De asemenea, AI-ul poate securiza autentificările prin utilizarea unor instrumente pentru recunoașterea facială, CAPTCHA și scanerele de amprente. Alte scenarii de utilizare includ: threat hunting, detectarea/prevenirea malware-ului și phishing-ului, filtrarea spam-urilor, protecția parolelor, analiza comportamentală, detectarea fraudelor, threat intelligence, gestionarea identității și a accesului, monitorizarea și optimizarea centrelor de date.

Viitorul sună complicat, iar autoritățile depun eforturi tot mai mare pentru a reglementa acest domeniu. Recent adoptatul EU AI Act fiind doar un exemplu. Cursa înarmării cu Inteligență Artificială va continua, să sperăm însă că bieții buni o vor folosi mai eficient.