În ultimii ani, Inteligența Artificială (AI) a trecut de la statutul de promisiune tehnologică la realitate operațională. În business, AI generează avantaje competitive prin automatizare, analiză predictivă și eficientizare a deciziilor. În educație, transformă modul în care elevii învață, profesorii predau, instituțiile planifică.
Dar în spatele acestei revoluții tehnologice, se ascund riscuri reale: lipsa transparenței algoritmice, problemele legate de confidențialitate și securitatea datelor, dar și provocările conformității într-un context legislativ emergent, dominat de reglementări precum EU AI Act, GDPR sau ISO/IEC 42001.
În acest peisaj complex, rolul Chief Information Security & Compliance Officer (CISCO) devine central: nu doar ca apărător al integrității digitale, ci și ca facilitator al unei transformări responsabile.
CISCO: De la “polițist” la facilitator
Tradițional, rolul de CISCO a fost perceput ca un gardian, un custode al datelor și reglementărilor. Astăzi, odată cu emergența AI, acest rol se transformă. CISCO este chemat să fie un “arhitect al încrederii digitale”, să colaboreze inter-funcțional și să construiască punți între inovație și responsabilitate. Adoptarea AI nu poate fi lăsată doar pe umerii echipelor de tehnologie sau data science. CISCO trebuie să asigure:
- definirea politicilor de utilizare responsabilă a AI,
- evaluarea riscurilor generate de modele de inteligență artificială,
- implicarea în procesul de selecție și monitorizare a furnizorilor terți care oferă servicii AI,
- aplicarea principiilor de echitate, transparență și responsabilitate.
Într-un mediu reglementat precum cel al AI Act, în care modelele de risc ridicat trebuie evaluate, înregistrate și auditate, CISCO devine o voce strategică în boardroom.
Transformarea digitală: Nu doar AI, ci o schimbare de paradigmă
Adoptarea AI nu este (nu trebuie să fie) doar un proiect IT. Este un proces de transformare digitală profundă, care afectează toate nivelurile unei organizații. Din perspectiva ITIL 4 (un alt framework drag mie), această transformare trebuie analizată prin prisma celor patru dimensiuni fundamentale (The four-dimension model of ITSM):
- Tehnologie (Information and Technology): AI este catalizatorul, dar nu și soluția completă. Fără o infrastructură scalabilă, securizată și interoperabilă, AI nu livrează valoare. CISCO trebuie să valideze arhitecturile tehnice, să asigure confidențialitatea datelor și să se implice în auditarea modelelor.
- Procese (Value Streams and Processes): Noile fluxuri AI-driven (de exemplu, deciziile automatizate în recrutare) trebuie să fie clar definite, explicabile și documentate. CISCO contribuie prin actualizarea politicilor de guvernanță și prin integrarea AI în controalele de conformitate.
- Oameni (Organizations and People): Transformarea digitală fără AI literacy este o capcană. Angajații trebuie educați nu doar să folosească AI, ci și să înțeleagă implicațiile etice și juridice. CISCO are un rol-cheie în construirea unei culturi organizaționale bazate pe responsabilitate digitală.
- Furnizori (Partners and Suppliers): Mulți furnizori de servicii oferă soluții AI „black-box”. CISCO trebuie să implementeze mecanisme de due diligence, evaluări de impact și audit al furnizorilor care gestionează modele sau date sensibile.
Astfel, implementarea AI nu este doar o decizie tehnologică, ci un proces strategic de transformare digitală în care succesul depinde de alinierea armonioasă dintre oameni, procese, tehnologii și partenerii externi, sub o guvernanță clară și responsabilă.
Riscuri și provocări: între bias, dependență excesivă și presiunea reglementării
Odată adoptată, inteligența artificială devine o parte activă a deciziilor de zi cu zi din organizație. Tocmai de aceea, riscurile asociate nu mai sunt doar abstracte sau teoretice, ci devin cât se poate de tangibile.
Un prim exemplu îl reprezintă bias-ul algoritmic. Modelele de AI învață din date istorice – însă acele date pot conține dezechilibre sau prejudecăți pe care algoritmul le va reproduce, chiar dacă nu le înțelege. Astfel, un sistem de recrutare ar putea exclude automat anumite categorii de candidați pentru că, în trecut, aceștia au fost mai puțin selectați, fără a ține cont de potențialul real al aplicanților. În educație, un algoritm care evaluează elevii pe baza comportamentului online ar putea penaliza involuntar pe cei cu un stil de învățare mai atipic.
O altă capcană este dependența excesivă de decizii automate. Pe măsură ce AI devine mai performant, există tendința de a-i delega tot mai multe responsabilități — de la analiza performanței angajaților până la recomandările privind promovarea sau exmatricularea unor studenți. Dar, fără o înțelegere critică a modului în care sunt generate aceste decizii, organizațiile riscă să transforme „asistarea” în „automatizare completă” — fără loc pentru interpretare umană sau context.
În același timp, trebuie să recunoaștem că AI aduce și riscuri de securitate specifice. Modelele pot fi expuse la atacuri sofisticate, cum ar fi manipularea datelor de antrenament sau extragerea de informații sensibile (ex.: data poisoning, model inversion attacks). În plus, complexitatea acestor sisteme face dificilă trasabilitatea și auditarea completă, ceea ce duce la întrebări serioase privind responsabilitatea și răspunderea legală.
Într-un astfel de context, presiunea reglementării devine tot mai mare. Reguli precum EU AI Act impun clasificarea modelelor în funcție de risc, audituri periodice, transparență și chiar interzicerea unor aplicații considerate inacceptabile. CISCO are responsabilitatea de a înțelege aceste reglementări emergente, de a anticipa impactul lor și de a le integra în mecanismele de guvernanță existente.
De la reglementare la responsabilitate: construirea unui AI etic și conform
În fața acestor provocări, CISCO nu se mai poate limita la aplicarea clasică a politicilor de securitate sau la auditul de conformitate. Este nevoie de o abordare proactivă, structurată și etică în guvernanța AI-ului.
Primul pas este formularea unor politici clare privind utilizarea AI în organizație, care să definească ce este permis, ce nu este acceptabil și cum trebuie gestionate excepțiile. Aceste politici nu sunt doar formale, ci servesc drept ghid pentru toate echipele — de la dezvoltare, la legal, HR sau educație.
În paralel, este esențial să se construiască un cadru intern de guvernanță AI, în care modelele utilizate să fie documentate, evaluate, clasificate în funcție de risc și monitorizate în mod continuu. În cazul modelelor de risc ridicat, conform EU AI Act, este obligatorie menținerea unui registru complet, revizuirea algoritmilor și audituri periodice care să dovedească faptul că deciziile generate sunt corecte, echitabile și explicabile.
În unele organizații, au început să apară comitete de etică digitală (Digital Ethics Committee), în care CISCO colaborează cu reprezentanți din diverse departamente pentru a evalua impactul social al soluțiilor AI propuse. Departe de a fi doar o formalitate, aceste forumuri sunt esențiale pentru prevenirea unor decizii care ar putea aduce prejudicii reputaționale sau legale.
Un alt element important în această ecuație ar pute fi integrarea standardului ISO/IEC 42001, care oferă un cadru de management pentru AI similar cu ISO 27001 pentru securitatea informațiilor. Standardul permite alinierea tehnologiei cu procesele și cultura organizațională, sprijinind astfel o implementare sustenabilă și controlabilă a inteligenței artificiale.
Responsabilitatea nu este doar juridică. Este și morală. CISCO trebuie să se întrebe permanent: folosim AI în mod corect, transparent și în interesul tuturor părților implicate?
Educația – între potențialul AI și limitele etice
Educația este poate domeniul în care AI aduce cele mai mari promisiuni, dar și cele mai sensibile întrebări. Pe de o parte, algoritmii permit crearea unor platforme de învățare adaptivă, capabile să personalizeze conținutul pentru fiecare elev, să anticipeze dificultățile și să sugereze soluții în timp real. De asemenea, roboții educaționali sau tutorii virtuali pot oferi sprijin constant, în special în zone defavorizate sau în sistemele suprasolicitate.
Pe de altă parte, tocmai pentru că se adresează copiilor și tinerilor, educația este un teren în care aspectele etice și de protecție a datelor devin critice. De exemplu, ce înseamnă o decizie corectă într-un algoritm care evaluează performanța unui elev? Ce date pot fi colectate și procesate în mod legal și etic, mai ales în cazul minorilor? Cine este responsabil dacă un sistem oferă recomandări greșite sau creează presiuni psihologice prin evaluări neexplicate?
În acest context, CISCO joacă un rol esențial în sprijinirea instituțiilor educaționale să navigheze cu prudență între inovație și responsabilitate. Acest rol presupune nu doar evaluarea furnizorilor edtech, ci și dezvoltarea de politici clare privind consimțământul, transparența și auditul tehnologiilor utilizate în procesul educațional.
Mai mult, CISCO poate deveni un partener în crearea unei culturi a responsabilității digitale în rândul cadrelor didactice, elevilor și părinților. Este nevoie de o alfabetizare AI (AI literacy) care să nu însemne doar învățarea unor concepte tehnice, ci și dezvoltarea gândirii critice, a empatiei și a conștientizării riscurilor.
Educația nu poate fi redusă la o formulă matematică. Iar introducerea AI în acest domeniu impune mai multă reflecție, nu mai puțină. CISCO trebuie să fie acel glas care veghează ca tehnologia să servească formării umane, nu invers.
In loc de concluzii: responsabilitate și încredere în era AI
Inteligența artificială schimbă fundamental modul în care lucrăm, învățăm și luăm decizii, dar succesul acestei tranziții depinde de cât de responsabil o guvernăm. Rolul CISCO devine esențial în construirea unui cadru de încredere, în care inovația este ghidată de principii solide, nu doar de eficiență. Între reglementări emergente, presiuni de business și provocări etice, AI nu mai este doar o oportunitate tehnologică — este un test de maturitate organizațională. Iar viitorul aparține acelora care au curajul să combine progresul cu prudența și tehnologia cu umanitatea.
Valentin P. Măzăreanu, PhD.
Chief Information Security & Compliance Officer, CREATEQ Engineering SRL