Anton Rog (Cyberint): Inteligența Artificială trebuie să fie mult mai reglementată și nu trebuie să ne jucăm cu ea

Anton Rog (Cyberint): Inteligența Artificială trebuie să fie mult mai reglementată și nu trebuie să ne jucăm cu ea

Telex » Știri 21 iunie 2023  

Inteligența Artificială (IA) este foarte prezentă în viața noastră și folosirea ei chiar trebuie să fie mult mai bine reglementată, este de părere Anton Rog, directorul general al Centrului Național Cyberint din cadrul Serviciului Român de Informații (SRI), relatează Agerpres. "Inteligența artificială este foarte prezentă. Cine crede că discutăm că o să crească în viitor... Nu, e prezentă deja. Trebuie reglementată, așa cred eu, șeful Cyberint de la SRI. Chiar trebuie să fie mult mai bine reglementată. Este super-prezentă în viața noastră și toate acele facilități pe care le simțim la dispozitivele inteligente la telefon, care ni se întâmplă. Toate au în ele Inteligență Artificială. Ne ajută să detectăm mai rapid malware, să prioritizăm amenințări, să automatizăm procese, să analizăm volume mari de date și să reducem erorile umane. Malware-ul scris de actorii rău-intenționați, cu Inteligența Artificială, este mult mai performant. Avem și provocări. A crescut foarte mult complexitatea malware-ului dezvoltat cu ajutorul Inteligenței Artificiale, precum și sistemele în care se creează un astfel de malware", a declarat oficialul, într-o conferință de specialitate.

Specialistul Cyberint a oferit, în context, exemple în care Inteligența Artificială și-a demonstrat gradul de pericol. "A devenit mult mai dificilă instrumentarea unor astfel de atacuri. Și vă dau un exemplu simplu pe care îl înțelegeți: există ceva care se numește Intrusion Detection System. Un cercetător a făcut un experiment și a întrebat un chat, nu contează care dintre ele: «Te rog să-mi generezi un cod pentru un program informatic care să nu fie detectat de EDR-ul (Endpoint Detection and Response, n.r.) de la compania cutare». În cinci minute i-a generat, l-a testat în laborator și EDR-ul respectiv nu îl detecta. Vreau să înțelegeți că impactul este unul devastator. E ceva nu ne putem imagina la momentul acesta. De aceea, eu cred că trebuie să fie foarte bine reglementat. A mai fost un experiment în Statele Unite în care un operator a lansat o rachetă și a cerut controlului bazat pe Inteligență Artificială ca, orice ar fi, racheta să ajungă la țintă. Când a vrut să intervină, să schimbe traiectoria, Inteligența Artificială cu senzoristică i-a amenințat viața pur și simplu, adică voia să-l electrocuteze, să genereze tensiuni. Cam așa e povestea și nu trebuie să ne jucăm cu ea", a atenționat Anton Rog.

La 14 iunie, Parlamentul European și-a adoptat poziția de negociere referitoare la Legea privind inteligența artificială (IA) și a dat "undă verde" unor norme care își propun să garanteze o IA sigură și transparentă. Normele urmează o abordare bazată pe riscuri și stabilesc obligații pentru furnizori și pentru cei care implementează sisteme de IA, în funcție de nivelul de risc pe care îl poate prezenta inteligența artificială. Astfel, sistemele de IA cu un nivel inacceptabil de risc pentru siguranța oamenilor ar urma să fie interzise, precum cele care utilizează evaluarea comportamentului social (clasificând oamenii pe baza comportamentului social sau a caracteristicilor personale).

În același timp, eurodeputații vor interzicerea sistemelor de recunoaștere a emoțiilor folosite la locul de muncă sau în cadrul instituțiilor de învățământ, ori în domeniul aplicării legii sau al gestionării frontierelor sau a extragerii fără scop precis a datelor biometrice din imaginile faciale de pe internet sau înregistrări făcute de televiziunile cu circuit închis pentru a crea baze de date de recunoaștere facială.

Sistemele de IA folosite pentru a influența alegătorii și rezultatul alegerilor și în sistemele de recomandare utilizate de platformele de comunicare socială (cu peste 45 de milioane de utilizatori) au fost adăugate pe lista cu risc ridicat.

De asemenea, forul european consideră că sistemele de IA generative bazate pe astfel de modele, cum ar fi ChatGPT, ar trebui să respecte cerințele de transparență, adică trebuie să divulge când un conținut a fost generat de IA, inclusiv pentru a ajuta la distingerea așa-numitelor imagini "deep fake" de cele reale, și să introducă garanții împotriva generării de conținut ilegal. Ar trebui să fie puse la dispoziția publicului și rezumate detaliate ale datelor protejate prin drepturi de autor folosite pentru a antrena aceste sisteme, consideră PE.

Negocierile cu Consiliul cu privire la forma finală a legii au început în ziua adoptării poziției referitoare la actul normativ.

(Copyright foto: 123RF Stock Photo)



Site-ul ceccarbusinessmagazine.ro folosește cookie-uri pentru analiza traficului și pentru îmbunătățirea experienței de navigare. Sunt incluse aici și cookie-urile companiilor/serviciilor terțe plasate pe acest site (Google Analytics, Facebook, Twitter, Disqus). Continuând să utilizezi acest website, ești de acord cu stocarea tuturor cookie-urilor pe acest device.