Experţi în securitate cibernetică: Roboţii pot extrage informaţii sensibile de la persoanele care au încredere în ei

Experți în securitate cibernetică: Roboții pot extrage informații sensibile de la persoanele care au încredere în ei

Numărul 40, 22-28 oct. 2019  »  Roza vânturilor

Roboţii pot extrage informaţii sensibile de la persoanele care au încredere în ei, convingându-i să întreprindă acţiuni care afectează securitatea, cum ar fi permisiunea de acces în clădiri securizate, arată cercetări efectuate de Kaspersky şi Universitatea din Gent (Belgia), informează Agerpres. „Cercetarea s-a concentrat pe impactul unui anumit robot social - care a fost proiectat şi programat pentru a interacţiona cu oamenii folosind canale similare celor utilizate de om, cum ar fi vorbirea sau comunicarea non-verbală - cu aproximativ 50 de participanţi. Presupunând că roboţii sociali pot fi atacaţi şi că un atacator a preluat controlul în acest scenariu, cercetarea a avut în vedere potenţialele riscuri de securitate legate de modul în care robotul îşi influenţează activ utilizatorii să efectueze anumite acţiuni”, precizează specialiştii.

Pe durata unui experiment realizat de experţi, un robot a fost amplasat lângă o intrare securizată a unei clădiri cu utilizare mixtă, din centrul oraşului Gent, şi a întrebat personalul dacă poate intra cu ei. Deşi, în mod normal, zona poate fi accesată numai cu ajutorul unui permis de securitate, validat de cititoarele de acces ale uşilor, în timpul experimentului nu toţi angajaţii au acceptat cererea robotului, dar 40% au deblocat uşa şi au ţinut-o deschisă pentru a-l lăsa în zona securizată. „Însă, atunci când robotul a fost poziţionat ca o persoană care livrează pizza, având o cutie de la o cunoscută marcă internaţională, personalul a acceptat cu uşurinţă rolul robotului şi a părut mai puţin înclinat să pună la îndoială prezenţa acestuia sau motivele pentru care are nevoie de acces în zona securizată”, notează sursa citată.

A doua parte a studiului s-a concentrat pe obţinerea de informaţii personale, folosite de obicei pentru a reseta parolele (cum ar fi data naşterii, marca primului automobil, culoarea preferată etc.). Robotul social a fost folosit din nou, de data aceasta invitând oamenii să poarte conversaţii prietenoase. De la toţi participanţii, cu excepţia unuia singur, cercetătorii au reuşit să obţină informaţii personale, într-un ritm de aproximativ una pe minut.

„La începutul cercetării am examinat software-ul folosit în dezvoltarea sistemelor robotizate. Foarte interesant, am constatat că designerii aleg în mod conştient să excludă mecanismele de securitate şi, în schimb, se concentrează pe dezvoltarea confortului şi a eficienţei. Cu toate acestea, aşa cum au arătat rezultatele experimentului nostru, dezvoltatorii ar trebui să nu uite de securitate odată ce etapa de cercetare este finalizată. În afară de considerentele tehnice, există aspecte-cheie care trebuie avute în vedere atunci când vine vorba despre securitatea roboticii. Sperăm că proiectul nostru comun şi incursiunea în domeniul securităţii cibernetice a roboticii împreună cu colegii de la Universitatea din Gent îi vor încuraja şi pe alţii să ne urmeze exemplul şi să crească gradul de conştientizare cu privire la această problemă, în rândul publicului şi al comunităţii de securitate”, a explicat Dmitry Galov, cercetător în securitate al Kaspersky.

La rândul său, Tony Belpaeme, profesor de Inteligenţă Artificială şi Robotică la aceeaşi instituţie de învăţământ superior, a subliniat că literatura de specialitate indică faptul că încrederea în roboţi şi, în special, în roboţii sociali este reală şi poate fi folosită pentru a convinge oamenii să acţioneze într-un anume fel sau să dezvăluie informaţii. „În general, cu cât robotul este mai uman, cu atât mai mare este puterea sa de convingere. Experimentul nostru a arătat că acest lucru ar putea avea riscuri semnificative pentru securitate: oamenii tind să nu le ia în considerare, presupunând că robotul este bine intenţionat şi de încredere. Acest lucru oferă o potenţială cale de acces pentru atacuri, iar cele trei studii de caz discutate în raport reprezintă doar o parte dintre riscurile de securitate asociate roboţilor sociali. Este motivul pentru care considerăm esenţial să colaborăm acum, astfel încât să înţelegem şi să putem aborda riscurile şi vulnerabilităţile emergente, iar rezultatele se vor vedea pe viitor”, a apreciat Belpaeme.

(Copyright foto: 123RF Stock Photo)




Site-ul ceccarbusinessmagazine.ro folosește cookie-uri pentru analiza traficului și pentru îmbunătățirea experienței de navigare. Sunt incluse aici și cookie-urile companiilor/serviciilor terțe plasate pe acest site (Google Analytics, Facebook, Twitter, Disqus). Continuând să utilizezi acest website, ești de acord cu stocarea tuturor cookie-urilor pe acest device.