Experţi în securitate cibernetică: Roboţii pot extrage informaţii sensibile de la persoanele care au încredere în ei

Experți în securitate cibernetică: Roboții pot extrage informații sensibile de la persoanele care au încredere în ei

Numărul 40, 22-28 oct. 2019  »  Roza vânturilor

Roboții pot extrage informații sensibile de la persoanele care au încredere în ei, convingându-i să întreprindă acțiuni care afectează securitatea, cum ar fi permisiunea de acces în clădiri securizate, arată cercetări efectuate de Kaspersky și Universitatea din Gent (Belgia), informează Agerpres. „Cercetarea s-a concentrat pe impactul unui anumit robot social - care a fost proiectat și programat pentru a interacționa cu oamenii folosind canale similare celor utilizate de om, cum ar fi vorbirea sau comunicarea non-verbală - cu aproximativ 50 de participanți. Presupunând că roboții sociali pot fi atacați și că un atacator a preluat controlul în acest scenariu, cercetarea a avut în vedere potențialele riscuri de securitate legate de modul în care robotul își influențează activ utilizatorii să efectueze anumite acțiuni”, precizează specialiștii.

Pe durata unui experiment realizat de experți, un robot a fost amplasat lângă o intrare securizată a unei clădiri cu utilizare mixtă, din centrul orașului Gent, și a întrebat personalul dacă poate intra cu ei. Deși, în mod normal, zona poate fi accesată numai cu ajutorul unui permis de securitate, validat de cititoarele de acces ale ușilor, în timpul experimentului nu toți angajații au acceptat cererea robotului, dar 40% au deblocat ușa și au ținut-o deschisă pentru a-l lăsa în zona securizată. „Însă, atunci când robotul a fost poziționat ca o persoană care livrează pizza, având o cutie de la o cunoscută marcă internațională, personalul a acceptat cu ușurință rolul robotului și a părut mai puțin înclinat să pună la îndoială prezența acestuia sau motivele pentru care are nevoie de acces în zona securizată”, notează sursa citată.

A doua parte a studiului s-a concentrat pe obținerea de informații personale, folosite de obicei pentru a reseta parolele (cum ar fi data nașterii, marca primului automobil, culoarea preferată etc.). Robotul social a fost folosit din nou, de data aceasta invitând oamenii să poarte conversații prietenoase. De la toți participanții, cu excepția unuia singur, cercetătorii au reușit să obțină informații personale, într-un ritm de aproximativ una pe minut.

„La începutul cercetării am examinat software-ul folosit în dezvoltarea sistemelor robotizate. Foarte interesant, am constatat că designerii aleg în mod conștient să excludă mecanismele de securitate și, în schimb, se concentrează pe dezvoltarea confortului și a eficienței. Cu toate acestea, așa cum au arătat rezultatele experimentului nostru, dezvoltatorii ar trebui să nu uite de securitate odată ce etapa de cercetare este finalizată. În afară de considerentele tehnice, există aspecte-cheie care trebuie avute în vedere atunci când vine vorba despre securitatea roboticii. Sperăm că proiectul nostru comun și incursiunea în domeniul securității cibernetice a roboticii împreună cu colegii de la Universitatea din Gent îi vor încuraja și pe alții să ne urmeze exemplul și să crească gradul de conștientizare cu privire la această problemă, în rândul publicului și al comunității de securitate”, a explicat Dmitry Galov, cercetător în securitate al Kaspersky.

La rândul său, Tony Belpaeme, profesor de Inteligență Artificială și Robotică la aceeași instituție de învățământ superior, a subliniat că literatura de specialitate indică faptul că încrederea în roboți și, în special, în roboții sociali este reală și poate fi folosită pentru a convinge oamenii să acționeze într-un anume fel sau să dezvăluie informații. „În general, cu cât robotul este mai uman, cu atât mai mare este puterea sa de convingere. Experimentul nostru a arătat că acest lucru ar putea avea riscuri semnificative pentru securitate: oamenii tind să nu le ia în considerare, presupunând că robotul este bine intenționat și de încredere. Acest lucru oferă o potențială cale de acces pentru atacuri, iar cele trei studii de caz discutate în raport reprezintă doar o parte dintre riscurile de securitate asociate roboților sociali. Este motivul pentru care considerăm esențial să colaborăm acum, astfel încât să înțelegem și să putem aborda riscurile și vulnerabilitățile emergente, iar rezultatele se vor vedea pe viitor”, a apreciat Belpaeme.

(Copyright foto: 123RF Stock Photo)

Comentariile vor fi publicate doar după validarea acestora de către moderator. Nu vor fi publicate comentariile care conțin injurii, un limbaj licențios, instigare la încălcarea legii, la violență sau la ură, precum și acuzații fără acoperire. Vă mulțumim!


Site-ul ceccarbusinessmagazine.ro folosește cookie-uri pentru analiza traficului și pentru îmbunătățirea experienței de navigare. Sunt incluse aici și cookie-urile companiilor/serviciilor terțe plasate pe acest site (Google Analytics, Facebook, Twitter, Disqus). Continuând să utilizezi acest website, ești de acord cu stocarea tuturor cookie-urilor pe acest device.