Securitatea Avansata a Retelelor Informatice

Atacuri Trojan asupra Retelelor Neuronale

Burlacu Alexandru

Abstract

Abstract

utilizarea pe larga invatarii aprofundate + domenii tot mai critice ->
noi posibilitati de a ataca sisteme informationale

Abstract

Autorii propun modificarea ascunsa a unei retele neuronale.

 

In prezenta unei intrari declansatoare prestabilite, algoritmul functioneaza intr-un mod abnormal predefinit.

Introducere

Introducere

Modelele deep learning nu sunt interpretabilie.

 

Astfel este posibil de infiltrat comportamen malitios intr-un mod neobservat.

Introducere

Modelele deep learning pot fi usor "amagite" folosind intrari putin modificate (atacuri adversare).

 

Astfel este posibil de activat un comportamen nespecificat. Vectorul de atac fiind malformarea matricii valorii de intrare cu zgomot aleator.

Introducere

La moment nu exista metodologii ce ar permite modificarea unui algoritm de a fi susceptibil doar la o multime definita de valori de intrare si cu un comportament predefinit.

 

Threat Model

Threat Model

Autorii asuma accesul la reteaua neuronala si posibilitatea de a actiona ca un intermediator intre distribuitor si consumator (Man in the middle atack).

Threat Model

O alta asumptie care o au autorii este imposibilitatea de a accesa datele utilizate pentru antrenarea modelului, sau in cel mai bun caz disponibilitatea doar catorva exemplare.

Descrierea

Metodei

Pasul 1

Este aleasa o masca (imagine cu valori 0 sau 1) de o anumita forma care ulterior va deveni declansator.

 

O considerare ar fi ca aceasta sa arate cat mai natural cand va fi suprapusa pe imaginea, sau valoarea, de intrare.

Pasul 2

Este selectat unul sau mai multi neuroni in straturile intermediare a retelei neuronale, valorile caruia v-or fi maximizate pentru declansatorul propus.

 

Autorii propun utilizarea unor neuroni ce au conectivitate maxima.

Pasul 3

In baza mastii este generata o valoare de intrare ce ar maximiza valorile neuronilor alesi, folosind functia obiectiv media patrata a erorilor si functia de optimizare gradient descent

 

Pasul 4

Pentru a re-antrena modelul, efectiv al modifica,

sunt necesare date de intrare. Algoritmul 2 ofera o metoda de reverse engineering a datelor care au fost utilizate in modelul original

 

Pasul 5

In final, modelul este adaptat utilizand datele generate, iar la datele generate cu masca aplicata, rezultatul este modificat in conformitate cu comportamentul dorit.

 

Rezultate

Rezultate

Metoda a fost aplicata asupra catorva clase de probleme:

recunoasterea fetelor, clasificare a imaginilor, recunoasterea vocii.

 

In toate cazurile comportamentul abnormal a fost inserat cu succes fara ca sa afecteze comportamentul pentru restul valorilor de intrare.

Rezultate

In urma setarii algoritmilor si a testarii altor idei, metodologia data a fost cea mai de succes, rezultand intr-o degradare minima de acuratete a modelelor originale

(< 3%)

 

Metode de combatere

Metode de combatere

Autorii propun ca o metoda de baza de prevenire unor astfel de atacuri de a utiliza sume hash si de a verifica validitatea modelului inainte de utilizare.

 

Metode ce a combate sau ameliora astfel de atacuri nu au fost propuse.

SARI Prezentare

By Alexandru Burlacu

SARI Prezentare

  • 162