I limiti del Machine Learning e dintorni

U

Utente cancellato 368991

Ospite

asdasd.jpg

Le IA cominciano a diffondersi sempre più nelle nostre applicazioni, tali algoritmi, sebbene mostruosamente efficaci, risultano sensibili ai cosiddetti "dati contraddittori" sui quali si basano attacchi di avvelenamento, evasione, ed altro ancora.

Questi dati, sebbene presenti in natura, possono essere creati aggiungendo del rumore (ad es. pochi e singoli pixel) che portando le IA ad una errata classificazione.
Una sorta di collisione delle label partendo da input tendenzialmente identici.

Si stanno diffondendo tecniche che ricreano IA parallele allenate sui risultati delle IA da aggredire, in un contesto puramente di Blackbox
La ricerca su questi temi è vivace, e si comincia a parlare di vaccini, che consentiranno di far imparare, con dataset contraddittori supervisionati, come e cosa classificare.

Sono tecniche di AdversarialTraining, che consentono di insegnare il contraddittorio alle macchine, in modo da essere più resistenti ad un attacco hacker.

(Fonte: Red Hot Cyber Facebook)
 
  • Mi piace
Reazioni: TonyPg22

Entra

oppure Accedi utilizzando
Discord Ufficiale Entra ora!