fbpx

“Data Poisoning” : il lato oscuro dell’intelligenza artificiale

“Data Poisoning” : il lato oscuro dell’intelligenza artificiale

Gli algoritmi di machine learning hanno la straordinaria abilità di dare correlazione all’interno di sconfinati set di dati. Il problema è che, a differenza degli esseri umani, non possono integrare le loro scoperte con le relazioni logiche. Questa è una debolezza che può essere facilmente sfruttata contro l’intelligenza artificiale.

Il fenomeno noto come data poisoning (inquinamento dei dati), è un attacco compiuto volontariamente da hacker esperti in intelligenza artificiale con gli obiettivi più disparati. Come mostra un’analisi pubblicata su TechTalk, è teoricamente possibile compromettere l’addestramento di un’auto autonoma e fare in modo che confonda, per esempio, un segnale di stop con un limite di velocità. Come già teorizzato in passato, queste vulnerabilità potrebbero essere sfruttate anche per scopi terroristici.

In un mondo in cui gli strumenti intelligenti sono utilizzati sempre più spesso e per scopi importanti e delicati, la possibilità anche solo teorica che degli hacker possano comprometterne il funzionamento solleva non poche preoccupazioni. I ricercatori sono già al lavoro per rendere il machine learning molto più resistente alle forme di “adversarial attack”.

Fonte:

https://bdtechtalks.com/2020/10/07/machine-learning-data-poisoning/

https://www.lastampa.it/tecnologia/idee/2020/10/29/news/che-cos-e-il-data-poisoning-

30 dicembre 2020

No Comments

Sorry, the comment form is closed at this time.