Il data poisoning può impedire alle IA di essere addestrate su determinate immagini

L’idea di utilizzare il veleno per fermare i nostri avversari è un topo classico di ogni letteratura e di parecchi film e serie TV. e che possa esistere la possibilità di fare lo stesso anche nell’ambito digitale può sembrare strano, ma l’equivalente di quello che avviene con i virus informatici che sono un equivalente ormai consolidato dei virus biologici in ambito digitale. Le tecniche di data poisoning agiscono un po’ come i virus: possono fare danni seri e, soprattutto, possono essere asintomatiche. I dati infetti da data poisoning non sono riconoscibili all’occhio umano se non mediante raffinate tecniche di decostruzione dei dati stessi, mentre l’ambito applicativo di questa tecnica riguarda la volontà di tutelare i propri dati personali da parte di detentori di diritto d’autore su fotografie o immagini. In pratica se non vogliamo che le nostre foto vengono usate (spesso senza permesso) dai dispositivi di addestramento delle intelligenze artificiali possiamo fare uso dei software di questo tipo, di cui l’esempio più noto è senza dubbio Nightshade.

Ogni intelligenza artificiale generativa si basa sull’acquisizione di un campione di dati in ingresso, che possono essere a seconda dei casi testi o immagini. Mediante data poisoning possiamo impedire agli algoritmi di farlo, introducendo un vero e proprio “avvelenamento” che non compromette la qualità dell’immagine, e come un virus invisibile “infetta” in qualche modo la IA. Stando alla definizione formale per data poisoning si intende una forma di manipolazione dell’immagine atta a provocare comportamenti inattesi nell’addestramento macchina. Per potersi accorgere del problema l’intelligenza artificiale dovrebbe essere sottoposta a diversi milioni di immagini campione

Il software Nightshade (disponibile da qui per Mac e Windows) fa esattamente questo: gli attacchi di avvelenamento dei dati manipolano i dati di addestramento dei modelli di apprendimento automatico per creare comportamenti imprevisti. Nightshade è un attacco ottimizzato che avvelena specifici prompt di modelli di generazione testo-immagine, come Stable Diffusion SDXL, con meno di 100 campioni avvelenati, destabilizzando il modello e impedendogli di generare immagini significative. Questo strumento può essere utilizzato dai creatori di contenuti come difesa contro i classicissimi web scraper (software che scansionano la rete alla ricerca di contenuti che vengono di fatto potenzialmente”piratati”) non autorizzati.

In conclusione, il data poisoning emerge come una potente arma difensiva nel mondo digitale, capace di proteggere la proprietà intellettuale e i dati personali in un’epoca in cui l’addestramento delle intelligenze artificiali spesso avviene senza il consenso dei detentori dei dati. Software come Nightshade offrono una soluzione efficace per contrastare l’uso non autorizzato di contenuti, aprendo nuove prospettive nella tutela della privacy e dei diritti d’autore nel contesto delle tecnologie emergenti. Bisognerà anche capire se la sua diffusione sarà, o meno, agevolata dal marketing.

Privacy e cookie

Lipercubo.it is licensed under Attribution-ShareAlike 4.0 International - Le immagini presenti nel sito sono presentate a solo scopo illustrativo e di ricerca, citando sempre la fonte ove / quando possibile - Questo sito contribuisce alla audience di sè stesso (quasi cit.)