Il dibattito sulle tecnologie di sorveglianza biometrica ormai onnipresenti e i rischi che ne derivano per la privacy dei cittadini infiamma l’Occidente. Cap_able una startup di fashiontech milanese ha brevettato una serie di capi in grado di confondere l’AI. Può la moda essere un alleato per difendere i nostri dati?
Il progetto Cap_able nasce nel 2019 dall’incontro fra moda, computer science e ingegneria con lo scopo di creare degli abiti in grado di proteggerci dall’eccessivo utilizzo dei sistemi di video sorveglianza. Frutto della collaborazione tra la giovane fashion designer Rachele Didero e un ingegnere informatico per tradurre gli Adversarial Patches nel mondo del fashion.
Le tecnologie di riconoscimento facciale sono sistemi in grado di risalire all’identità di un individuo attraverso video o immagini catturati da una telecamera di sorveglianza, facilmente paragonabili con altri dati disponibili online, come i database delle forze dell’ordine o più semplicemente i profili sui social network. Le problematiche connesse a questi strumenti sono molteplici e concrete nella vita quotidiana di ognuno di noi: dalla profilazione di massa di specifiche categoria di persone, o meglio target, sia che si parli di un uso commerciale che delle possibili implicazioni di esclusione sociale delle minoranze etniche, all’invasione della privacy, fino al rinvigorimento di bias algoritmici.
Le persone dovrebbero poter avere il diritto di dare il loro esplicito consenso al trattamento dei loro dati biometrici, evidentemente quest’ipotesi è irrealistica, dato che questo dovrebbe essere reiterato ogni volta che si mette piede negli spazi pubblici nei quali sono spesso, se non sempre, presenti telecamere dotate di intelligenza artificiale.
Lo scopo di Cap_able risiede nel nutrire e partecipare al dibattito che tratta i legami tra società contemporanea, moda, tecnologia, diritti umani e civili, contribuendo alla sensibilizzazione sulle difficoltà del nostro presente tramite abiti dal design fortemente innovativo da un punto di vista etico e tecnologico.
Come spiega Federica Busani Development & Co-Founder del progetto:
“Cap_able punta a cambiare il modo in cui le persone guardano la moda , i vestiti e gli accessori che indossano, portando un atteggiamento completamente nuovo e più consapevole nel settore della moda. Uno degli obiettivi di Cap_able è quello di trovare nuove soluzioni e nuovi ambiti di applicazione della tecnologia, anche per continuare a far riflettere su un tema la cui urgenza è troppo spesso sottovalutata”.
Come riesce la moda a proteggerci?
ll funzionamento di questi capi si basa sulla creazione di prodotti realizzati in maglia jaquard, un tessuto caratterizzato dalle decorazioni sgargianti e di ispirazione animalier, geometrica o optical, sulla quale è possibile trasporre alcune immagini di animali, cose o oggetti, che con le loro caratteristiche sono in grado di confondere gli algoritmi di riconoscimento facciale.
Gli algoritmi alla base del funzionamento dell’AI sono differenti per ogni azienda. I vestiti prodotti da Cap_able si basano sull’algoritmo di Yolo (risalente al 2015): il software di riconoscimento facciale più veloce al mondo.
La fusione di queste immagini compone un pattern che impedisce alle telecamere di riconoscere il volto umano, in sostanza le confonde. I dispositivi coinvolti non riusciranno ad analizzare i soggetti correttamente e saranno portati ad identificare chi indossa questi capi come animali, cibo o oggetti inanimati. Come precisa la fondatrice della startup Rachele Didero:
“L’algoritmo di riconoscimento si concentra su di esse e non vede il volto della persona”
Per giungere a questo risultato, ovvero dei prodotti che proteggano i dati biometrici di chi li indossa, non è sufficiente lavorare sulle singole immagini, anche il tipo di tessuto è fondamentale. Cap_able ha brevettato con la sponsorizzazione del Politecnico di Milano un modello tessile che incorpora direttamente un algoritmo all’interno della trama degli indumenti.
La tecnologia adversarial pattern può essere considerato agli antipodi di QR Code, invece di fornire informazioni, ne blocca la lettura. Le fantasie di questi capi sovrapponendosi creano elementi di disturbo impercettibili all’occhio umano, eppure riconoscibili dall’AI che riesce a distinguere solo i motivi ornamentali e non il viso di chi li veste. Si tratta di un tessuto lavorato a maglia per ottenere un effetto tridimensionale attraverso l’impiego di svariati fili, tutti di colori differenti uno dall’altro. Una semplice illusione ottica che riesce con astuzia ad ingannare gli strumenti di rilevamento.
Siamo certi della nostra sicurezza?
Il controllo effettuato sui cittadini porta nuovi interrogativi che influiscono sulla legislazione e la regolarizzazione della tutela della privacy e dei diritti umani. Per quanto in Occidente si finga di avere la situazione sotto controllo, la realtà è ben diversa. Questa dinamica è peggiorata a conseguenza della pandemia che ha contribuito ad un notevole slancio ai controlli nei luoghi pubblici e ha abituato le persone a sottoporsi a screening biometrici allo scopo di verificarne la temperatura corporea o il coretto utilizzo dei dispositivi di protezione come le mascherine.
Sebbene il dibattito su queste tecnologie sia più vivo che mai in Europa, come dimostra il recente arrivo dell’AI Act, nuovo regolamento europeo sull’Intelligenza Artificiale, l’adattamento legislativo non è sufficiente.
La normativa istituisce un quadro giuridico uniforme volto a regolare il commercio, la ricerca e l’utilizzo dei sistemi AI in conformità con i diritti costituzionali dell’Unione Europea e i suoi valori. Vengono introdotte nuove regole per l’immissione sul mercato, per il servizio e l’utilizzo delle tecnologie informatiche e nuovi divieti che ne limitino le possibilità d’uso, specificandone obblighi e rischi per gli operatori del settore.
Una questione di consapevolezza
L’adattamento andrà a fissare dei criteri di trasparenza volti a chiarificare l’interazione dell’AI con le persone fisiche, i sistemi di riconoscimento delle emozioni e di caratterizzazione biometrica e i sistemi utilizzati per generare e modificare immagini o contenuti multimediali. Tuttavia, un’educazione ai temi dell’AI e alla protezione dei dati della popolazione europea e una forte campagna di sensibilizzazione a riguardo sono imprescindibili.
È in quest’ottica che lavorano realtà coraggiose e innovative come Cap_able. La denuncia attraverso la moda può sembrare banale, ma potrebbe costituire una solida base per incrementare la riflessione sul tema toccando un fattore di comune interesse come quello della nostra immagine. Strumento fondamentale nella realtà odierna per comunicare se stessi agli altri, la propria identità e i propri valori, sempre condivisi all’interno di un gruppo di riferimento.
Siamo così concentrati a decidere cosa mostrare al mondo che non ci accorgiamo di tutto quello che riveliamo. Come afferma Rachele Didero:
“Scegliere cosa indossare è il primo atto di comunicazione che compiamo, ogni giorno. Una scelta che può farsi veicolo dei nostri valori, diritti umani inclusi. In un mondo in cui i dati sono la più grande risorsa economica”
Francesca Calzà