La startup di fashion tech “Cap_able” produce abiti a prova di profilazione algoritmica di riconoscimento facciale: ecco come funzionano
Secondo l’adagio popolare “l’abito fa il monaco”, ma la tecnologia digitale ha ribaltato anche questo aspetto della vita quotidiana ed oggi si potrebbe cominciare a dire che “l’abito nasconde il monaco”.
Chi infatti si sente oppresso dalla violazione della privacy legata alle tecniche di riconoscimento facciale che sempre più spesso sono utilizzate, ad esempio, dalle telecamere di sicurezza negli uffici, nei negozi, in strada potrà rivolgersi a Rachele Didero e a Federica Busani, fondatrici a Milano della startup di fashion tech “Cap_able” che produce abiti a prova di profilazione algoritmica. «L’idea – spiega Rachele Didero, già studentessa a New York presso il Fashion Institute of Technology – si basa su quelli che si chiamano ‘adversarial textiles’. Si tratta della trasposizione su tessuto di alcune immagini, che sono in grado di confondere gli algoritmi di riconoscimento facciale. In particolare noi ci basiamo su Yolo, che è il software di riconoscimento in tempo reale più veloce che esista».
Il modello brevettato da Cap_able consente di “incorporare” direttamente l’algoritmo nella trama degli indumenti. Gli abiti di Cap_able confondono le telecamere, impedendo loro di riconoscere un volto umano, portandole invece a identificare animali, cibi o altri oggetti. «L’adversarial textile – prosegue Didero – funziona un po’ al contrario rispetto a un codice qr: invece di dare un’informazione, la scherma»”.
«Avendo viaggiato e avendo conosciuto molte realtà internazionali – aggiunge Federica Busani, esperta di management e business development per startup – abbiamo incontrato persone con più consapevolezza sul tema della privacy di quanto sia riscontrabile in Italia. Inizialmente il nostro interesse per il tema è stato quasi fortuito; poi siamo andate a scavare e abbiamo compreso a fondo i risvolti etici. Cap_able nasce anche con l’idea di aumentare la consapevolezza sul diritto alla privacy e sulle discriminazioni algoritmiche».
Infatti, è possibile (e già accade) che le tecniche di riconoscimento facciale vengano utilizzate in taluni Paesi come strumento di discriminazione etnica.