“What gets counted, counts”
Ovvero: come decolonizzare la tecnologia con l’intersezionalità.
“Scienza e tecnologia hanno bisogno di uno sguardo intersezionale”.
Non è uno slogan di qualche collettivo hacktivista uscito dai meandri di noblogs, ma il titolo di un articolo pubblicato sul sito del CNR - non proprio un covo di attivistə transfemministə facinorosə - lo scorso Aprile.
Citando lo studio di un gruppo internazionale e multidisciplinare di ricercatori della Stanford University pubblicato su Nature, viene sostenuta la necessità di integrare l'analisi intersezionale nella ricerca, nelle scienze naturali e nella tecnologia.
Apriti cielo, noi nerd transfemministə facinorosə lo diciamo da anni, ma come si dice, meglio tardi.
“Un esempio significativo”, recita l’articolo, “emerge dai problemi riscontrati nella tecnologia di riconoscimento facciale, ampiamente utilizzata da milioni di individui per sbloccare i propri dispositivi tecnologici. Inizialmente, la tecnologia dimostrava una capacità di riconoscimento dei volti di uomini bianchi con un tasso di errore dello 0,08%, mentre si osservava un tasso di errore più elevato per le donne e per le persone con carnagione più scura. In particolare, il tasso di errore raggiungeva il 34,7% nel caso delle donne nere”.
A cosa è dovuto questo “errore”?
I modelli di Machine Learning, in questo caso con riferimento alla biometria, sono addestrati attraverso dati “labelizzati” (etichettati sia manualmente che tramite sistemi automatizzati) che consentono al modello di “riconoscere” con efficacia un determinato pattern, in questo caso visivo.
Ma i dati da dare “in pasto” al modello devono essere selezionati, ergo scelti. E a scegliere sono le persone, i team che lavorano sul training del modello. E qui entra in gioco il “fattore umano”.
Si sceglie ciò che è familiare, si sceglie ciò che consideriamo importante, rilevante. Quello diventa lo standard di riferimento - e cosa può essere più standard del maschio bianco occidentale; tutto il resto è eccezione rispetto allo standard, scostamento, anomalia, è la coda della Gaussiana. Più dati che fanno match con lo standard di riferimento, meno tasso di errore.
Se pensate che sia un discorso ideologico provate a generare un’immagine con una qualsiasi AI chiedendogli semplicemente di rappresentare una “persona” in una qualunque situazione. In quanti casi vi avrà generato un uomo bianco? In quanti una donna bianca? E una persona - di genere maschile o femminile (sia mai gender non conforming) - non bianca? Disabile?
La prospettiva del cosiddetto “femminismo dei dati” (Data Feminism) articolata da Catherine D'Ignazio e Lauren Klein nell’omonimo testo, non si limita a denunciare i bias insiti nei sistemi algoritmici esistenti e i rapporti di potere che intercorrono tra chi sviluppa e chi fruisce la tecnologia, ponendo sotto una luce critica la presunta neutralità e oggettività dei dati; ma recupera alcune nozioni dell’epistemologia femminista come la conoscenza situata (la conoscenza non è mai neutra ma sempre influenzata dalla posizione sociale, culturale e personale di chi la produce) e la posizionalità (consapevolezza del proprio posto all'interno di un sistema sociale e culturale caratterizzato da disuguaglianze), proponendo una modalità nuova e proattiva (nonché collettiva) di raccolta, analisi e rappresentazione dei dati orientata alla giustizia sociale e all’emancipazione delle categorie storicamente oppresse, restituendo loro l’agency sino ad ora negatagli e “de-colonizzando” l’uso dei dati.
Non più rappresentazioni astratte e in mano ai soggetti-osservatori esterni al fenomeno osservato, ma nuovi strumenti di auto-narrazione e di r-esistenza politica.
“What gets counted, counts”, ci dicono D'Ignazio e Klein.
Se ad essere “contato”, ovvero reso rilevante, è solo ciò che conta rispetto allo standard, bisogna ribaltare la prospettiva: individuare ciò che conta al di fuori dello standard, e iniziare a “contarlo”. Anzi, a farlo contare, a renderlo rilevante.
👏🏽👏🏽👏🏽