Introduzione

Al centro della nuova primavera dei sistemi di A.I. troviamo temi quali apprendimento automatico, reti neurali e Machine Learning.

Quando mondo binario e tecnologico si fondono in un unicum è bene conoscerne i prodotti, in modo da sfruttarne le potenzialità ed evitare conseguenze algoritmiche poco etiche, sottoponendo le nuove tecnologie ad un attento esame e controllando che esse non vengano – anche inconsciamente – utilizzate come pretesti per cristallizzare i c.d. Personal Bias, processi e decisioni discriminatori. Questo è ciò che Caroline Criado Perez chiama Gender Data Gap, nel suo libro “Invisibili”.

Nel Report 2020 dell’UNESCO “Artificial intelligence and gender equality” leggiamo che << algoritmi e sistemi di intelligenza artificiale hanno il potere di diffondere e rafforzare stereotipi di genere, che rischiano di emarginare le donne su scala globale. >>

I Sistemi di A.I. agiscono come un essere umano cresciuto in società discriminatorie, incapaci di prendere le distanze dagli stereotipi, cosa che ci dimostra che il mondo virtuale e il mondo reale non sono molto distanti.

La causa dei bug che A.I. eredita dall’uomo è la stessa causa ancestrale su cui si erge la nostra struttura sociale.

Cosa è il Machine Learning?

La conoscenza non è più qualcosa di prettamente umano: anche i sistemi di intelligenza artificiale apprendono e conoscono attraverso il Machine Learning e rientrano nel grande mondo del Deep Learning.

In questi, l’algoritmo viene addestrato per venire in contro all’esigenza di ottimizzare la Rete, organizzando l’enorme mole di Big Data con cui abbiamo riempito oltre limite Internet.

Modelli di Deep Learning

Vi siete mai chiesti come faccia Google a mettere insieme tutte le foto di dolci micetti quando cerchiamo sulla sua barra di ricerca la parola “gatto”?

I modelli di Deep Learning funzionano attraverso il c.d. training data, grazie al quale un sofware apprende automaticamente a simulare l’attività del cervello umano, attraverso una serie di combinazioni statistiche che insegnano alla macchina di riconoscere ogni singolo pixel di un set di immagini.

Così, se insegniamo ad un software che alla parola “gatto” corrisponde un’immagine i cui pixel rientrano nella griglia di comando “orecchie, occhi, naso, coda”, ecco che con il Machine Learning di Google riesce a darci il risultato sperato.

Lo stesso accade con le persone.

Le Criticità del Machine Learning

Ciò che ci attendiamo dai Sistemi di A.I. è che gli stessi riescano a prendere decisioni migliori, più giuste ed imparziali rispetto a quelle che prenderebbe un essere umano.

Ma è proprio vero che le macchine sono “neutrali”?

In realtà, la tecnologia non è né buona, né cattiva, però rimane comunque un prodotto umano.

La visione retrograda del ruolo delle donne torna più feroce e meschina con i Sistemi di Machine Learning.

Una nuova ricerca sugli algoritmi del MIT Tecnology Review per la generazione automatica di immagini ha sollevato prove allarmanti in tema di Personal Bias. I ricercatori avevano alimentato l’algoritmo con immagini del volto di uomini e donne che venivano completate da un software: il risultato fu che per il 43% delle volte l’immagine dell’uomo fu completata dall’algoritmo con un abito alla Wolf of Wallstreet, per il 53% delle volte la macchina ha attribuito ai volti di donna – tra i quali fu inserita anche un’immagine della deputata democratica Alexandria Ocasio Cortez, famosa con l’acronimo AOC – con l’immagine del corpo di una donna in bikini.

L’articolo a commento sul caso della nota AOC ci mostra che i sistemi di intelligenza artificiale non sono neutrali, ma possono recepire quegli stereotipi di genere che quotidianamente viviamo.

Tre sono i momenti in cui possono crearsi, direttamente o indirettamente, le c.d. premesse discriminatorie:

  Durante la programmazione

  Nella scelta del dataset

  Nel funzionamento automatico dell’algoritmo

I data set di elaborazione automatica, infatti, possono risultare intrisi di stereotipi di genere e pregiudizi umani, in quanto eredi di “bug” umani, così mettendo a rischio ogni moderna conquista in termini di uguaglianza digitale.

Esempi di software razzisti o sessisti sono stati individuati in diversi campi, dalla Giustizia all’Human Recruiting, passando dai software di IoT.

Amazon e il suo algoritmo discriminatorio di selezione del personale, ha fatto storia già dal 2014. Il software sperimentale usato per velocizzare e migliorare la selezione tra i vari candidati, era stato addestrato con i modelli di CV dei dipendenti Amazon degli ultimi 10 anni. Peccato che la maggioranza di questi appartenesse soltanto a uomini, tanto che nel 2018 si scoprì che l’algoritmo HR Online di Amazon non solo etichettava le donne con rating più bassi rispetto agli uomini, ma le scartava pure!

All’intelligenza artificiale di Amazon non piacciono le donne!

E comprendiamo l’impatto negativo che tali tecnologie possono avere sull’occupazione delle donne se pensiamo che, negli Stati Uniti, il 72% dei CV non viene letto da occhio umano. E se non sono state tenute in considerazione le differenze tra uomini e donne nel campione di lavoratori sottoposti ad A.I., come si comporta l’algoritmo?

L’imprevedibile pericolosità non può essere sottovalutata

Nel 2020 è stato reso pubblico un Paper di Ricerca Scientifica su come i prodotti di analisi d’immagine venduti da Amazon, Google e Microsoft osservino le donne. I ricercatori li hanno testati con le foto di politici, femminili e maschili, di un congresso americano, dando in pasto dataset di immagini agli algoritmi di analisi di Google Cloud Vision, Microsoft Azure Computer Vision e Amazon Rekognition. I risultati, simili tra loro, sono stati sorprendenti.

I gender bias sono evidenti anche nella scelta degli studi. L’inconsapevole propensione al maschile del settore delle alte tecnologie risalta dai dati e le cause di tutto ciò sono celate dal mito della meritocrazia.

Le donne non si auto-candidano per una promozione con la stessa frequenza di un uomo

È questo il Glass Ceiling, c.d. Soffitto di Cristallo, nome con cui vengono definiti tali meccanismi. Si tratta di condizionamenti interni derivanti dall’interiorizzazione della cultura patriarcale, che non consentono di accedere ai luoghi di potere o quei luoghi convenzionalmente maschili.

Glass Ceiling

Secondo il Report LinkedIn 2020, “dentro Linkedin, il tratto distintivo delle competenze AI riguarda al 78% uomini. E alle conferenze su AI e machine learning, tra i ricercatori selezionati l’80% è rappresentato da uomini di 28 nazionalità. E ancora: nelle aziende ‘ad alta tecnologia’ lo staff tecnico femminile pesa secondo i numeri ufficiali il 21%, ma se poi si parla di AI si scende al 10% come nel caso di Facebook”.  

Le donne scompaiono in quei campi della conoscenza che nell’immaginario collettivo si associano ad una mente brillante, come per lo STEM– Science Tecnology, Engineering and Math.

Bias e Gender Gap: le nuove discriminazioni del Machine Learning

Il genere rappresenta la tipizzazione sociale, culturale e psicologica delle differenze tra maschi e femmine: è un costrutto sociale, a differenza del sesso che definisce l’aspetto biologico-anatomico di una persona.

La chiave di lettura, in ogni ambito, è l’uomo

Ad esempio, nella lingua italiana si utilizza il maschile generico per indicare una generalità senza connotazione di genere. Le discriminazioni – trattamento o considerazione non paritaria – realizzare da A.I. sono conseguenza di una realtà in cui le donne rappresentano quello che Simone De Beauvoir ha definito il “Secondo Sesso, l’Altro” rispetto all’uomo.

L’immagine di donna e di uomo, che osserviamo oggi, è il risultato di un’idea storica: ancora oggi definiamo il gender gap come quell’abisso tra uomini e donne, che si ripropone anche nel mondo della robotica, oltreché in quello algoritmico.

Verso l’uso virtuoso del Machine Learning

Al fine di combattere il pregiudizio nell’algoritmo dobbiamo usare gli stessi algoritmi e, per questo motivo, risulta di fondamentale importanza comprendere che è necessario che si faccia un uso virtuoso del Machine Learning.

Cosa sarà delle donne se lo sviluppo futuro dei Sistemi di A.I. non sarà calibrato e guidato da valori etici che rispettino i principi di equità ed uguaglianza?

In questo senso, il Consiglio d’Europa pone delle Linee guida per un’intelligenza artificiale etica in Europa, un codice contenente sette requisiti atti ad assicurare l’affidabilità dell’intelligenza artificiale.

Prendono piede, inoltre, progetti come il c.d. Data Feminism, movimento di ricerca del Data + Feminism Lab sul fenomeno del Personal Bias, fondato presso il MIT – Massachusetts Institute of Technology – e diretto da Catherine D’Ignazio, il cui punto centrale è nel comprendere come si possa intervenire sull’algoritmo stesso per sanare questi Personal Bias.

Si tratta di assumere una visione nuova, trasversale della realtà, che deve coinvolgere donne e uomini.

Un’altra possibile soluzione potrebbe dipendere da una maggiore presenza delle donne nei settori di programmazione dei Sistemi di A.I.: le aziende che si occupano di dati e di progettazione di algoritmi, tenendo in considerazione il problema e i rischi connessi, dovrebbero incentivare l’inclusione, incrementare la rappresentanza della diversità nel loro organico.

Conclusioni

Quando parliamo di algoritmi e Sistemi di A.I. diamo per scontato che i risultati prodotti dagli stessi siano più affidabili. Tuttavia, dimentichiamo che essi sono un prodotto umano, per cui i pregiudizi che fanno parte dell’umana natura, si riverberano necessariamente sulla loro natura, struttura e funzionamento.

I Sistemi di A.I. devono svilupparsi secondo un approccio antropocentrico, e risultare eticamente validi, affidabili, sicuri, robusti, per una tutela dell’essere umano, sia come singolo che nelle formazioni sociali, nella quale si tenga conto degli aspetti occupazionali, della sicurezza sociale, degli impatti ambientali e di uno sviluppo sostenibile che tuteli la persona in quanto tale.

Una volta individuato un pattern discriminatorio, è necessario analizzare attentamente tutti i processi coinvolti per intervenire e correggere la distorsione, anche attraverso la c.d. Etica by Design.

Il problema è nei dati che vengono sottoposti all’AI.

Si pensa che i dati raccolti sugli uomini siano universali e validi anche per le donne. Questa presunzione conduce a non raccogliere o non considerare i dati delle donne. Da qui, l’importanza di superare il Gender Data Gap e l’importanza Data Feminism.

Mondo reale e tecnologico sono interconnessi e il sessismo colpisce entrambi: non possiamo pretendere di educare i sistemi di A.I., senza provare a migliorare la nostra condizione umana.

In questo articolo abbiamo analizzato, quindi, che sono le nostre radici culturali – che stanno alla base del calo dell’occupazione femminile avvenuto durante l’emergenza sanitaria della panemia Covid-19 (secondo l’Istat, infatti, nel solo mese di dicembre hanno perso il lavoro 99 mila donne su 100mila posti di lavoro andati in fumo) – che causano la bassa rappresentazione del genere femminile anche nei luoghi di potere.

connessioni

In questo senso, l’uguaglianza di genere e l’emancipazione femminile sono tra gli obiettivi chiave dell’Agenda 2030 per lo Sviluppo Sostenibile promossa dall’ONU, ricordando le Tre Leggi della Robotica di Asimov.

Partendo dalla sostanziale differenza tra uguaglianza ed equità, dobbiamo pertanto compiere delle scelte ed educare tali sistemi a compierle.

Educhiamo l’algoritmo alla diversità per eliminare i pregiudizi di genere.

 

Greta Graziano

Valentina Grazia Sapuppo