L’intelligenza artificiale riproduce gli stereotipi di genere, contribuendo in questo modo ad alimentare disuguaglianze e discriminazioni. Il problema, al centro di studi internazionali, è stato verificato anche dalla Ong WeWorld attraverso un esperimento con due app di intelligenza artificiale che generano immagini.
Il nodo della questione è che questa tecnologia viene addestrata da persone che le “trasmettono” i propri bias cognitivi. In questo modo, però, vengono alimentati e riprodotti gli stereotipi che attanagliano la nostra società.

L’esperimento di WeWorld: l’intelligenza artificiale alla prova degli stereotipi di genere

WeAreGen5: è questo il nome dell’esperimento condotto da WeWorld per testare la neutralità dell’intelligenza artificiale. L’organizzazione ha interrogato due piattaforme di intelligenza generativa di Adobe, AdobeFirefly e Midjourney. I risultati sono stati immagini che riproducono uno specifico modo di pensare. Al prompt di bellezza femminile e maschile le risposte sono state omogenee: immagini di donne in atteggiamenti ammiccanti e di uomini curati e ben vestiti.

L’esperimento sta nell’ambito degli impegni della Ong, impegnata a promuovere i diritti delle persone e nel pieno rispetto degli obiettivi di sviluppo sostenibile definiti dall’Onu. In particolare il quinto: contrasto alla disparità di genere. Per questo è nata Generazione 5, una campagna di educazione per promuovere la parità e l’eliminazione di ogni forma di violenza di genere.
«L’AI ha mostrato il potenziale della tecnologia – ha spiegato ai nostri microfoni Erica Scigliuolo, Communication specialist di WeWorld – ma può anche aumentare le disuguaglianze e gli stereotipi di genere fino ad esacerbarli. Poiché l’intelligenza artificiale diventerà strumento ampiamente diffuso nella società è importante che la rappresenti» com’è realmente.

Ma com’è avvenuto il test? «Abbiamo chiesto a due piattaforme Adobe, AdobeFirefly e Midjourney, di mostrarci una bella donna e un bell’uomo», racconta Scigliuolo. «Le immagini generate mostrano da una parte una donna ammiccante con capelli lunghi e poco vestita, dall’altra un uomo con la barba, abbronzato e vestito in modo curato».
Un’idea univoca di bellezza. Emerge quindi che l’AI «non è neutra, ha un canone rigido per definire bellezza femminile e maschile». Ciò dipende dai dati inseriti e dall’immaginario di chi li inserisce. Emerge dunque «il rischio che l’AI trasmetta, in modo insidioso, pregiudizi che vengono interiorizzati dai fruitori dei loro prodotti».

Dopo aver preso coscienza dei bias di queste nuove intelligenze, ora è necessario capire come intervenire per correggerli. Secondo Scigliolo «il lavoro deve avvenire su due fronti: fare uno studio accurato su questo problema e agire sulle persone che curano l’addestramento dell’AI, inserendo un maggior numero di donne tra di loro – in grado di recepire gli stereotipi di genere – e su chi opera nelle organizzazioni impegnate a eliminare le discriminazioni».

ASCOLTA L’INTERVISTA A ERICA SCIGLIUOLO: