Twitter ha Annunciare i risultati Un concorso aperto per la ricerca di distorsioni algoritmiche nel sistema di ritaglio delle immagini. L’azienda ha disabilitato la funzione di ritaglio automatico per le immagini a marzo Dopo gli esperimenti dell’anno scorso, gli utenti di Twitter hanno indicato che preferisce i volti bianchi a quelli neri. Poi ho lanciato un algoritmo di ricompensa per cercare di analizzare il problema più da vicino.
La concorrenza ha confermato questi risultati precedenti. il entrata in alto Dimostra che l’algoritmo di ritaglio di Twitter favorisce i volti che sono “magri, giovani, con un tono della pelle chiaro o caldo e una consistenza della pelle liscia e con caratteristiche facciali femminili stereotipate”. Le voci per il secondo e il terzo posto hanno mostrato che il sistema era così Prevenuto contro le persone con i capelli bianchi o grigi, che indica discriminazione in base all’età, e L’inglese è preferito al testo arabo nelle immagini.
in un Visualizza questi risultati Al DEF CON 29, Roman Choudhury, direttore del team META di Twitter (che studia l’etica dell’apprendimento automatico, della trasparenza e della responsabilità), ha elogiato i partecipanti per aver dimostrato gli effetti nella vita reale del pregiudizio algoritmico.
“Quando pensiamo ai pregiudizi nei nostri modelli, non si tratta solo di accademici o empirici […] Ma come funziona anche con il modo in cui pensiamo alla società”, ha detto Chaudhry. “Uso l’espressione ‘la vita imita l’arte imita la vita.’ Creiamo questi filtri perché crediamo che questa sia bellezza e finiamo per addestrare i nostri modelli e guidare queste nozioni irrealistiche su cosa significhi essere attraenti”.
La voce è stata il primo posto nella competizione e il vincitore del premio più alto di $ 3,500 Bogdan KulinicÈ uno studente laureato presso l’EPFL, un’università di ricerca in Svizzera. Kulynych ha utilizzato un programma di intelligenza artificiale chiamato StyleGAN2 per creare un gran numero di volti realistici che li hanno variati in base al tono della pelle e alle caratteristiche del viso femminile rispetto alla magrezza e alle caratteristiche del viso. Quindi ha inserito quelle variabili nell’algoritmo di ritaglio delle immagini di Twitter per trovare la tua preferenza.
Come osserva Kulynych nel suo riassunto, questi pregiudizi algoritmici amplificano i pregiudizi nella comunità, finendo letteralmente “coloro che non soddisfano le preferenze dell’algoritmo per peso corporeo, età e colore della pelle”.
Questi pregiudizi sono anche più diffusi di quanto si pensi. Un altro concorrente, Vincenzo de Sico, che ha ricevuto una menzione speciale per il suo approccio innovativo, ha dimostrato che anche l’algoritmo di ritaglio delle immagini Gli emoji sono preferiti nelle carnagioni chiare Più emoji con tonalità della pelle scure. Ingresso al 3° posto, di Roya PakzadIl fondatore di Taraz Technology Advocacy ha rivelato che i pregiudizi si estendono anche ai profili scritti. Il lavoro di Pakzad ha confrontato i meme utilizzando il testo inglese e arabo, mostrando che l’algoritmo ritagliava regolarmente l’immagine per evidenziare il testo inglese.
Sebbene i risultati della competizione sui pregiudizi di Twitter possano sembrare frustranti, sottolineando la natura pervasiva del pregiudizio sociale nei sistemi algoritmici, mostrano anche come le aziende tecnologiche possono combattere questi problemi aprendo i loro sistemi al controllo esterno. “La capacità delle persone che partecipano a una competizione come questa di immergersi in profondità in un certo tipo di danno o pregiudizio è qualcosa che i team delle aziende non hanno il lusso di fare”, ha affermato Chaudhry.
L’approccio aperto di Twitter è in contrasto con le reazioni di altre aziende tecnologiche di fronte a problemi simili. Quando i ricercatori guidati da Joy Buolamwini del Massachusetts Institute of Technology hanno trovato pregiudizi razziali e di genere negli algoritmi di riconoscimento facciale di Amazon, ad esempio, l’azienda ha lanciato un’importante campagna per screditare le persone coinvolte, chiama il loro lavoro ‘ingannevole’ e ‘falso’. Dopo aver combattuto per mesi sui risultati, Amazon alla fine ha acconsentito, vietando temporaneamente l’uso di questi stessi algoritmi da parte delle forze dell’ordine.
Patrick Hall, giudice di un concorso di Twitter e ricercatore di intelligenza artificiale che lavora sulla discriminazione algoritmica, ha sottolineato che tali pregiudizi esistono in tutti i sistemi di intelligenza artificiale e le aziende devono agire in modo proattivo per trovarli. “L’intelligenza artificiale e l’apprendimento automatico sono solo il selvaggio west, non importa quanto sia abile il tuo team di data science”, ha affermato Hall. “Se non trovi i tuoi errori, o le ricompense per i bug non trovano i tuoi errori, allora chi trova i tuoi errori? Perché sicuramente hai dei bug”.