I pregiudizi dell'Intelligenza Artificiale sono i nostri

Pensiamo spesso all’intelligenza artificiale come qualcosa di neutro, oggettivo, “super partes”. Ma c’è un piccolo problema: l’AI impara dai dati. E i dati… li generiamo noi. Con tutti i nostri limiti, stereotipi e storture.

Risultato? Anche gli algoritmi possono discriminare.

:bullseye: Un esempio molto famoso: Amazon, qualche anno fa, aveva creato un algoritmo per selezionare candidati. Peccato che penalizzasse le donne. Perché? Era stato addestrato su 10 anni di CV… quasi tutti maschili. L’algoritmo ha semplicemente “concluso” che l’essere uomo fosse un punto a favore ([qui un approfondimento]).

E qui arriva il punto:
:backhand_index_pointing_right: Non è l’AI a essere “cattiva”.
:backhand_index_pointing_right: Sono i dati a essere incompleti, parziali, a volte distorti.

:light_bulb: È per questo che per lavorare con i dati non è sufficiente avere le competenze tecniche per costruire modelli, ma bisogna saper capire cosa c’è dietro i dati, imparare a leggere tra le righe di un dataset. Come sono stati raccolti i dati? Chi è incluso? Chi è escluso? Cosa stiamo davvero misurando?

È qui che entra in gioco la figura del buon data scientist.
Una figura che unisce competenze analitiche e visione critica.
Che non si limita a “fare girare l’algoritmo”, ma si chiede se quell’algoritmo è giusto, rappresentativo, utile davvero.

Perché l’AI non prende decisioni al posto nostro: prende decisioni come noi.
E se vogliamo costruire tecnologie più eque, dobbiamo partire da chi lavora con i dati ogni giorno.

2 Mi Piace

Questo è così importante! Ecco un breve video youtube che cattura il caso di Amazon a proposito: https://www.youtube.com/watch?v=JOzQjT-hJ8k&t=1s

È anche importante sottolineare che gli insiemi di dati che contengono bias derivanti da altri pregiudizi storici risulteranno anche in algoritmi distorti. Un esempio controverso è il sistema Compas negli Stati Uniti, utilizzato per prevedere se un criminale è probabile che possa commettere di nuovo reati. Era generalmente molto meno probabile prevedere che le persone caucasiche avrebbero recidivato rispetto ad altri.

Si tratta di un altro promemoria del fatto che l’IA è uno strumento per assistere e sostenere sistemi e decisioni che sono, intrinsecamente, umani.

(Per gli interessati, copriamo l’etica dei dati e delle applicazioni AI in tutti i nostri programmi di apprendimento sui dati e AI!)

1 Mi Piace