Pensiamo spesso all’intelligenza artificiale come qualcosa di neutro, oggettivo, “super partes”. Ma c’è un piccolo problema: l’AI impara dai dati. E i dati… li generiamo noi. Con tutti i nostri limiti, stereotipi e storture.
Risultato? Anche gli algoritmi possono discriminare.
Un esempio molto famoso: Amazon, qualche anno fa, aveva creato un algoritmo per selezionare candidati. Peccato che penalizzasse le donne. Perché? Era stato addestrato su 10 anni di CV… quasi tutti maschili. L’algoritmo ha semplicemente “concluso” che l’essere uomo fosse un punto a favore ([qui un approfondimento]).
E qui arriva il punto:
Non è l’AI a essere “cattiva”.
Sono i dati a essere incompleti, parziali, a volte distorti.
È per questo che per lavorare con i dati non è sufficiente avere le competenze tecniche per costruire modelli, ma bisogna saper capire cosa c’è dietro i dati, imparare a leggere tra le righe di un dataset. Come sono stati raccolti i dati? Chi è incluso? Chi è escluso? Cosa stiamo davvero misurando?
È qui che entra in gioco la figura del buon data scientist.
Una figura che unisce competenze analitiche e visione critica.
Che non si limita a “fare girare l’algoritmo”, ma si chiede se quell’algoritmo è giusto, rappresentativo, utile davvero.
Perché l’AI non prende decisioni al posto nostro: prende decisioni come noi.
E se vogliamo costruire tecnologie più eque, dobbiamo partire da chi lavora con i dati ogni giorno.