Like air and drinking water, being digital will be noticed only by its absence, not its presence.
Nicholas Negroponte, articolo di Wired (1998)
Negroponte preannunciava fin dal 1998 che le tecnologie digitali sarebbero diventate beni e servizi di primaria importanza, al punto che ce ne saremmo accorti solo nel momento della loro assenza. Quando non ho lo smartphone in tasca, quanto Netflix non funziona, quando ChatGPT “si impalla” e non risponde, quando cioè c’è un problema e la tecnologia non è accessibile o funzionante, mi rendo conto veramente che il digitale è diventato la mia quotidianità, la normalità che esperisco senza pensarci, in maniera invisibile, come l’avere cibo in frigorifero e l’impianto di riscaldamento in casa.
Tale processo non è però privo di sfumature e va considerato come un modello a cui riferirsi per interpretare una situazione globale che riguarda le persone, le tecnologie, le aziende, i governi ecc. Si tratta di un processo graduale e non consapevole, che svanisce nel momento in cui la novità o la straordinarietà di certi eventi, spingono le persone a momenti di riflessione critica sull’uso delle tecnologie. Un esempio è il boom di download di Claude, l’AI di Anthropic, a seguito della vicenda di uso dell’AI da parte del Pentagono. Chi ha seguito la questione negli USA, “ha visto” il rischio dell’uso dell’AI come strumento di sorveglianza di massa, ha scoperto Claude e ha scaricato l’app, facendola balzare al primo posto nella classifica degli store online. Ma anche nel resto del mondo c’è stata un’impennata di download della stessa app (che in Italia al momento di attesta al secondo posto). Siamo in un’era di informazione globale in tempo reale e il mercato digitale si muove di pari passo all’infosfera, in maniera interconnessa.
Questo episodio ci spinge ad evidenziare un secondo modo di concepire l’invisibilità delle tecnologie, in particolare delle IA generative: l’opacità del loro funzionamento. Di fronte a una chat con Gemini, ChatGPT o Claude, siamo veicolati dalla velocità e dalla semplicità della fruizione di tale strumento, ma solo episodicamente ci si chiede in maniera critica come sia possibile che tali app funzionino così. Dal punto di vista di un’educazione ai media Panciroli e Rivoltella hanno definito questo passaggio come cruciale.
“II problema, dal punto di vista di una AI Education, è quindi di ovviare in qualche modo all’invisibilità dei dati e degli algoritmi e questo non significa solo che percettivamente “non si vedono”, ma anche che se ne rende necessaria la discussione critica (Awareness) per metterne alla prova l’affidabilità (Trustworthy) e la spiegazione (Explainability) al fine di una loro corretta interpretazione e integrazione creativa.
Panciroli, Rivoltella - Pedagogia Algoritmica (2023)
A livello di media education, l’invisibilità può riferirsi quindi 1) a un modello esperienziale, secondo il quale ci accorgiamo del digitale solo quando assente oppure 2) a un meccanismo di funzionamento che non avevamo tenuto in considerazione, perché non visibile. Esiste, infine, anche un terzo livello di invisibilità delle tecnologie digitali che, sempre grazie all’infosfera odierna, può dissolversi improvvisamente per lasciare spazio al dubbio e alla critica di user e consumer: l’uso differente che viene svolto di una tecnologia rispetto alla propria quotidianità. Per fare un esempio concreto e rimanendo sul tema di uso dell’AI in ambito militare, rimandiamo allo studio del professore Payne del King’s College London. In questo test, le IA di Gemini, ChatGPT e Claude hanno svolto 329 turni in 21 scenari di guerra e nel 95% dei casi la soluzione proposta da essi era un’escalation nucleare. Se nella nostra quotidianità utilizziamo tali app per creare immagini, rispondere a dubbi o analizzare documenti pdf, l’uso a livello militare diventa visibile solo se notizie di questo tipo vengono diffuse, come per il recente conflitto in Medio Oriente. Il tema della regolamentazione dello sviluppo e utilizzo delle IA generative è strettamente connesso alla percezione della loro pericolosità sia da parte dei governi che dell’opinione pubblica. Come tale l’invisibilità dell’uso di IA in certi ambiti può far pendere l’ago della bilancia normativa da una parte piuttosto che dall’altra, in un clima informativo online fortemente polarizzato.
Quello dell’invisibilità del digitale è un tema che può essere affrontato secondo differenti filtri e lenti che che viene sfruttato in vario modo nelle strategie di mercato, dell’informazione mediale e della politica. L’uso critico e consapevole del digitale, spesso avviene dopo momenti di svelamento di ciò che non era davanti ai nostri occhi e tale processo è fondamentale in un percorso di media education.
Ti abbiamo dato alcuni spunti di riflessione soprattutto su argomenti inerenti le IA generative, ma siamo interessati alla tua opinione.
Dicci cosa ne pensi nei commenti.