Negli ultimi anni, i generatori di immagini come Midjourney, Flux e Stable Diffusion hanno rivoluzionato il modo in cui creiamo e comprendiamo le immagini. Si tratta di una rivoluzione che non riguarda solo la tecnologia: mette in crisi il nostro modo di leggere e interpretare il mondo visivo.
Per oltre cinquant’anni, l’educazione all’immagine si è basata su un presupposto chiaro: dietro ogni opera c’è un essere umano che ha agito con una precisa intenzione. Oggi, però, le immagini vengono create da algoritmi che non “pensano”, ma calcolano probabilità.
Siamo quindi di fronte ad un cambio di paradigma: da “Cosa voleva dire l’autore?” a “Come e perché il sistema ha prodotto questo risultato?”.
A questo proposito, un recente studio dell’Università di Oxford, condotto su oltre 300 immagini generate da diverse piattaforme, ha mostrato che l’AI presenta tre limiti ricorrenti:
- un “Complexity Cliff”, cioè un crollo di qualità quando i prompt diventano troppo complessi o astratti;
- una “firma di piattaforma”, ovvero uno stile e dei bias specifici di ogni modello;
- un “vuoto semantico”, la difficoltà a rappresentare concetti culturali, simbolici ed emotivi.
Per risolvere questo problema lo studio propone l’AI-Visual Literacy Integration Framework (AVLIF), un modello che aiuta docenti e studenti a sviluppare un pensiero critico verso le immagini generate dall’intelligenza artificiale.
Le tre fasi per una nuova alfabetizzazione visiva:
- Prompt Literacy: imparare a comunicare con l’algoritmo, capire come le parole influenzano le immagini.
- Algorithmic Awareness: riconoscere i bias e i limiti del sistema, distinguendo tra imitazione e creazione autentica.
- Critical Multimodal Analysis: analizzare in modo etico e culturale le immagini, interrogandosi su rappresentazioni, stereotipi e veridicità.
Nell’mmagine sotto creata con DALL-E viene spiegato il framework:
-
Prima parte: il problema
L’uomo osserva un monitor su cui compare un’immagine generata da AI. È il simbolo del cambiamento: l’autore non è più umano, ma un algoritmo. Viene raffigurata una persona che si interroga sul “come e perché” l’immagine è stata creata. -
Parte centrale: Prompt Literacy
Le piccole illustrazioni (come il gatto e il ritratto cubista) richiamano le attività pratiche del framework: -
Reverse Engineering ovvero dedurre il prompt partendo dall’immagine.
-
Deconstructing Bias ovvero analizzare i pregiudizi visivi generati dal sistema.
-
Parte inferiore: Critical Multimodal Analysis
Qui entrano in gioco le competenze critiche: -
Visualizing the Abstract: osservare come l’AI traduce concetti complessi come ad esempio “disuguaglianza” o “bellezza”.
-
Historical Accuracy Check: verificare la fedeltà e la veridicità delle rappresentazioni prodotte dall’AI.
L’obiettivo principale di questo framework non riguarda tanto l’aspetto estetico dell’immagine quanto la comprensione e l’acquisizione di consapevolezza del processo che l’ha generata, un aspetto fondamentale per quanto riguarda il concetto di “essere alfabetizzati” dal punto di vista visuale.
