Quando l’autore non è più umano: come cambia la visual literacy nell’era dell’AI?

Negli ultimi anni, i generatori di immagini come Midjourney, Flux e Stable Diffusion hanno rivoluzionato il modo in cui creiamo e comprendiamo le immagini. Si tratta di una rivoluzione che non riguarda solo la tecnologia: mette in crisi il nostro modo di leggere e interpretare il mondo visivo.

Per oltre cinquant’anni, l’educazione all’immagine si è basata su un presupposto chiaro: dietro ogni opera c’è un essere umano che ha agito con una precisa intenzione. Oggi, però, le immagini vengono create da algoritmi che non “pensano”, ma calcolano probabilità.
Siamo quindi di fronte ad un cambio di paradigma: da “Cosa voleva dire l’autore?” a “Come e perché il sistema ha prodotto questo risultato?”.

A questo proposito, un recente studio dell’Università di Oxford, condotto su oltre 300 immagini generate da diverse piattaforme, ha mostrato che l’AI presenta tre limiti ricorrenti:

  • un “Complexity Cliff”, cioè un crollo di qualità quando i prompt diventano troppo complessi o astratti;
  • una “firma di piattaforma”, ovvero uno stile e dei bias specifici di ogni modello;
  • un “vuoto semantico”, la difficoltà a rappresentare concetti culturali, simbolici ed emotivi.

Per risolvere questo problema lo studio propone l’AI-Visual Literacy Integration Framework (AVLIF), un modello che aiuta docenti e studenti a sviluppare un pensiero critico verso le immagini generate dall’intelligenza artificiale.

Le tre fasi per una nuova alfabetizzazione visiva:

  1. Prompt Literacy: imparare a comunicare con l’algoritmo, capire come le parole influenzano le immagini.
  2. Algorithmic Awareness: riconoscere i bias e i limiti del sistema, distinguendo tra imitazione e creazione autentica.
  3. Critical Multimodal Analysis: analizzare in modo etico e culturale le immagini, interrogandosi su rappresentazioni, stereotipi e veridicità.

Nell’mmagine sotto creata con DALL-E viene spiegato il framework:

  • Prima parte: il problema
    L’uomo osserva un monitor su cui compare un’immagine generata da AI. È il simbolo del cambiamento: l’autore non è più umano, ma un algoritmo. Viene raffigurata una persona che si interroga sul “come e perché” l’immagine è stata creata.

  • Parte centrale: Prompt Literacy
    Le piccole illustrazioni (come il gatto e il ritratto cubista) richiamano le attività pratiche del framework:

  • Reverse Engineering ovvero dedurre il prompt partendo dall’immagine.

  • Deconstructing Bias ovvero analizzare i pregiudizi visivi generati dal sistema.

  • Parte inferiore: Critical Multimodal Analysis
    Qui entrano in gioco le competenze critiche:

  • Visualizing the Abstract: osservare come l’AI traduce concetti complessi come ad esempio “disuguaglianza” o “bellezza”.

  • Historical Accuracy Check: verificare la fedeltà e la veridicità delle rappresentazioni prodotte dall’AI.

L’obiettivo principale di questo framework non riguarda tanto l’aspetto estetico dell’immagine quanto la comprensione e l’acquisizione di consapevolezza del processo che l’ha generata, un aspetto fondamentale per quanto riguarda il concetto di “essere alfabetizzati” dal punto di vista visuale.

1 Mi Piace

Grazie Leonardo! Argomento molto interessante! :slight_smile: :slight_smile:

Grazie Pietro, mi sembra un ambito da esplorare e mi piacerebbe conoscere il tuo parere in merito! Cosi come quello di @Alexander.Green

Penso che l’IA possa veramente permettere di sbloccare competenze creative anche di persone che magari non hanno grandi abilità tecniche. Imparare ad utilizzarla, e riconoscere quando è stata utilizzata anche per lavori creativi, credo sia una competenza fondamentale per le future generazione. Questo approccio che suggerisci mi sembra veramente un bello spunto!