Gli studi comparativi sulla didattica (ad esempio Hattie, 2009; OECD, 2021) mostrano che non è il “metodo unico” a garantire risultati migliori, ma la coerenza di alcune pratiche fondamentali (feedback tempestivo, coinvolgimento attivo, scaffolding).
Un quadro comune di riferimento può aiutare gli studenti a orientarsi e ridurre la variabilità.
Allo stesso tempo, la libertà di adattamento è cruciale: gli insegnanti devono poter modulare materiali e strategie in base a classe, contesto e bisogni individuali.
Per questo in FEM riteniamo che la soluzione non sia uniformare tutto, ma costruire linee guida condivise che lascino spazio alla creatività del docente. Così si unisce il meglio dei due mondi: stabilità per gli studenti e innovazione per chi insegna. E’ lo stesso principio che guida anche lo sviluppo e la condivisione di linee guida a livello Europeo, come quella (ancora in versione work in progress) sulla AI literacy, un framework composto con la collaborazione dell’OECD.
E tu, utilizzi qualche linea guida o framework specifico? E la tua scuola?
Ciao @matteo.socciarelli grazie per questo spunto, condivido in pieno e vi propongo un’ulteriore riflessione rispetto al framework che avete condiviso, in particolare su questo framework The essential elements of digital literacies del 2014 ma che mi sembra molto attuale pur non parlando direttamente di AI.
Nel framework che hai citato l’ AI literacies ci offre 4 azioni chiare con le tecnologie (ingaggiare, creare, gestire, progettare) e secondo me dialogano molto bene con le otto dimensioni delle digital literacies citate nel framework che vi ho condiviso, ovvero culturale, cognitiva, costruttiva, comunicativa, confidenza, creativa, critica, civica.
Inoltre, il concetto di remix che è centrale nel framework che vi ho condiviso, diventa una perfetta cerniera tra visual e digital literacies nell’era generativa: leggere/creare immagini, citare e trasformare fonti, discutere originalità, attribuzione e copyright; e, allo stesso tempo, valutare quando accettare, rivedere o rifiutare gli output dell’AI e perfino se usare o no l’AI su un compito specifico.