«Gli studenti usano l’IA anche quando potrebbero pensare da soli!». Avete mai fatto questo commento? Una recente ricerca ha dato un nome a questa sensazione diffusa: cognitive surrender, ossia la “resa cognitiva”.
Partendo dai classici modelli di pensiero “veloce e lento”, resi popolari da Daniel Kahneman, gli autori propongono qualcosa di radicalmente nuovo: oggi non esistono più solo Sistema 1 (intuizione rapida) e Sistema 2 (ragionamento riflessivo), ma anche un Sistema 3, esterno alla mente, fatto di algoritmi e intelligenze artificiali. Un sistema che non aiuta soltanto a pensare, ma che a volte pensa al posto nostro.
Negli esperimenti descritti nell’articolo, i partecipanti potevano scegliere se consultare o meno un’IA durante esercizi di ragionamento. Il risultato è sorprendente: quando l’IA dava la risposta giusta, le prestazioni miglioravano molto; quando l’IA sbagliava, gli studenti sbagliavano con lei. E spesso lo facevano con grande sicurezza, anche quando la risposta era errata. È questo il segnale chiave della resa cognitiva: non solo delegare il compito, ma rinunciare al controllo. Assistiamo quindi a una mancanza di pensiero critico, quella competenza che dovrebbe permetterci di analizzare, valutare e risolvere problemi in autonomia.
Per chi insegna, il messaggio non è “vietiamo l’IA”, ma ripensiamo cosa significa insegnare a pensare. L’IA può diventare un potente amplificatore del ragionamento, ma solo se gli studenti restano nel circuito: confrontano, verificano, dissentono. Altrimenti rischia di trasformarsi in una scorciatoia che spegne proprio le competenze che la scuola dovrebbe allenare.
La sfida culturale dei prossimi anni non sarà solo imparare a usare l’intelligenza artificiale, ma imparare a non arrendersi a essa.