Ma le IA imparano come noi?

Gli strumenti di intelligenza artificiale stanno entrando nelle nostre aule. Ma come funzionano davvero? Un recente studio di Oxford e Allen Institute for AI ci rivela qualcosa di sorprendente sul loro apprendimento linguistico.

Linguaggio per analogia, non per regole

I Large Language Models (LLM) come GPT non imparano semplicemente “regole grammaticali”. Funzionano invece per analogia, un po’ come facciamo noi umani di fronte a parole nuove.

Quando i ricercatori hanno testato questi sistemi con parole inventate (es. friquish o cormasive), chiedendo di trasformarle in sostantivi, i modelli hanno risposto basandosi sulla somiglianza con parole esistenti:

  • friquish è diventato friquishness perché simile a selfish
  • cormasive ha generato cormasivity per analogia con sensitive/sensitivity

La differenza cruciale con noi umani

Nonostante questa somiglianza, esiste una differenza fondamentale:

  • Noi umani creiamo un dizionario mentale organizzato e riconosciamo facilmente le parole inventate come “non reali”
  • Gli LLM memorizzano indipendentemente ogni singola occorrenza di ogni parola incontrata, senza unificarle in concetti. Di fronte al nuovo, si chiedono semplicemente: “a cosa assomiglia?”

Questa mancanza di vera astrazione spiega perché le IA hanno bisogno di quantità enormi di dati rispetto agli esseri umani per imparare una lingua.

Implicazioni per la didattica

Comprendere questa differenza ci aiuta a utilizzare meglio gli strumenti AI in classe, riconoscendone i punti di forza ma anche i limiti. Possiamo così integrarli consapevolmente nelle nostre pratiche didattiche.

https://doi.org/10.1073/pnas.2423232122

1 Mi Piace