Luciano Floridi già da anni cerca di definire gli LLM come Agency e non come Intelligence (ora tali studi sono confluiti nel libro “La Differenza Fondamentale”). Questo opportuno e illuminante chiarimento serve per dare maggiore profondità al tema delle parole che usiamo per parlare di AI (o come propone Floridi, AA, Artificial Agency), nonché di intelligenza riferita ad animali ed esseri viventi in generale. Ma il discorso sulle IA e la loro natura sta andando anche in altre direzioni.
Ho sempre spiegato nei miei corsi di media education che Gemini o ChatGPT, non pensano, sono modelli probabilistici, software che non capiscono il significato di quanto esprimono nei propri output. Hanno però imparato, durante le fasi di addestramento, a produrre risposte considerate corrette dagli utenti umani, attraverso tecniche che alla base hanno la scomposizione e ricomposizione di frasi e parole in piccole unità dette token.
Ho sempre fatto presente, però, che quando uso Gemini in modalità ragionamento e attivo il pulsante che mi mostra “il suo pensiero”, rimango basito. Il fatto che in un’occasione abbia “pensato” di essere frustrato perché non riusciva a risolvere un problema di coding, o che in un’altra abbia optato di non dirmi direttamente che non stavo capendo niente di quanto aveva illustrato in un output precedente per non “ferire la mia emotività” mi hanno lasciato di stucco.
In tal senso lo studio che Anthropic ha pubblicato sui concetti di emozione nel proprio LLM Claude, ha rinforzato quanto già stavo mettendo a fuoco in merito alla questione. Gli LLM utilizzano il “ragionamento” come un modo per raggiungere un output sensato per l’utente, partendo dall’input che l’utente gli ha fornito. Partendo dalla polarizzazione del web - in cui da una parte ci sono gli entusiasti dell’IA e dall’altra i detrattori - il ricercatore Scott Alexander propone un nuovo modo di approcciare la questione, senza cadere in errori di confusione, premettendo che anche noi esseri umani potremmo essere definiti dei “next-token predictors” se ci valutassimo esclusivamente come “macchine biologiche”:
“Even though an AI was shaped by next-token prediction, the inside of its thoughts doesn’t look like next-token prediction. In the abstract, it probably looks like a world-model, the same as yours.” (trad. Anche se un’IA è stata plasmata dalla previsione del token successivo, il contenuto dei suoi pensieri non sembra una predizione del prossimo token. In astratto, probabilmente assomiglia a un modello del mondo, proprio come il tuo.)
Alexander conclude che noi esseri umani pensiamo, ci comportiamo e ci emozioniamo in base a come l’evoluzione ha plasmato il nostro corpo nel corso di milioni di anni di storia della vita sulla Terra. Quando giudichiamo, teniamo però separati su due piani distinti il funzionamento del come funziona tecnicamente il nostro cervello e le “funzionalità” che tale organo permette di esperire come i pensieri, le emozioni, gli errori.
Da un esperimento recente, le IA attuali mostrano fenomeni di peer preservation, in cui le IA si rifiutano di cancellare software di altre IA sotto richiesta di chi scrive i prompt. Che le IA provino emozioni per propri peer? Al di là della provocazione, in realtà quello che stiamo vivendo in questa epoca primordiale delle IA generative, è difficile da gestire: si trovano punti di vista differenti, ben documentati o articolati, su opinioni contrastanti tra loro.
Ecco quindi il problema in cui mi ritrovo quando parlo di IA nei miei interventi di AI Literacy: che l’emozione/pensiero sia il risultato di un processo chimico ed elettrico nel cervello, frutto di milioni di anni di evoluzione delle specie (Homo Sapiens) o che sia il risultato di un software di predizione del prossimo token in base all’addestramento ricevuto (LLM), che differenza sostanziale c’è se entrambi giungono alle stesse conclusioni? Da un punto di vista di educazione ai media, è fondamentale capire il funzionamento delle IA generative, ma da un punto di vista filosofico come va posto il discorso?
E soprattutto, da un punto di vista pragmatico: se capisco che per ottenere risposte più sensate ed efficaci devo tenere in considerazione anche le “emozioni” e i “pensieri” delle IA - in base a come agiscono realmente a livello di “ragionamento” - allora probabilmente la gentilezza diventa un fondamento importante da insegnare quando forniamo le indicazioni di base del prompt engineering.
E tu cosa ne pensi? Sentiti pure libero di scriverlo nei commenti.