Ultimamente il termine AI buddy compare spesso nei dibattiti sull’uso di ChatGPT e Gemini e anche noi abbiamo affrontato questo argomento in merito alle tragedie avvenute negli USA. In senso generico gli AI buddies indicano intelligenze artificiali generative che agiscono come “compagni” o “amici”, che accompagnano e supportano l’utente in vari contesti anche dal punto di vista emotivo e relazionale. In pratica, un AI buddy non è solo uno strumento reattivo, ma un sistema di intelligenza artificiale che prende iniziative, comprende le preferenze, pianifica e consiglia in maniera simile a come farebbe un amico o un compagno umano in una chat privata, all’interno di un’interfaccia grafica quasi identica. Questo uso si sta affermando in ambiti come l’educazione, il lavoro e la vita personale, dove l’AI buddy offre supporto personalizzato, aiuto e compagnia, rendendo l’intelligenza artificiale più accessibile e meno tecnica, più simile a un collega o a un compagno fidato.
Lo scopo di questo articolo non è condannare o osannare tale modalità di utilizzo degli LLM, bensì porre alla vostra attenzione due aspetti fondamentali inerenti al tema. Il primo è che l’essere umano è incredibilmente affascinato dalle macchine e dalla possibilità di interagire con loro. Il secondo è che se una persona ha problemi a socializzare con altri da sé offline, spesso passa più tempo sui social network rispetto a chi non ha disturbi: per estensione possiamo ipotizzare che tali persone trovino più facile socializzare con un chatbot che con persone in carne ed ossa.
Per il punto uno, partiamo da un breve excursus storico sul primo chatbot della storia, ELIZA, che venne creato nel 1966 dall’informatico Joseph Weizenbaum. ELIZA simulava uno psicoterapeuta in una chat con utenti umani, mediante semplici analisi lessicali e risposte basate su parole chiave. Nonostante la sua semplicità, molte persone attribuivano a ELIZA capacità di comprensione, empatia e intelligenza che in realtà il programma non possedeva. Questo fenomeno psicologico, noto appunto come “Effetto Eliza”, mostra la tendenza umana a trasporre agli algoritmi un’intelligenza e una consapevolezza che però tali software non possiedono e sviluppando attaccamenti emotivi verso la macchina con cui si sta interagendo. Weizenbaum, che inventò l’esperimento per evidenziare i limiti dell’intelligenza artificiale, fu sorpreso da questo comportamento delle persone coinvolte oltre che dalla propensione umana ad antropomorfizzare le macchine. L’Eliza effect ha avuto un impatto duraturo, influenzando lo sviluppo di chatbot e interfacce conversazionali fino ai moderni assistenti virtuali.
Ora passiamo al secondo punto. In una ricerca inglese pubblicata quest’anno, si ribalta il modo in cui di solito si narra del tempo passato dai giovani sui social network e delle relative conseguenze. Spesso giornalisti, scrittori, ricercatori, politici ed esperti dicono che i giovani sono depressi a causa dell’uso e abuso di Instagram e TikTok. Questo studio invece inverte la questione dicendo che ragazzi/e che hanno già all’attivo problemi di salute mentale, frequentano con altissima frequenza i social network e molto più spesso di chi non ha problemi, lamentando conseguenze gravi e delusioni nell’uso di tali piattaforme. Tale assunto suggerisce di ottimizzare le modalità attraverso cui si fanno esperimenti e raccolgono dati sul tema, per non incorrere in un modello a “serpente che si morde la coda”, che funziona a livello di allarmismo contro le tecnologie moderne, ma che non restituisce un quadro corretto. Il focu, a priori, deve essere sull’attenzione al benessere dei giovani in senso lato: se un ragazzo ha problemi di salute mentale, allora l’uso di dispositivi digitali e di piattaforme online andrà rivisto in base alle sue caratteristiche specifiche e non semplicemente utilizzato per demonizzare i social media in generale e ad ampio spettro.
Per estensione e precauzione, dovremmo tenere in considerazione l’uso di IA generative effettuato da persone che hanno fragilità di vario tipo (comportamenti sociopatici, atteggiamenti depressivi, disturbi della sfera emotiva ecc). La ricerca sembra confermare che un basso livello di alfabetizzazione digitale e conoscenza del funzionamento delle attuali IA, sia correlato al concepire tali tecnologie come magiche col relativo rischio di non distinguere nel modo corretto la chat con una persona in carne ed ossa rispetto alla chat con un chatbot. Da un punto di vista di educazione ai media, risulta ormai fondamentale fornire le conoscenze di base sul funzionamento degli LLM, per evitare che si inneschino degli Effetti Eliza, in persone a rischio (anche se in generale il discorso vale per chiunque).
Ma esiste anche un ultimo punto di vista da tenere in considerazione sul tema. Non è forse una risorsa il fatto che ci siano piattaforme che riescono a captare il disagio interiore di milioni di persone che altrimenti sarebbero chiuse in se stesse, senza possibilità di aiuto? Non è che potremmo utilizzare i dati raccolti da OpenAI, Google, Microsoft, Anthropic e altri per migliorare il nostro approccio alla salute mentale degli utenti degli LLM, piuttosto che inserirsi nel dibattito solo per attaccare i produttori di tali piattaforme?
Il tema è complesso e in via di definizione e tiene in considerazione anche aspetti sul trattamento dei dati che riguardano l’ambito normativo che qui non abbiamo affrontato. In ogni caso interrogarsi su come affrontare la questione è quanto mai opportuno e doveroso, anche solo per il fine di utilizzare tali app nel modo più consapevole possibile.
Dicci cosa ne pensi nei commenti.