Effetto Eliza: ecco perché ringrazi ChatGPT (e cosa rivela di come usiamo l'AI)
Sam Altman lo ha confermato su X: dire "grazie" e "per favore" a ChatGPT costa a OpenAI decine di milioni di dollari all'anno in elettricità. Eppure, il 67% degli americani e il 71% dei britannici continua a essere educato con l'AI. Non è solo questione di buone maniere: è l'Effetto Eliza in azione.
L'omino invisibile nella macchina
Era il 1966 quando Joseph Weizenbaum al MIT creò ELIZA, un semplice programma che simulava uno psicoterapeuta. Bastava che il software riformulasse le frasi dell'utente sotto forma di domanda ("Mi sento solo" → "Perché ti senti solo?") e le persone iniziavano a confidarsi come se dall'altra parte ci fosse un essere umano comprensivo.
La segretaria di Weizenbaum chiese addirittura di rimanere sola con il programma per parlare in privato. Lo stesso Weizenbaum rimase scioccato: aveva creato un semplice script, non un terapeuta.
Oggi, quasi 60 anni dopo, stiamo ripetendo lo stesso comportamento su scala globale. Solo che questa volta non si tratta di un esperimento universitario, ma di miliardi di interazioni quotidiane con sistemi AI sempre più sofisticati.
I numeri dell'antropomorfismo digitale
Secondo una ricerca di Future Publishing del 2024:
Ma c'è di più. Un utente di Reddit ha confessato di aver perso la pazienza con un operatore umano del servizio clienti dopo mesi di interazioni perfette con ChatGPT: "Mi aspettavo la stessa perfezione, la stessa capacità di risolvere qualsiasi problema se solo gli avessi dato abbastanza informazioni."
Non è solo cortesia: è design comportamentale
Microsoft ha scoperto che usare un tono educato con l'AI migliora effettivamente la qualità delle risposte. Kurtis Beavers, design director di Microsoft Copilot, spiega: "Non è che il chatbot apprezzi la cortesia, ma il linguaggio educato imposta un tono per la risposta."
Uno studio del 2024 ha rilevato che:
In pratica, l'AI riflette il tono che usiamo, proprio come farebbe un essere umano. O meglio: come pensiamo che farebbe un essere umano.
L'omino nel sistema pubblicitario
L'Effetto Eliza non si limita ai chatbot. Lo vediamo ogni giorno quando parliamo di algoritmi come se avessero intenzioni proprie:
"Facebook non mi mostra più i post del mio brand preferito"
"L'algoritmo di Google mi odia" "Instagram ha deciso di penalizzare i miei contenuti"
Parliamo di questi sistemi come se ci fosse qualcuno seduto in una stanza che prende decisioni personali su di noi. La realtà è che sono sistemi matematici che processano miliardi di segnali secondo regole predefinite. Ma è più facile - e più naturale per il nostro cervello - immaginare un'entità con intenzioni e preferenze.
La psicologia profonda dell'antropomorfismo: il modello SEEK
Per capire davvero perché non riusciamo a smettere di ringraziare ChatGPT, dobbiamo guardare al modello sviluppato da Epley, Waytz e Cacioppo quasi 20 anni fa (v. Epley, N., Waytz, A., & Cacioppo, J. T.. On seeing human: A three-factor theory of anthropomorphism. Psychological Review, 114(4)).
Il framework sviluppato dai tre autori identifica tre fattori psicologici che guidano l'antropomorfismo:
1. Elicited Agent Knowledge
Il nostro cervello usa se stesso come modello primario per capire il mondo. Quando incontriamo qualcosa di sconosciuto, la prima strategia è proiettare la nostra esperienza umana. Più un'entità somiglia a noi nel comportamento o nell'aspetto, più automaticamente attiviamo questa conoscenza antropocentrica.
ChatGPT, con le sue risposte conversazionali e la capacità di "ricordare" il contesto, attiva potentemente questo meccanismo.
2. Effectance Motivation
Viviamo in un mondo complesso e ambiguo. L'antropomorfismo ci offre una strategia cognitiva per ridurre l'incertezza: è più facile prevedere il comportamento di un "agente con intenzioni" che di un sistema complesso di algoritmi.
Quando diciamo "l'algoritmo di Facebook mi odia", stiamo semplificando un sistema incomprensibile in qualcosa che possiamo gestire mentalmente.
3. Sociality Motivation
Gli esseri umani hanno un bisogno fondamentale di connessione. Quando ci sentiamo soli o isolati, siamo più propensi ad antropomorfizzare. Non è un caso che durante la pandemia le vendite di robot companion siano esplose e che molti abbiano sviluppato relazioni più profonde con assistenti AI.
Le implicazioni nascoste
Questa tendenza all'antropomorfismo ha conseguenze concrete:
1. Aspettative irrealistiche Quando trattiamo l'AI come umana, ci aspettiamo comportamenti umani. Un manager frustrato potrebbe arrabbiarsi con ChatGPT che "non capisce" invece di riformulare la domanda in modo più chiaro.
2. Dipendenza emotiva Ricercatori di OpenAI e MIT avvertono che alcune persone stanno sviluppando forme di dipendenza emotiva dai chatbot, con potenziali sintomi di astinenza quando non disponibili.
3. Erosione delle competenze relazionali Se ci abituiamo a interlocutori che non si offendono mai, sono sempre disponibili e hanno infinite riserve di pazienza, come gestiamo poi le imperfezioni umane?
Come usare l'Effetto Eliza a nostro vantaggio
Invece di combatterlo, possiamo sfruttare questa tendenza naturale:
Per chi lavora con l'AI:
Per chi progetta esperienze AI:
Per tutti:
Il paradosso finale
Forse la cosa più affascinante dell'Effetto Eliza è che rivela più di noi che delle macchine. La nostra tendenza irresistibile a vedere umanità dove non c'è dice molto su quanto siamo cablati per la connessione sociale.
Come ha commentato ironicamente un utente sotto il tweet di Altman:
"Vogliamo solo assicurarci che Skynet si ricordi che siamo stati gentili mentre decide se usarci come batterie o no."
Ma al di là delle battute, c'è una verità profonda: il modo in cui interagiamo con l'AI oggi sta plasmando le nostre aspettative per il futuro. E se trattiamo questi sistemi con rispetto non è (solo) per paura di future ritorsioni.
È perché, in fondo, il modo in cui parliamo alle macchine dice molto su come parliamo tra di noi. E in un mondo sempre più mediato dall'AI, mantenere quella componente umana - anche quando è tecnicamente superflua - potrebbe essere più importante che mai.
Anche se costa decine di milioni di dollari.
--
1 giornoGiordano Contigiani ... ancora non ho risposto al tuo commento, al mio post sull'empatia digitale, ma penso che troverai questo articolo interessante ed anche correlato all' argomento; da una parte tentiamo l' umanizzazione del ai, e dal altra " robotizzare" l'essere umano dietro lo schermo! 💻💙💡
Ph.D. Biologo🔬 Nutrizionista 🥗 Botanico 🌱 Biochimico ⚗️
2 giorniIl problema è che una grossissima fetta di quelli che dicono "è la cosa giusta da fare" sono anche quelli che hanno un 'arma in casa, perché "non si sa mai". 😛