Dalle Chatroom all'AI Empatica: Come l'Intelligenza Artificiale Sta Ridisegnando le Nostre Relazioni
Benvenuti! Questa è MEGATREND, una nuova rubrica di Fantaforecasting.it dedicata ai grandi cambiamenti che stanno dando forma al futuro
Ci si preoccupa molto, giustamente, di come l’AI rivoluzionerà professioni e mestieri negli anni e decenni a venire. Ma pensare che si tratti di una rivoluzione confinata alla sfera del lavoro potrebbe essere un grosso errore. A cambiare radicalmente, infatti, potrebbe essere anche il modo in cui interagiamo col mondo, sviluppiamo affettività e come ci prendiamo cura di noi stessi e degli altri.
Comprenderlo a fondo non è semplice, e forse per ora siamo in grado di intravedere solo alcuni spiragli del futuro che ci aspetta. Per provare a metterli a fuoco si può partire da due elementi: uno è una previsione tratta da uno dei libri più influenti degli ultimi anni; l’altro è un ricordo.
Partiamo dalla previsione. Nel volume The Great Demographic Reversal di Charles Goodhart e Manoj Pradhan, probabilmente il libro più citato sull’incombente trasformazione demografica mondiale (progressivo invecchiamento e contrazione della popolazione in tutto il mondo a parte il continente africano), gli autori fanno una previsione molto precisa: in un mondo che invecchia, il lavoro di cura (dagli infermieri ai badanti passando per gli psicologi) crescerà esponenzialmente d’importanza: mentre il progresso tecnologico automatizzerà sempre più quasi tutte le altre professioni, i lavori di cura sfuggiranno all’automatizzazione, restando “umani” e sempre più richiesti.
Ora passiamo al secondo elemento: il ricordo. Chi è abbastanza vecchio come chi scrive ricorda il primo avvento dei prototipi di social media tra la fine degli anni Novanta e i primi anni Duemila. I più diffusi, almeno in Italia, erano le chatroom IRC (Internet Relay Chat - il software più famoso per accedervi era mIRC). La loro attrazione era semplice ma potente: per la prima volta questi strumenti offrivano la possibilità di relazionarsi ad altri esseri umani in modo allo stesso tempo diretto ma “filtrato”. Nessuna vicinanza fisica, nessun “eye-contact”. Insomma, nessuno di quegli elementi che, specialmente nei più giovani e timidi, tendono a causare imbarazzo e frenare l’interazione così come la si vorrebbe.
Alcuni giustamente si chiederanno cosa c’entrano questi due elementi, la previsione e il ricordo, l’uno con l’altro. Per chiarirlo bisogna introdurne altri due: un longread recentemente pubblicato dal magazine online The Verge e due video-dimostrazioni.
Partiamo dall’articolo. “The Teens Making Friends with AI Chatbots” di Jessica Lucas è forse la migliore inchiesta uscita finora su un fenomeno legato all’AI rimasto in ombra rispetto ad altri: l’affettività. L’articolo riporta infatti le storie di alcuni adolescenti canadesi e americani e il loro rapporto con “caratteri artificiali” su quella che è ad oggi a tutti gli effetti la più grande chatroom tra umani e modelli AI: Character.AI.
Character.AI è allo stesso tempo molto simile e molto diverso da ChatGPT. Quest’ultimo è infatti strutturato per essere utilizzato come “assistente” (di lavoro o nella vita di tutti i giorni) a cui possiamo chiedere aiuto per i compiti più disparati. Questo non significa che non ci si possa “chattare” del più e del meno. Ma quando si cominciano ad affrontare argomenti particolarmente personali o “scottanti” il condizionamento subito dal modello in fase di programmazione lo porterà quasi sempre a dare risposte politicamente corrette ed evasive, proprio per evitare di incorrere in spiacevoli polemiche se non in vere e proprie dispute legali. In questo Character.AI è diverso da ChatGPT. La piattaforma è la prima, ma non l’unica come vedremo, che si è avventurata coscientemente in questo lato del pianeta AI ancora poco esplorato e ad alto rischio di regolamentazione e controversie legali. Character.AI permette di chattare con i personaggi più disparati e di crearne di nuovi e personalizzati. Lo scopo in questo caso è esattamente l’opposto da ChatGPT. Questi personaggi saranno di scarso aiuto nell’aiutarvi in compiti lavorativi o di ricerca (anche solo perché i modelli su cui funzionano sono generalmente meno potenti rispetto a quello di ChatGPT). Il loro scopo è invece semplicemente quello di parlare con l’utente di qualunque cosa, compresi argomenti estremamente personali e perfino scottanti. L’articolo di The Verge fa l’esempio di Aaron, un adolescente canadese che per mesi ha affrontato i suoi problemi adolescenziali grazie a un personaggio di Character.AI chiamato semplicemente “The Psychologist”, un chatbot programmato, come dice il nome, per impersonare uno psicologo professionista. Su Character.AI è inoltre possibile chattare con i propri personaggi preferiti di cartoni e fumetti, nonché avere conversazioni piccanti con ragazzi e ragazze virtuali. Altre piattaforme, come ChubAI si sono spinte ancora più in là, offrendo esplicitamente una gamma di personaggi con cui avere chat erotiche, compresi personaggi minorenni, causando ovvie polemiche.
Ora passiamo al quarto e ultimo elemento: un video, anzi due. Il primo l’hanno visto in tanti: il lancio del 13 maggio 2024 delle nuove funzioni vocali di ChatGPT. Nel video si vedono alcune delle superstar di OpenAI (l’azienda produttrice di ChatGPT) come Mira Murati conversare amabilmente con il loro smartphone. La modalità conversazione esisteva anche prima su alcune delle applicazioni LLM più avanzate, ma questa volta c’è qualcosa di radicalmente diverso. Questo non è uno scambio che emula una chat scritta: lento e macchinoso con una voce impostata e priva di emozioni (turno di parlare dell’utente, turno del modello, e poi ancora turno dell’utente, e così via); questa è una conversazione vera e propria, con utente e modello che si parlano sopra, scherzano, ridono, cambiano inflessione e comprendono i “sentimenti” l’uno dell’altro dal tono di voce. Una conversazione vera, insomma, come ne avevamo viste solo in film e telefilm (per esempio il personaggio di Jarvis in Ironman o, per i più attempati, Supercar).
Il secondo video è quello di un robot che parla e si muove, il prototipo di una start-up che si chiama Figure. Il robot è animato da GPT-4 (quello che era modello di punta di OpenAI prima del recente lancio del nuovo modello GPT-4o) e ha una conversazione (questa sì ancora un po’ macchinosa) con un umano di fronte a lui. Quest’ultimo gli fa domande sull’ambiente che lo circonda e gli chiede di interagirci compiendo piccole azioni. Insomma, il prototipo di un robot in grado di parlare e compiere per noi task nel mondo reale e non solo confinate ai nostri schermi come avviene con ChatGPT e gli altri chatbot.
Alcuni avranno probabilmente cominciato a capire il punto di questa lista di elementi solo apparentemente lontani fra loro: l’irruzione dell’AI nelle sfere più delicate della nostra intimità e della nostra realtà fisica.
Ovviamente non è la prima volta che la tecnologia modifica le relazioni umane. Basta pensare a come chatroom, social media e app di appuntamenti abbiano pressoché rivoluzionato il modo di interagire, fare amicizia, trovare partner sessuali o vere e proprie relazioni a lungo termine. La differenza è che finora quello che la tecnologia aveva rivoluzionato erano prima di tutto le modalità di approccio e interrelazione. A saltare erano state convenzioni sociali e modalità di connessione ad altri esseri umani.
Il cambiamento generato dall’AI si preannuncia radicalmente diverso. Non si tratta più infatti di modificare le modalità di approccio e comunicazione con altri esseri umani. Si tratta di sostituire in toto gli esseri umani con nuovi interlocutori, per ora confinati al nostro schermo ma in futuro potenzialmente anche dotati di veri e propri corpi.
Quando Goodhart e Pradhan scrissero il loro capitolo sul futuro del lavoro di cura erano certamente convinti che, mentre una macchina avrebbe potuto facilmente sostituire gli esseri umani in molti altri mestieri, il lavoro di cura necessitasse di un inderogabile “tocco umano” per poter essere portato a termine. L’imprescindibile componente emotiva dei lavori di cura, compresi quelli che comportano anche lati molto fisici come l’infermieristica, li rendeva quindi immuni da qualunque competizione di entità “non umane”.
È vero che man mano che le macchine hanno cominciato a rivelarsi migliori degli esseri umani in compiti sempre più complessi la narrativa che si è sviluppata è stata quella secondo cui, pur ammettendo la possibilità che le macchine si rivelino migliori in molti campi, esisterà sempre una serie di caratteri, abilità e comportamenti non replicabili perché appannaggio esclusivo dell’esperienza umana. Il contatto tra umano e umano è insostituibile e non replicabile e, soprattutto, monopolio esclusivo di noi esseri fatti di carne e sangue.
Ma è davvero così? E se questa narrativa si stesse rivelando sempre di più come uno scudo adatto a confortare le nostre paure più intime ma sempre meno adatto a spiegare la realtà che si sta delineando? Per quanto affascinante e certamente consolante sia questa narrativa, infatti, è già stata almeno parzialmente confutata negli ultimi anni. Un primo esempio abbastanza banale è ovviamente l’attaccamento affettivo, spesso equiparabile a quello provato per famigliari, che milioni di persone provano per entità animali non umane come cani, gatti e altri animali domestici. Ma non solo. Il grande successo ottenuto da chatroom, app di appuntamenti, social media ecc. hanno dimostrato come gli umani spesso preferiscono, almeno al principio delle loro relazioni, un contatto umano meno “naturale” o “tradizionale” e maggiormente intermediato da strumenti e barriere artificiali.
L’avvento degli LLM porta questa tendenza già in atto su un livello completamente nuovo, capace, forse, di demolire definitivamente la narrativa dell’unicità e “sacralità” del rapporto tra umano e umano. Siamo pronti davvero a scommettere che la maggior parte di noi continuerà a preferire compagnia, affetto e cura esclusivamente umani davanti a una alternativa priva delle incertezze tipiche che il rapporto con altre persone può presentare? Una alternativa priva delle reticenze, delle paure, delle paturnie e degli sbalzi umorali che spesso danneggiano le relazioni con un altro essere umano. Una alternativa priva di dei rancori, delle invidie e di qualsivoglia insicurezza o timore che ne sono di solito l’origine a cominciare dalla paura di morire? Una entità completamente focalizzata su di noi, in grado di parlare con noi a lungo e con eloquenza di qualunque argomento sia di nostro interesse, che ci trova interessanti e importanti, che non ha nessuna remore in aiutarci in qualunque bisogno e presto anche dotata di corpo che nel tempo la tecnologia porterà ad assumere fattezze sempre più umane.
Sembra fantascienza ma molto di tutto ciò è già qui. Nel 2015, Eugenia Kuyda, una computer scientist specializzata in AI fece il training dell’LLM a cui lavorava usando tutti i lasciti scritti della sua migliore amico, deceduto in un incidente stradale, compresi migliaia dei messaggi testuali che negli anni le aveva mandato. Ne è risultato un chatbot capace di rispondere con lo stile, l’ironia e i ricordi del suo compagno a cui Eugenia ha detto di essere diventata profondamente legata. Questa esperienza l’ha ispirata nel fondare Replika, una società specializzata in chatbot manipolati per diventare compagni di conversazione particolarmente “intimi”. Anche se forse non era il suo obiettivo inizialmente, Replika è diventata velocemente nota come piattaforma di chat erotiche con personaggi simulati. Il suo esempio ha però di fatto aperto la porta a un sentiero di sviluppo della tecnologia LLM completamente nuovo e dal potenziale allo stesso tempo spaventoso e affascinante. Dall’inizio dell’era digitale ognuno di noi ormai lascia dietro di sé enormi quantità di dati scritti utilizzabili per creare repliche di noi dopo la nostra morte (e teoricamente anche prima).
Se molti individui si sentono già attirati da questa prospettiva quando è ancora confinata allo schermo, l’effetto di repliche umane dotate di corpi potrebbe essere esplosivo. E in grado di portarci da un’era digitale in cui la tecnologia ci rendeva in grado di avere rapporti con altri esseri umani intermediati nei modi che ci mettevano più a nostro agio a una nuova era, in cui la possibilità di avere interlocutori completamente nuovi, totalmente modellati intorno ai nostri desideri diventa realtà. Fidanzati, amici, compagni in grado di prendersi cura di noi emozionalmente e fisicamente, senza remore, ripensamenti, e con totale dedizione. Entità sempre di buon umore, sempre in grado di farci sentire importanti e al centro dell’attenzione. Se pure ci sarà una parte di noi che ancora valuterà come più importante e soddisfacente il rapporto con un altro essere umano “reale” siamo sicuri che questa sarà la maggioranza?
Gli LLM sono una rivoluzione dell’intelligenza artificiale perché per la prima volta non si tratta di modelli che emulano il nostro lato razionale e quantitativo. Gli LLM ragionano in modo qualitativo, mettendo alla base il linguaggio, arrivando a emulare quelle che sono le dinamiche più emotive del nostro agire e del nostro pensare. Più che strumenti, come molti di noi li intendono oggi, il loro futuro promette di andare ben oltre. Finora avevamo riservato la dignità di interlocutori e fonti di affettività solo altri esseri umani o altri animali (per quelli di noi che parlano col proprio gatto o col proprio cane). Presto questa lista si allargherà anche agli LLM, e per alcune persone è già così.
Questo apre dilemmi completamente nuovi e sorprendenti per il futuro che ci aspetta. Ci sono quelli etici ed esistenziali, certo, legati al fatto di poter arrivare a considerare macchine come fonti affettive al pari di amici, compagni e animali domestici. Ma questi dubbi in fondo non sono veramente nuovi. Alcuni di essi sono antichi almeno quanto le eterne polemiche tra coloro che dicono di amare i proprio animali domestici come persone e quelli che rifiutano l’equiparazione. No, i dilemmi veramente nuovi sono altri. Sam Altman, il fondatore di OpenAI, in una recente intervista ha affermato che presto la società si dovrà chiedere come trattare a livello legale degli assistenti AI che conoscono sempre più aspetti della nostra vita. Se, per esempio, commettessimo dei reati potrebbero essere chiamati a testimoniare contro di noi?
Ma questa è solo una delle domande da fantascienza che presto potrebbe porci questa tecnologia. Cosa succederebbe se l’esperimento personale di Eugenia Kuyda diventasse un mercato e sempre più persone volessero generare un replica AI dei loro cari defunti? Cosa succederebbe se il caro defunto prima della propria dipartita decidesse di non voler essere “replicato” dopo la morte? Dovremo normare la privacy post-mortem per difenderne il diritto a precludere l’accesso ai suoi dati scritti personali necessari per la creazione della sua replica?
E come saranno regolate le realtà come ChubAI, in cui persone con perversioni illegali, sessuali e non, possono oggi sfogarle parlando con un chatbot? E se domani questi chatbot potessero anche avere corpi in grado di rendere lo sfogo di tali perversioni ancora più realistico?
Un infermiere AI instancabile, sempre di buon umore e a poco prezzo è certamente il sogno dei molti che hanno parenti anziani o malati da assistere. Ma di chi sarebbe la responsabilità di un suo eventuale errore che porti al ferimento o perfino alla morte dell’assistito? O di chi sarebbe la responsabilità se la nostra auto guidata dell’AI mettesse sotto il vicino?
Messa così potrebbe sembrare che quello che ci aspetta sia un futuro di incertezza e dilemmi etici impossibili. Ma prima di cedere al lato scuro dei cosiddetti “AI-doomer” bisogna riconoscere anche i notevoli lati positivi che accompagnerebbero questi scenari. In un mondo che invecchia e dove il lavoro di cura e i suoi costi costituiscono il grande dilemma per famiglie e governi, l’AI potrebbe offrire soluzioni rivoluzionarie. Per non parlare dell’annoso dilemma della solitudine degli anziani (e non solo). L’”altro” lavoro di cura, ovvero quello dei bambini, ne sarebbe altrettanto avvantaggiato. Non solo. Studi recenti mostrano come l’AI sia potenzialmente in grado di colmare le persistenti differenze di qualità dell’educazione tra famiglie più o meno avvantaggiate.
Se il primo istinto di fronte ai dilemmi che pone sarebbe quello di ignorare, iper-regolare e/o limitare quanto più possibili gli sviluppi dell’AI nel campo dell’assistenza emotiva e della cura, i potenziali impatti positivi sono difficili da ignorare. Un primo errore sarebbe pensare che sia la prima volta che ci trova davanti a rivoluzioni tecnologiche allo stesso tempo così rischiose e così promettenti. Ma non lo è. L’invenzione del processo chimico per la formazione dell’ammoniaca ai primi del novecento aprì la strada per la produzione sia delle armi chimiche sia dei fertilizzanti moderni in grado di sfamare miliardi di persone. Allo stesso modo, la tecnologia nucleare ha aperto la strada sia a scenari da fine del mondo sia a innumerevoli evoluzioni tecnologiche civili. Tutto sommato, i dilemmi posti dall’AI come riferimento affettivo appaiono meno fatali visti in contrasto a questi esempi. Se in oltre un secolo dall’invenzione del processo dell’ammoniaca abbiamo sfamato miliardi di persone invece di gassarci tutti, può essere che valga la pena provare ad avere fiducia nelle capacità umane di gestione e adattamento. Per quanto talvolta possa sembrare difficile.