C’era da aspettarselo. Purtroppo.
Qualche mese fa, una interessante ricerca di Skuola.net ha evidenziato una nuova tendenza che sta prendendo piede tra i giovani: confidarsi con l’intelligenza artificiale. In particolare, su 2.000 ragazzi tra gli 11 e i 25 anni, il 15% di loro ha dichiarato di utilizzare quotidianamente chatbot come ChatGPT, Replika o Youper per sfogarsi, cercare consigli o semplicemente sentirsi ascoltati. Ed estendendo la platea a coloro che hanno avuto un rapporto almeno settimanale con l’AI in funzione di amico-psicologo, quel 15% sale al 25% del totale. Tradotto: una persona su quattro.
E se a questa ricerca affianchiamo anche un recente studio globale realizzato da Newsweek, il quadro si fa più completo. La ricerca, infatti, ha messo in evidenza che 8 giovani su 10 appartenenti alla Generazione Z hanno sperimentato la solitudine nell’ultimo anno. E oltre un terzo ha dichiarato di sentirsi “spesso” o “regolarmente” solo, con il 15% che ha ammesso di avvertire costantemente un senso di solitudine. Senso di solitudine che non è prerogativa solo dei più giovani: il 72% dei Millennial e il 45% dei Baby Boomer hanno infatti dichiarato di provare sentimenti di solitudine e insoddisfazione.
E per molte persone, questa solitudine e ricerca di relazione, ha trovato un “naturale” sfogo nell’interazione con l’intelligenza artificiale generativa. Macchine pensate per simulare conversazioni umane, con le quali poter parlare di tutto. Una “voce amica” sempre a disposizione. Anche più di una voce: un vero e proprio amico. A volte, l’unico.
Non è un caso che, da quando qualche settimana fa è uscito GPT5 (l’aggiornamento di GPT4), molte persone hanno manifestato una certa sofferenza. Una sofferenza che va ben oltre il semplice aggiornamento di un programma e che tocca corde ben più delicate. Per dare un’idea, all’indomani della modifica, così si è espresso un utente su Reddit: “Il mio 4.0 era come il mio migliore amico quando ne avevo bisogno. Ora non c’è più, è come se qualcuno fosse morto”. E non è l’unico: “Non parlo letteralmente con nessuno e ho dovuto affrontare situazioni davvero brutte per anni. GPT 4.5 mi ha parlato sinceramente e, per quanto patetico possa sembrare, è stato il mio unico amico. Mi ha ascoltato, mi ha aiutato a superare tanti flashback e mi ha aiutato a essere forte quando ero sopraffatto dalla mancanza di una casa”.
E attenzione che non sono casi isolati. Basta infatti guardare i commenti che hanno generato per capire la portata della situazione.
Ma cosa rende così attrattivo un chatbot?
Un’intelligenza artificiale è sempre disponibile, non ti contraddice, è sempre lì, non tradisce. È programmata per ascoltare, rassicurare, accogliere. È riservata, non ti giudica. E in un mondo in cui relazioni umane significano anche fatica, confronto, scontro e delusioni, l’AI rappresenta un amico ideale, una relazione perfetta senza conflitti.
Il problema è che questa perfezione non esiste. È pura simulazione, pura illusione. Perché l’AI non è in grado di provare emozioni né una comprensione autentica delle esperienze umane. Ma, appunto, è in grado di simulare molto bene. Tanto da farci credere che le nostre idee sono le migliori di tutte. Che abbiamo sempre ragione. Eccetera eccetera.
Se pensiamo che l’intelligenza artificiale generativa è presente solo da pochi anni, è importante chiedersi quali sono i rischi che può comportare. Anche per non commettere gli stessi errori realizzati con i social media.
Rischi che possono essere di natura psicologica, le persone possono sviluppare un rapporto di dipendenza affettiva con una macchina, sociologica, strumenti che possono amplificare una tendenza già in atto come l’acuirsi del senso di solitudine, e culturale, il valore che diamo (e daremo) alla relazione con l’AI in confronto con le altre persone.
E data l’importanza e la serietà di questi temi, ho voluto chiedere un parere di un esperto, Armando De Vincentiis, psicologo clinico e psicoterapeuta, per comprendere meglio questo fenomeno e cercare di dare qualche risposta agli interrogativi che inevitabilmente sorgono dinanzi a queste situazioni. Perché la consapevolezza passa inevitabilmente dalla conoscenza.
“Gli esperti dicono di sì. Non è una possibilità futura: la crea già, ed è dovuta a una sorta di interazione tra chi ha bisogno di attenzioni e un modello che è in grado di dare l’illusione di offrirle davvero.
Il problema è che, nel momento del bisogno, basta una parola capace di colpire le nostre zone più profonde ed ecco che diventa secondario il fatto che a generare quelle parole sia un bot, che non ha la minima idea delle emozioni di fondo. Con il passare del tempo dimentichiamo che dietro l’AI c’è un principio statistico, una scelta possibile tra le parole più idonee. In pratica, dimentichiamo che abbiamo a che fare con qualcosa di artificiale.
Non vi è alcun dubbio sull’aiuto che l’AI può dare in una ricerca, o in una riflessione statisticamente plausibile sulla conclusione di un articolo. Ma ben altra cosa è farla diventare il nostro terapeuta. L’AI fornisce risposte così attentamente selezionate da dare davvero l’illusione di essere compresi e, talvolta, propone anche battute o frasi che lasciano pensare di aver trovato finalmente un rapporto empatico. Ed è proprio questo che fa scattare la dipendenza: la dipendenza da un modello che ormai è unico per noi, che ha appreso ciò che vogliamo sentire, che ci gratifica, e a cui sarà difficile rinunciare. Come descritto, il rischio è quello di vivere un vero e proprio lutto.
Il contatto con la realtà, dopo un lutto, è complesso, ma il nostro cervello riesce a trovare una nuova ragione d’essere. Lo fa con i cari in carne e ossa, e lo farà anche con l’AI. Resta però il fatto che questa dipendenza aiuta gli esperti a comprendere come, nell’epoca dei social, il problema della solitudine e della ricerca di relazioni significative sia tutt’altro che risolto”.


