C’è una nuova tendenza tra i giovani: confidarsi con l’intelligenza artificiale. Secondo un’indagine di Skuola.net su 2.000 ragazzi tra gli 11 e i 25 anni, il 15% di loro utilizza quotidianamente chatbot come ChatGPT, Replika o Youper per sfogarsi, cercare consigli o semplicemente sentirsi ascoltati.
Estendendo la platea a coloro che hanno un rapporto almeno settimanale con l’AI in funzione di amico-psicologo, quel 15% sale al 25% del totale. Tradotto: una persona su quattro.
E, come si suol dire, c’era da aspettarselo. Vediamo qualche numero.
In questi due anni e mezzo, ossia da quando ChatGPT è comparso nelle nostre vite, l’IA Generativa ha avuto uno sviluppo, una progressione ed una pervasività pazzesca. Basti pensare che parlando solo di ChatGPT, si contano oltre 800 milioni di utenti attivi, ossia il 10% della popolazione mondiale.
Secondo una ricerca condotta nel 2024 da TGM Research per conto di NoPlagio.it, quasi due studenti italiani su tre (65%), tra i 16 e i 18 anni, utilizza ChatGPT e strumenti simili per fare i compiti e scrivere saggi.
Un recente studio globale realizzato da Newsweek ha messo in evidenza che 8 giovani su 10 appartenenti alla Generazione Z (i nati tra la fine degli anni ’90 e i primi anni 2010) hanno sperimentato la solitudine nell’ultimo anno. E oltre un terzo ha dichiarato di sentirsi “spesso” o “regolarmente” solo, con il 15% che ammette di avvertire costantemente un senso di solitudine.
Quindi i giovani sono grandi utilizzatori di Generative AI, ossia uno strumento che oltre ad essere un aiuto per fare i compiti fornisce risposte praticamente su tutto, e si sentono soli.
Il passo è breve.
I giovani possono liberamente accedere a modelli linguistici avanzati in grado di ascoltarli(?), capirli(?) e dare consigli(?). Il tutto, senza essere giudicati, senza esporsi in famiglia o con gli amici. Nella totale riservatezza(?) della propria cameretta e del proprio smartphone.
Ma, c’è un MA.
L’intelligenza artificiale sembra che faccia tutte quelle cose, ma le simula. Non possiede emozioni né una comprensione autentica delle esperienze umane. Ciò che offre è, appunto, una simulazione basata su pattern linguistici e dati preesistenti. Attribuirgli qualità umane, ci può portare a sviluppare un attaccamento emotivo verso qualcosa che, in realtà, non può ricambiare. In nessun caso.
È facile, oggi, scivolare nell’illusione di avere sempre qualcuno pronto ad ascoltarci. E se quel qualcuno non è una persona, poco importa: basta che risponda, con gentilezza e coerenza, ai nostri sfoghi. Magari anche assecondandoci e dandoci sempre ragione.
Ma, come detto, un algoritmo non può davvero comprenderci.
Il rischio, come ci racconta il film Her (del 2013!!!), non è solo quello di affezionarsi a una voce artificiale, ma di sostituire le relazioni vere con quelle simulate. Perché sono più semplici, più controllabili, meno dolorose. Ma anche, inevitabilmente, non vere.
L’IA può essere uno strumento utile, certo. Può affiancare, supportare, aiutare. Ma non può rimpiazzare le relazioni umane. Non è il suo compito (ricordiamoci che parliamo di macchine!). Le relazioni hanno bisogno di sguardi, di tempo dedicato, di attenzioni. Anche quelle con dei professionisti, come gli psicologici o i coach, a seconda delle proprie necessità.
Sono queste ultime – le relazioni umane – quelle in cui ci si sente davvero visti, davvero ascoltati. Quelle in cui, alla fine, ci si sente meno soli.
Ricordiamocelo.