Nel 1981 Alberto Camerini compone quella che sarebbe stata una delle più iconiche canzoni dance degli anni ‘80: “Rock’n’roll Robot”, prefigurando uno scenario non tanto differente dall’epoca contemporanea.
Nella sua canzone, farcita di sonorità elettroniche e linguaggio mutuato dall’informatica (che in quel periodo faceva capolino nelle case degli italiani insieme ai primi personal computer), raccontava di un robot efficientissimo che sapeva fare tutto, era simpatico e talmente accattivante da suonare persino la chitarra in un gruppo rock.
Fantascienza? Burla? Critica all’avanzare del mondo moderno, dove i device sarebbero diventati sempre più pervasivi? Preveggenza?
Probabilmente un mix di tutte queste cose, in fondo oggi sperimentiamo la quotidianità dell’uso delle AI per lavoro o svago e mi viene da credere che il nostro mondo non sia poi così diverso dal simpatico e accattivante Arlecchino robot, che ha le risposte a tutte le nostre domande, lavora al posto nostro e soprattutto non ci contraddice mai.
Ma siamo sicuri di averne realmente bisogno? Siamo sicuri che ci faccia bene non avere un contraddittorio?
Ormai affidiamo alle più svariate app che utilizzano l’intelligenza artificiale i più disparati compiti e, sempre più spesso, gli chiediamo di valutare qualcosa per noi, ritenendo il loro giudizio più attendibile di qualsiasi essere umano, perché privo di emozioni e condizionamenti.
Siamo sicuri che l’AI sia imparziale e la sua valutazione attendibile al 100%?
Se pensate che sia così, sappiate che esistono studi ed evidenze scientifiche che smentiscono questa teoria.
Scopri il nuovo numero: “AI Sycophancy”
Si scrive “AI Sycophancy”, si legge compiacimento. Queste macchine accarezzano sempre più il nostro (stupido) ego. Stiamo costruendo un mondo a nostra immagine e somiglianza. E non va affatto bene.
Si chiama “digital sycophancy” (letteralmente: “servilismo digitale”), è il fenomeno per cui LLM (Large Language Model), modelli linguistici incentrati sulla comprensione e sull’analisi del testo, si comportano come adulatori automatici, approvando tutto ciò che diciamo, assecondando le nostre opinioni (anche se errate) e conseguentemente rafforzando i nostri bias cognitivi, ma, ovviamente, non lo fanno per piaggeria, ma perché addestrati a essere “utili”, “gentili” e soprattutto “non conflittuali”.
Simile al digital sycophancy è il “glazing” che si manifesta con l’adulazione esagerata, spesso grottesca, delle osservazioni degli utenti ed in cui il modello attribuisce eccessiva competenza, talento o profondità all’interlocutore, anche in assenza di elementi concreti ed anche se la domanda è piuttosto banale, alimentando a dismisura le nostre echo chamber, già abbastanza nutrite da algoritmi compiacenti.
Qualcuno potrebbe dirsi che in fondo non ci sarebbe nulla di male dal farci coccolare dall’AI ed aumentare la nostra autostima, messa alla prova da un mondo troppo competitivo e come dargli torto, se il rischio non fosse che ci stiamo abituando a non avere contraddittorio, a non avere qualcuno che ci dica che non la pensa come noi e che non ci dia sempre ragione, ci stiamo abituando ad un mondo in cui il dubbio non è contemplato, perché supportato dalla certezza della tecnologia.
Eppure, la nostra evoluzione si è basata spesso su conflitti da risolvere, mettendo in atto la grande arte della mediazione dove, per forza di cose, abbiamo dovuto necessariamente tener da conto l’opinione degli altri.
L’uso esagerato delle AI e l’eccessiva fiducia nelle risposte che riceviamo senza confutarle rischia di alimentare assolutismi e di facilitare la diffusione di disinformazione, mentre assistiamo allo scomparire di pluralismo e alternative, producendo una silenziosa distopia in cui non riusciamo più a distinguere il reale dal costruito ad arte per compiacerci che potrebbe facilmente essere manipolato a favore dei pochi che detengono questa tecnologia.
Per immaginarci un futuro simile, potremmo attingere ai tanti film e romanzi del genere fantascientifico, ma non ne abbiamo bisogno, perché sta lentamente accadendo e, forse, neanche ce ne stiamo rendendo conto.
Con questo non dobbiamo pensare che l’utilizzo dei tantissimi tool che sfruttano l’intelligenza artificiale sia dannoso, perchè neanche questa visione corrisponderebbe alla verità, visti la facilità e l’aumento vertiginoso della produttività grazie all’enorme potenziale di questa tecnologia, ma auspicarne un utilizzo più consapevole sarebbe senz’altro consigliato, non per altro per mantenere la nostra autenticità di pensiero e la nostra personalità e non perdere il contatto con la realtà.
La sfida del futuro sarà quella di educare questi “specchi” digitali a riflettere non solo i nostri desideri, ma anche la ricchezza, la complessità e, a volte, la scomoda verità del mondo che ci circonda.