Apocalittici e integrati dell’era dell’AI: e se avessimo solo paura?

0
1042
Apocalittici e integrati dell’era dell’AI: e se avessimo solo paura?

In un saggio del 1964, il filosofo Umberto Eco, coniò l’espressione “apocalittici e integrati”. Una fortunata terminologia che era destinata ad entrare nei libri universitari e non solo. Ancora oggi, a distanza di quasi sessant’anni, il binomio viene rispolverato ogni qual volta si crea un’importante frattura nell’opinione pubblica.

Gli apocalittici e integrati di Umberto Eco

Nel celeberrimo saggio, (considerato un po’ come un Testo Sacro da coloro che si occupano di comunicazione, sociologia e filosofia), lo scrittore analizza il tema delle comunicazioni di massa come motivo di nascita della cultura di massa.

Definisce come apocalittici coloro che sono critici ed hanno un atteggiamento aristocratico nei confronti della cultura di massa, mentre appella come integrati chi ha una visione ottimistica dello sviluppo dell’industria culturale.

L’opera è organizzata in vari argomenti, quelli che lo studioso considera principali fonti di riflessioni, dal cattivo gusto per chi ama ciò che viene spacciato per arte e cultura, all’omologazione dei prodotti culturali, alle influenze del mercato sulla produzione artistica. Gli apocalittici sono coloro che ritengono che i mass media producono un senso del gusto medio, non originale, dovuto ad un’omologazione culturale per un pubblico acritico e inconscio, che segue un conformismo di valori; gli integrati sono coloro che, invece, hanno letto nello sviluppo dei nuovi mezzi di comunicazione, la possibilità di avvicinare la cultura a classi sociali prima escluse, che ha diffuso opere culturali a basso prezzo senza per questo ledere l’arte.

Oggi siamo ancora apocalittici e integrati?

“L’autore non pensava di dire nulla di nuovo, bensì di fare il punto su di un dibattito ormai maturo” si legge nell’introduzione del libro di Umberto Eco.

Allo stesso modo, ovviamente non sullo stesso piano del Maestro, ci chiediamo se la definizione possa essere applicata all’età odierna. La risposta è senza dubbio positiva: non ci troviamo forse di fronte a chi auspica e chi frena l’utilizzo dell’intelligenza artificiale?

Ogni rivoluzione culturale porta con sé una naturale contrapposizione tra conservatori e progressisti, e le domande, che anche su questo tema l’opinione pubblica si pone, sono molteplici.

L’apocalittico vede nella novità la minaccia, rifiutando di fatto ogni cambiamento epocale, l’integrato vi legge positività in quanto rappresentazione di un allargamento dei confini.

Il dibattito sull’intelligenza artificiale

“Le democrazie sono fragili di fronte ai domini tecnologici” ha sottolineato il presidente della Repubblica, Sergio Mattarella.

Di fronte all’evoluzione e all’applicazione dell’AI le discussioni, le remore ma anche l’entusiasmo si alternano, creando una confusione generalizzata.

I dubbi più frequenti riguardano la possibilità che un algoritmo possa sostituire la mente umana, se una macchina possa effettivamente comprendere i bisogni umani, e se riuscirà a sottrarre lavoro (soprattutto nell’ambito produttivo) all’uomo.

Scopri il nuovo numero: “Il Futuro è aperto 2023”

Il futuro è aperto per chi sa vivere il presente e per chi decide chi essere non nei prossimi 5 anni, ma nei prossimi 5 minuti.

I nativi digitali sono tra coloro che guardano all’intelligenza artificiale con maggiore positività, le fasce più deboli della popolazione, invece, temono lo sviluppo, soprattutto nel campo lavorativo.

“L’innovazione in particolare spaventa i più deboli” spiega Giorgio De Rita, segretario generale CENSIS, “spaventa il tema dell’occupazione e della tutela personale. Le donne e i più giovani che abitano nelle città più piccole hanno più difficoltà ad accettare”.

Il timore circa l’applicazione dell’AI persiste, nonostante ormai sia impiegato positivamente in molti campi (ad esempio la medicina diagnostica), e sia già tra noi, più di quanto sembri. La maggiore diffidenza, probabilmente, riguarda l’utilizzo malevole che può farne l’essere umano: la responsabilità è di chi costruisce e programma la macchina, ciò che conta, quindi, è pur sempre il lavoro intellettuale umano.

D’altra parte, non è salutare per l’opinione pubblica ignorare le paure dell’uomo: proprio per questo l’European Parliamentary Research Service ha curato la produzione del documento “Should we fear artificial intelligence?” , nel quale viene riportato il dibattito tenutosi presso il Parlamento Europeo tra varie figure professionali appartenenti a diverse discipline.

La paura spiegata dalla filosofia

Il filosofo contemporaneo Umberto Galimberti definisce la paura come “un’emozione primaria di difesa provocata da una situazione di pericolo che può essere reale, anticipata dalla previsione, evocata dal ricordo o prodotta dalla fantasia”.

Già Aristotele, prima di lui, aveva legato il sentimento della paura più alla previsione che al manifestarsi del pericolo.

Ed è questa, probabilmente, la chiave di lettura nell’analisi delle posizioni rispetto all’intelligenza artificiale. Luciano Floridi, professore di filosofia presso l’Università di Oxford, sottolinea che si dovrebbe mettere fine ai luoghi comuni, perché l’AI non realizzerà scenari catastrofici del tipo film di Hollywood, «questo modo di rappresentare l’Intelligenza Artificiale non aiuta di certo a favorire la transizione che stiamo vivendo. Si narrano scenari apocalittici in cui l’umanità sarà distrutta dalle macchine per distrarre la collettività dai problemi seri che ci sono e ci saranno con l’incremento massiccio delle tecnologie. Abbiamo paura dell’incerto e questo è molto grave. Ad esempio, nel settore della sanità potremmo già oggi fare cose molto buone con sistemi di Intelligenza Artificiale che consentirebbero di ridurre sofferenza umana. Ma non le mettiamo in atto. Questa è una cosa gravissima che va addebitata alla politica e ai media»

Hai letto fino qui? Allora questi contenuti devono essere davvero interessanti!

Iscriviti per restare in contatto con Smart Marketing. Senza perderti nulla!

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.