Umanesimo digitale? Luci e ombre dell’AI
Grazie all’AI, intelligenza artificiale ( o meglio intelligenze, al plurale), Stefano Boeri, presidente della Triennale di Milano, ha potuto dialogare a lungo nel suo ufficio con l’urbanista Ebenezer Howard, fondatore del movimento delle Città Giardino tra Ottocento e Novecento. Non siamo tra le pagine di un romanzo distopico, ma si tratta di una testimonianza che lo stesso architetto ha portato al Forum Cultura 2024 del Comune di Milano e che ha colpito in modo particolare l’uditorio.
Viviamo in un momento speciale della storia dell’umanità.
L’AI non è più appannaggio esclusivo degli esperti di computer science, ma sta impattando in modo pervasivo su attività professionali, industria e educazione: coinvolge studiosi di ogni disciplina (scienziati sociali, filosofi, sociologi, pedagogisti, giuristi, economisti) e interroga i decisori politici. E’ ormai diventata oggetto di dibattito quotidiano sui media, al punto che con l’arrivo dei sistemi generativi i dati di interesse su Google Trends hanno registrato un’impennata, con apice nel giugno 2023.
Per usare un’espressione di Cesare Rivoltella, accademico e presidente della SIREM (Società Italiana di Ricerca sull’Educazione Mediale), le nostre società vivono una dimensione di “crescente algoritmizzazione”.
Machina sapiens vs homo sapiens?
Ci troviamo all’interno di una rivoluzione che a partire dall’avvento del machine learning nei primi anni Duemila è approdata alla svolta radicale delle più recenti tecniche di deep learning , centrata sulla capacità di estrarre valore e conoscenza dall’analisi di enormi quantità di dati.
Poco più di cinque anni separano l’introduzione dei Transformer (2017)– algoritmi in grado di analizzare rapidamente grandi quantità di testo – dalla nascita di ChatGPT (2023): in questo breve lasso di tempo lo sviluppo è stato impressionante e sono emerse capacità per cui gli stessi ricercatori sono rimasti sorpresi. Più forniamo alle macchine esempi e dati, più emergono capacità nuove e impreviste, e nuove abilità.
Nella storia umana sono stati scritti 120 milioni di libri, di cui circa 30 milioni sono già stati digitalizzati da Google: in futuro le macchine avranno modo di leggere tutto lo scibile umano, cosa che non ha precedenti.
Forse in futuro anche le macchine inizieranno a sviluppare delle capacità mentali fondamentali simili alle nostre e saranno in grado di comprendere il mondo, sia pure a modo loro, si chiede Nello Cristanini, uno dei massimi esperti sul tema, professore di Intelligenza artificiale presso l’Università di Bath.
Il suo recente saggio “Machina sapiens”.(accessibile anche a chi non ha familiarità con la materia) inizia con queste parole:«Non so come funzionino veramente ChatGPT e i suoi molti cugini, non lo sa ancora nessuno. Anche se il meccanismo matematico che li ha creati è abbastanza semplice, la loro intelligenza nasce dall’interazione tra questo meccanismo e una quantità straordinaria di testi, che nessuno ha mai provato a connettere e distillare prima. Il risultato di questo incontro si definisce ‘modello del linguaggio’, ma sarebbe meglio chiamarlo ‘modello del mondo’, le cui abilità sono ancora inesplorate e inspiegate»[1]
Cristianini non si limita a descrivere i progressi compiuti nel campo dell’AI, ma pone molti interrogativi: Riuscirà l’uomo a tenere sotto controllo la machina sapiens, o rischia che lo sviluppo autonomo, spontaneo e potenzialmente inarrestabile gli sfugga di mano? Corriamo davvero il pericolo di rimanere intrappolati nella bolla informativa creata dagli algoritmi e di restarne preda? Quali compiti resteranno monopolio degli esseri umani e quali, invece, verranno svolti, magari in modo migliore, dalle macchine?
Riusciremo a favorire uno sviluppo responsabile dell’AI a beneficio dell’umanità?
Invita a riflettere anche sulle conseguenze sociali ed etiche di questa tecnologia e apprezza che parlamenti, governi e autorità spirituali del mondo se ne stiano occupando. Sollecitare i principali attori dell’innovazione tecnologica a un impegno etico preciso e pubblico costituisce, infatti, un servizio alla difesa e alla promozione di un nuovo umanesimo, in cui a una intelligenza artificiale corrisponda un’umanità creativa, capace di orientarne l’utilizzo con autenticità emotiva e empatia.
Se non vogliamo correre il rischio di farci trovare impreparati, il momento di studiare le conseguenze culturali, sociali e giuridiche dello sviluppo di queste macchine, i rischi associati all’AI -come la disoccupazione di massa e la perdita di controllo sui sistemi intelligenti -, è ora.
Guardrail etici e normativi
“L’intelligenza artificiale è uno strumento affascinante e tremendo”: con questo incipit capace di riassumere le speranze e i timori diffusi nei confronti dell’AI Papa Francesco ha aperto il suo intervento straordinario al G7 nel giugno scorso. E il Santo Padre è tornato sul tema nell’Enciclica Dilexit nos: “nell’era dell’intelligenza artificiale, non possiamo dimenticare che per salvare l’umano sono necessari la poesia e l’amore”; nessun algoritmo potrà mai custodire le immagini e i ricordi intimi dell’infanzia.
Non sfuggono le potenzialità incredibili dell’AI, che da un lato possono facilitare e accelerare in maniera straordinaria la ricerca, salvare vite e prevenire problemi, ma che possono essere utilizzate anche in modo rischioso e distruttivo.
Un’analisi delle potenzialità delle applicazioni dell’AI in diversi settori, come le scienze biomediche e biotecnologiche e il trasporto, consente di percepire un alto livello di fiducia riguardo ai potenziali benefici.
Gli algoritmi stanno rivoluzionando, infatti, il modo in cui vengono scoperti, progettati e sviluppati i farmaci. In campo diagnostico e prognostico, i sistemi dotati di intelligenza artificiale incrociano storie cliniche dei pazienti con tutti i dati raccolti e sono in grado di interpretarli secondo regole ben precise. Grazie a sensori assai sensibili le nuove protesi in stampa 3D possono restituire le funzioni originarie a arti compromessi da incidenti o patologie.
Nel campo dei trasporti sono già stati realizzati e testati jet a guida autonoma basati sull’AI e attraverso la tecnologia avanzata dei satelliti, dei droni e dei sensori viene effettuato anche il monitoraggio delle foreste pluviali, al fine di individuare risposte sul declino della biodiversità e trovare soluzioni per fermarlo,..
E’ sotto i nostri occhi, però, come strumenti tecnologici sofisticati non siano utilizzati soltanto al servizio delle persone in tempo di pace, ma siano stati sviluppati anche per affrontare e gestire i conflitti in modo inedito: basti pensare ai “droni kamikaze”, droni da attacco intelligenti che trasportano testate ad alto esplosivo potenzialmente in grado di distruggere carri armati e altri veicoli corazzati, all’uso del riconoscimento facciale nell’ambito delle attività di intelligence e agli strumenti di gestione della propaganda.
L’AI generativa, che lavora immagini e testo senza stancarsi mai, se offre al settore dell’audiovisivo il vantaggio di generare in pochi secondi prodotti multimediali attraverso l’analisi di migliaia di sceneggiature, trame, dialoghi e personaggi, può però diventare un’arma, un’arma linguistica che fa narrazione, non immune da fake news e voci contraffatte.
Ci vuole pertanto una grande avvertenza e uno sforzo globale per monitorare e governare l’intelligenza artificiale, senza che questo significhi inibire la potenzialità dello strumento. Non si può prescindere da un’etica che ne valuti i rischi, ne limiti l’uso negativo e incoraggi quello positivo attraverso regole condivise.
“La dignità umana e i diritti umani ci dicono che è l’uomo da proteggere nella relazione tra uomo e macchina”[2] Questo è l’obiettivo che si è proposto l’Onu nel recentissimo Rapporto “Governing AI for humanity”, cercando di favorire un nuovo dialogo sull’intelligenza artificiale a livello politico, in modo che gli Stati membri possano discutere dei pericoli e concordare le azioni da intraprendere in vista di una futura regolamentazione.
Un passo significativo per promuovere un’antropologia digitale è venuto anche dall’appello Rome Call for AI Ethics per una algoretica che regoli l’intelligenza artificiale. La forza di questo documento – sottoscritto da player tecnologici internazionali, da istituzioni e Atenei, da aziende e da privati, nonché dai rappresentanti delle tre religioni abramitiche – consiste nel proporre un approccio etico universalistico all’AI e nell’essere sostenuto sia da ambienti laici che religiosi.
Il documento promuove sei principi etici che servono da matrice per la messa a terra dei ‘guardrail etici’, come li definisce il teologo Paolo Benanti, consulente di Papa Francesco per l’AI: promuovere l’etica degli algoritmi o algoretica, ovvero lo sviluppo etico dell’AI, è fondamentale per mantenere la giusta direzione, specialmente quando le macchine algoritmiche operano autonomamente. L’obiettivo è quello di prevenire l’insorgere di una algocrazia, ovvero il dominio degli algoritmi sulla società, e dare corso a un futuro in cui l’innovazione digitale e il progresso tecnologico siano al servizio dell’ingegno e della creatività umana, preservando e rispettando al tempo stesso la dignità di ogni singolo individuo e del nostro pianeta. Un’AI senza regole potrebbe effettuare scelte sbagliate o distorte, compromettere dati personali o influenzare decisioni di consumo e votazioni.
I principi etici definiti in base a questo approccio etico universalistico sono:
- trasparenza: facilitare la comprensione dell’AI per tutti;
- inclusione: garantire la non discriminazione;
- responsabilità: assicurare che l’AI rispetti le proprie funzioni;
- imparzialità: evitare che l’AI influenzi indebitamente il giudizio umano;
- affidabilità;
- sicurezza e privacy: proteggere la sfera personale
Lo scorso marzo, inoltre, il Parlamento europeo ha concluso l’approvazione dell’AI Act, affermando così la sensibilità culturale del diritto europeo nei confronti del processo di regolamentazione dell’AI.
Giovani e l’AI
Come precisato da Cristianini, in questa storia rivoluzionaria ci sono tre protagonisti: gli scienziati, creatori delle macchine intelligenti, le persone comuni e le macchine stesse. La forza innovatrice e trasformatrice dell’AI non solo trasforma i sistemi sociali e l’economia globale, ma influenza sempre di più anche gli stili di vita e la sfera privata delle persone, in ragione della facilità d’uso senza precedenti dei processi di automazione. Questo vale soprattutto per i giovani.
Per il mondo dell’educazione è di sicuro interesse cercare di capire come l’AI sia percepita dai giovani europei e riflettere sulle implicazioni educative emergenti dalle loro dichiarazioni. Lo ha fatto l’Osservatorio Giovani dell’Istituto Toniolo attraverso un questionario somministrato a migliaia di giovani di età compresa tra i 18 e i 34 anni che risiedono in Italia, Francia, Germania, Spagna e Regno Unito.
L’indagine ha messo al centro dell’analisi la percezione dei giovani utenti e esplorato il loro livello di conoscenza riguardo a una varietà di tecnologie digitali tra cui blockchain, realtà aumentata, realtà virtuale, NFT digitali, criptovalute, metaverso e avatar, con particolare attenzione all’AI.
Blockchain e NFT risultano meno familiari e più meritevoli della preoccupazione degli utenti, spaventati dalle possibilità di abuso nella sorveglianza delle persone, dai rischi legati alla perdita della privacy e alla sorveglianza sul posto di lavoro, da spionaggio e gestione irresponsabile dei dati privati. AI e realtà virtuale sono, invece, le più conosciute.
L’Italia risulta la nazione dove i giovani hanno un livello di conoscenza dell’AI più basso tra quelli intervistati (solo il 64%). Due terzi dei giovani europei (66,43%) dichiara di conoscere l’AI, anche se appare difficile misurare che cosa significhi questa affermazione, che potenzialmente corrisponde a livelli di conoscenza molto diversi. Questa percentuale registra delle differenze di genere (in prevalenza maschi), rispetto al titolo di studio e al reddito, mentre sono meno significative le differenze relative alla variante dell’area geografica dei rispondenti.
La ricerca conferma, inoltre, l’ipotesi di un ‘ottimismo informato’, o addirittura ‘cecità al rischio’, da parte di chi dichiara un livello di conoscenza (almeno percepita) delle tecnologie più elevato: questa platea è più incline a vedere le opportunità offerte dall’AI, piuttosto che i rischi.
Rispetto all’uso, l’indagine rileva che il 27,23% dei giovani europei usa regolarmente o abbastanza regolarmente ChatGPT, il 26,76% l’ha provato, mentre il restante 46,01% ne ha solo sentito parlare.
I valori di uso di-modelli generativi di immagini sono di molto inferiori: usano Dall-E l’8,22% dei giovani, Midjourney il 7,92%, Stable Diffusion il 7,14% Tra chi non usa queste tecnologie prevale nettamente l’affermazione di disinteresse a provarle.
Il rapporto è stato pubblicato come e-book da Vita e Pensiero con il titolo “Intelligenza artificiale: rischi e opportunità” e è scaricabile gratuitamente.
[1] N. CRISTANINI, Machina sapiens. L’algoritmo che ci ha rubato il segreto della conoscenza, Il Mulino, 2024
[2] M. CAMISANI CALZOLARI, Cyberumanesimo. Intelligenza artificiale, democrazie a rischio, etica e lavoro rubato dai robot. Come tenere sempre l’uomo al centro, Il Solo 24 Ore Edizioni, 2024
Rita Bramante Già Dirigente scolastica, membro del Comitato Nazionale per l’apprendimento pratico della Musica