
L’intelligenza artificiale è un ossimoro
Intervista a Luciano Floridi, Presidente Fondazione Leonardo
A cura di Alice Avila, Unità Relazioni e Comunicazione -ENEA
Luciano Floridi è uno dei maggiori esperti di rivoluzione digitale: oltre 300 le sue pubblicazioni, tradotte in molte lingue, sulla filosofia dell’informazione, l’etica dell’intelligenza artificiale e la filosofia della tecnologia. Fondatore e direttore del Digital Ethics Center di Yale, ordinario di Sociologia della cultura e della comunicazione all’università di Bologna, è dal gennaio 2025 presidente della Fondazione Leonardo. Lo abbiamo intervistato sui risvolti professionali, normativi, etici e sociali dell’uso dell’intelligenza artificiale.
Professore, Lei ha dichiarato recentemente, nel corso della presentazione della Fondazione Leonardo alla Camera dei Deputati: “L'intelligenza artificiale non esiste. Esistono straordinarie, potentissime tecnologie che, nelle mani di un’intelligenza umana capace, potranno fare delle cose straordinarie. Altrimenti finisce male”. A che cosa si riferisce quando parla di “cose straordinarie”? Nel campo energetico, per esempio?
Quando parlo di “cose straordinarie”, mi riferisco al potenziale che queste tecnologie hanno nell’analizzare e risolvere problemi complessi e migliorare la nostra qualità di vita e l’ambiente. Nel campo energetico, ad esempio, possono fornirci analisi dettagliate, prevedere consumi, simulare scenari alternativi e di rischio, su tutta la catena della produzione e del consumo energetico. Questa è la parte analitica.
Poi, per la parte operativa, possono aiutarci a implementare processi di ottimizzazione delle reti di distribuzione, ridurre gli sprechi, migliorare il recupero e accelerare la transizione verso fonti rinnovabili. Ma tutto questo accade solo se c’è un’intelligenza umana che le guida con competenza e lungimiranza progettuale.
È necessario, quindi, uno sforzo collettivo di intelligenza per disegnare e gestire le trasformazioni tecnologiche, come lei ha scritto nel suo libro “Etica dell’intelligenza artificiale”. Che ruolo ha in questo senso la formazione – scientifica e non solo – delle nuove generazioni e delle nuove generazioni di ricercatori?
La formazione è cruciale. Non lo dico da professore, o da presidente, ma da cittadino ed essere umano. Non solo la formazione scientifica, o nell’ambito delle STEM, che fornisce gli strumenti intellettuali e tecnici per comprendere e sviluppare le tecnologie, ma anche quella umanistica, che aiuta a riflettere sugli impatti etici e sociali e sulla “governance”. Insieme, possono permettere comprensione e gestione del presente e disegno del futuro. Dobbiamo educare le nuove generazioni a essere non solo utenti consapevoli, ma anche progettisti responsabili, capaci di vedere oltre il puro tecnicismo sterile o la vuota chiacchiera culturale. La cultura scientifica e quella umanistica sono due lati della stessa medaglia, sono l’intelletto umano al suo meglio.
Ma l’intelligenza artificiale è davvero intelligente? Non è già un ossimoro l’espressione “intelligenza artificiale”?
No, non lo è. Come ho ricordato nell’inaugurazione alla Camera dei Deputati, l’espressione “intelligenza artificiale” è effettivamente un ossimoro. Queste tecnologie non sono intelligenti, in nessun senso ragionevole del termine, che include anche l’uso che ne facciamo per dire che un cane o un gatto sono più o meno intelligenti: non comprendono, non hanno coscienza né intenzionalità. Si tratta di sistemi avanzati di calcolo, capaci di elaborare dati in modo estremamente potente, ma l’intelligenza, quella vera, resta una prerogativa umana. Sono straordinari sistemi sintattici, non semantici.
Per capire la differenza, forse un’analogia è utile: è come se l’AI completasse puzzle enormi, da milioni di tessere, guardandole dal lato “sbagliato”, quello bianco, calcolando solo il loro numero, le loro forme e contorni, e come si incastrano tra di loro. Questa è mera sintassi. Noi invece completiamo gli stessi puzzle guardando al loro colore e al disegno delle tessere e capendone la coerenza con l’immagine finale da completare, usando le stesse tessere ma dal lato “giusto”. Questa è semantica. Se uno ci pensa è per questo che ogni tanto l’AI inserisce perfettamente la tessera sbagliata nel posto sbagliato. Le chiamiamo allucinazioni.
Possiamo sfatare il luogo comune “intelligenza artificiale=meno posti di lavoro”?
La storia ci insegna che le nuove tecnologie trasformano profondamente il mondo del lavoro ma spesso creano più posti di lavoro (domanda) di quanti ne distruggano, anche se in settori diversi. La disoccupazione tecnologica non è generata da mancanza di domanda (posti richiesti), ma dal mancato allineamento tra la nuova domanda e la vecchia offerta (potenziali lavoratori impiegabili). Bisogna migliorare l’offerta. Per questo la formazione è così importante: riallinea l’offerta alla domanda, che è in crescita. La vera sfida è garantire una transizione giusta, con politiche di riqualificazione e formazione per adattarsi ai nuovi scenari.
Piaccia o meno, l’intelligenza artificiale sta sostituendo in molti campi l’apporto umano. Quali sono le sfide etiche da affrontare?
Le due principali sfide etiche riguardano l’umanità e l’ambiente. Da un lato dobbiamo assicurarci che l’IA sia usata per potenziare e sostenere l’umanità, non per renderla superflua, o come un mero mezzo verso un fine che non sia esso stesso umano. Questo implica trasparenza, equità, inclusività e responsabilità, evitando che le decisioni automatizzate incrementino forme di discriminazione o diseguaglianza o ne creino di nuove.
Dall’altro, dobbiamo assicurarci che l’IA sia a servizio della natura, parte della soluzione non del problema, in modo almeno sostenibile all'inizio e poi di crescita, non solo di conservazione. Si può fare, ma servono volontà e lungimiranza gestionale e politica nel senso più ampio dei due termini.
E la regolamentazione quanto è importante? Dal 2 febbraio sono entrate in vigore le prime disposizioni del discusso “AI Act”, la normativa approvata lo scorso anno dall’Unione europea che stabilisce regole dettagliate per lo sviluppo, l’immissione sul mercato e l’uso dell’intelligenza artificiale. Lei cosa ne pensa?
Come ho ricordato alla Camera, ogni civiltà si sviluppa sul binario della formazione dei cittadini, chiamiamola ‘Paideia’, e della regolamentazione della loro vita sociale, chiamiamola ‘Nomos’. Oggi abbiamo un enorme bisogno di entrambi, più del solito, perché stiamo entrando in una civiltà nuova, digitale, dove la vecchia Paideia e il vecchio Nomos sono necessari ma del tutto insufficienti. L’Europa sta colmando bene questo divario, ma c’è ancora molto da fare per assicurarsi che alla nuova architettura di una società digitale corrisponda la giusta architettura di una Paideia corretta e di un Nomos adeguato. È un progetto dai tempi lunghi che, in termini democratici, oggi solo l’Unione Europea può implementare. In ogni altro angolo del mondo mancano o la democrazia o i tempi lunghi.
L’uso dell’intelligenza artificiale nei diversi settori della transizione ecologica può essere utile alla salvezza del pianeta (penso, per esempio, ai dati sugli ecosistemi)?
Assolutamente sì. Ed è forse anche l’unica strategia seria che abbiamo. Non meno tecnologia, ma più tecnologia a servizio dell’ambiente. L’IA può analizzare enormi quantità di dati sugli ecosistemi, monitorare i cambiamenti climatici e ottimizzare le soluzioni per la sostenibilità. Può sostenere la decarbonizzazione e migliorare la gestione delle risorse naturali, contribuendo così alla salvezza del pianeta.
Ma, ancora una volta, tutto dipende da come viene utilizzata. Torniamo all’importanza della politica al suo meglio, che definirei come traduzione del possibile nel preferibile.
Può creare, però, anche fake news ambientali?
Sì, certamente e purtroppo. L’IA può essere usata per diffondere disinformazione, in tutti i campi, anche quello ambientale. Per esempio, simulazioni o dati falsi potrebbero essere disseminati per negare l’emergenza climatica o per alimentare narrazioni ingannevoli, che spostano responsabilità su fonti errate. La lotta contro le fake news richiede vigilanza, trasparenza, buone leggi e una solida educazione digitale. Paideia e Nomos, per tornare alla precedente ricetta.
La comparsa sulla scena di DeepSeek metterà da parte ChatGPT?
Parlerei di complementarità futura e di sfida agli attuali modelli di business. Non credo si tratti di una semplice sostituzione. Ogni tecnologia ha il suo ambito e le sue potenzialità. DeepSeek, come più in generale l’Open Source, potrebbe rappresentare un’evoluzione o una diversificazione rispetto a ChatGPT e le soluzioni “proprietarie”, ma il vero valore sta nell’integrazione e nell’uso intelligente di queste piattaforme e nella buona competizione tra di esse. Qui l’Europa potrebbe giocare un ruolo fondamentale sia nello sviluppo sia nella regolamentazione dell’Open Source.
Per concludere, l’intelligenza artificiale contribuirà alla costruzione di una nuova società, forse migliore, o a una società nel quale l’uomo sarà ai margini?
Potrei cavarmela con un potenzialmente sì, ma non sarei onesto. Direi invece decisamente sì, ma dipende da noi. L’IA è una tecnologia “buona” come tutto il digitale. Non è uno strumento di tortura, per esempio. Non è come la bomba atomica. Come tale, va progettata e utilizzata con intelligenza e saggezza da parte nostra. Se non contribuirà a costruire una società migliore, più equa e sostenibile, se non ci aiuterà a salvare e far prosperare l’ambiente, se non sarà messa al servizio del pianeta e dell’umanità che lo abita, non solo sarà colpa nostra, ma vorrà dire che avremo fatto uno sforzo per distorcerne la natura inizialmente positiva. La scelta è, e resterà per sempre, solo e interamente nostra.