L’intelligenza artificiale non è più un oggetto del futuro: è il presente che plasma le nostre vite, i mercati e la cultura. Eppure, proprio nella sua pervasività, si cela una nuova frontiera di potere – invisibile, diffuso, algoritmico – che esige regole, consapevolezza, e soprattutto un ripensamento del ruolo dell’uomo. Di tutto questo si è discusso al Festival dell’Economia di Trento 2025, nel panel “L’intelligenza artificiale e l’uomo. Etica, tecnologia e responsabilità collettiva”, moderato da Barbara Carfagna (Rai). Un confronto ad alto tasso intellettuale che ha visto dialogare padre Paolo Benanti, Giuliano Noci e Massimo Lapucci (nella foto), e che ha rimesso al centro una parola troppo spesso dimenticata nella corsa all’innovazione: umanità.
È stato Massimo Lapucci, docente, advisor internazionale e figura di riferimento nella riflessione etico-finanziaria globale, a scandire con lucidità e rigore l’urgenza di costruire una governance trasparente e responsabile dell’intelligenza artificiale. Il suo intervento ha puntato il dito contro una tentazione ricorrente: quella di affidarsi alla tecnologia come fosse autonoma, priva di direzione politica o morale. “L’IA è un partner, non un oracolo. Agisce sulla base di scelte fatte da esseri umani e può generare effetti enormi in settori delicatissimi come la finanza, la sanità, l’istruzione. Senza regole, rischia di amplificare distorsioni preesistenti, creando nuovi squilibri sotto la superficie dell’efficienza”.

Lapucci ha riconosciuto nell’AI Act europeo un punto di partenza promettente, ma ha sollecitato un passo ulteriore: “La regolazione non deve essere vista come freno, ma come infrastruttura della libertà. Se ben progettata, l’IA può liberare l’essere umano da funzioni ripetitive, restituendogli tempo per pensare, creare, decidere. Ma tutto dipende da come la governiamo”.
In apertura del panel, padre Paolo Benanti – teologo francescano e membro del Comitato ONU per l’etica dell’IA – ha proposto una visione fortemente umanistica e comunitaria: “La Chiesa oggi non si oppone alla tecnologia. È una piazza aperta, dove si può interrogare il senso dell’innovazione”. Per Benanti, la questione non è tecnologica ma antropologica ed educativa. “Se l’uomo perde la capacità di discernere tra vero e falso, utile e superfluo, umano e inumano, non sarà la macchina a decidere per lui, ma il vuoto. E in quel vuoto cresceranno nuove forme di analfabetismo digitale, dove il potere algoritmico sostituirà la coscienza”. Una riflessione che ha toccato anche il tema della giustizia sociale e del diritto all’informazione, in una società sempre più dipendente da flussi invisibili di dati.
Giuliano Noci, prorettore del Politecnico di Milano e stratega delle politiche pubbliche sull’IA, ha completato il quadro con una visione lucidamente geopolitica. Ha evocato l’immagine della leva leonardesca, capace di amplificare l’agire umano, per descrivere la funzione dell’intelligenza artificiale. Ma ha anche lanciato un monito: “In un mondo dove Cina e Stati Uniti competono con pochi vincoli, l’Europa rischia di applicare solo le regole senza avere più il gioco in mano”. Noci ha dunque proposto un’etica “non declamata ma progettuale”, capace di farsi spazio in una competizione asimmetrica, dove la mancanza di regole altrui può diventare un vantaggio competitivo. “Non si tratta di scegliere tra uomo e macchina, ma di incorporare la macchina nei nostri valori, in modo pragmatico, senza moralismi sterili”.
Il panel di Trento si è concluso con un messaggio forte e trasversale: non esiste innovazione senza responsabilità. L’intelligenza artificiale può potenziare l’essere umano, ma solo se quest’ultimo è pronto a guidarla con saggezza. In caso contrario, sarà l’uomo a piegarsi ai codici, non i codici alla persona. Come ha ricordato Lapucci, “l’IA va progettata come se fosse una leva. Ma prima di usarla, dobbiamo sapere chi vogliamo sollevare – e perché”.
Un invito che non riguarda solo scienziati o legislatori, ma ciascuno di noi: cittadini, lavoratori, genitori, studenti. Perché il futuro digitale è già iniziato, e la sua forma dipenderà dal grado di umanità che sapremo infondergli.