Ogni rivoluzione industriale, ogni innovazione tecnologica ha messo in discussione il fattore umano. Talvolta ciò ha comportato la scomparsa di figure professionali, in altri casi abbiamo assistito a evoluzioni e sostituzioni. Ne abbiamo parlato con Alessio Butti, sottosegretario con delega all’innovazione tecnologica.
Sottosegretario, a lei la presidente Meloni ha affidato il delicatissimo dipartimento per l’innovazione tecnologica. Per questo le chiediamo: con l’intelligenza artificiale cambia tutto? È una rivoluzione industriale in qualche modo… a parte?
Sì, perché questa volta non stiamo solo automatizzando una macchina o un processo fisico, ma una parte dei compiti cognitivi, cioè attività di analisi, scrittura, pianificazione, assistenza decisionale. Questo rende la trasformazione più trasversale e più veloce con un impatto su imprese, pubbliche amministrazioni, lavoro e informazione. Per questo dobbiamo gestirla, non subirla, con responsabilità e investimenti.
Palazzo Chigi in concreto cosa ha fatto per governare questo processo?
Abbiamo lavorato su due piani. Il primo è europeo e, diciamolo subito, l’AI Act è una legge, non una lista di buone intenzioni. In quella fase negoziale l’Italia ha sostenuto con forza un’impostazione che non lasciasse la tutela dei cittadini a codici di condotta dei privati come volevano altri Paesi. Chiedevano esenzioni e limiti mancati rispetto degli stessi. Sul piano nazionale abbiamo costruito un quadro coerente con l’AI Act. E devo dire che la nostra impostazione sta generando interesse in molti Paesi. Una cosa che svoltiamo e che abbiamo previsto è un aggiornamento biennale della strategia, perché la tecnologia evolve in fretta e dobbiamo avere strumenti in grado di anticipare il futuro.
Qualche esempio di limiti imposti?
Molto semplici: ci sono “linee rosse” che non si possono superare, perché toccano diritti e libertà. L’AI Act vieta pratiche considerate inaccettabili, come certe forme di manipolazione e sfruttamento delle vulnerabilità, l’uso di social scoring e specifiche applicazioni che portano a sorveglianza o controllo sociale incompatibili con i valori europei. Insomma: per gli usi “ad alto rischio” prevediamo requisiti stringenti su gestione del rischio, qualità dei dati e supervisione umana.
E sui deepfake?
Il deepfake è una tecnica per la sintesi dell’immagine umana fondata sull’intelligenza artificiale, usata per combinare e sovrapporre immagini e video esistenti con video o immagini originali con una tecnica di apprendimento automatico. Se un contenuto è generato o manipolato dall’IA, il cittadino deve poterlo riconoscere. Se ne sta occupando anche l’Ue. Grazie alla nostra legge sulla IA, in Italia diffondere un deepfake realistico senza consenso è reato e punisce la persona. È una delle norme più incisive in Europa.
Certo, l’IA può portare enormi vantaggi, come la state sfruttando?
I vantaggi sono enormi in diversi ambiti. L’IA ha una capacità incredibile, quando ben guidata dall’uomo, di ridurre tempi, errori e sprechi, aiutare chi lavora a fare meglio e più in fretta, migliorare servizi pubblici e competitività. In sanità, ad esempio, stiamo sperimentando già su problemi molto concreti come le liste d’attesa: nel progetto Regalia investiamo 20 milioni su analisi di dati, previsione della domanda e gestione più efficiente delle agende delle strutture sanitarie. È solo un esempio, ma qualsiasi settore, dalla difesa all’industria, può trarre vantaggio dall’IA. Tutto sta nel saper governare e indirizzare.
E quindi nel mercato del lavoro cosa accade?
Insieme agli esperti del Dipartimento dell’innovazione, leggiamo con attenzione tutti gli studi e ce ne sono di ogni tipo, da quelli che danno una visione idilliaca a quelli più allarmisti. L’IA avrà maggiore impatto nelle attività ripetitive e standardizzabili. Per questo alcune mansioni di back office e comparazione in ambito immobiliare o servizi finanziari possono cambiare rapidamente. Al contrario, resteranno centrali competenze come responsabilità, relazione, negoziazione complessa, presenza sul territorio. Ma qui l’idea di fondo è che nella maggior parte dei casi non vedremo sparire un mestiere, ma cambiare il contenuto del lavoro. In questo senso, vince chi integra IA, non chi la subisce.
In concreto cosa state facendo per prevenire un’impennata della disoccupazione?
Stiamo agendo su diverse leve, tutte molto pratiche. La prima è evitare l’adozione non vigilata in Far West. Nella legge italiana è previsto un Osservatorio sull’adozione di sistemi di IA nel mondo del lavoro e il ministro Calderone ha pubblicato pochi giorni fa il primo documento sul tema. Lavoriamo anche per far crescere la domanda di competenze: serve formazione continua e riqualificazione, perché dobbiamo accompagnare lo spostamento del mondo del lavoro, non rincorrerlo. Abbiamo anche previsto un programma di investimenti a favore di startup e pmi da 1 miliardo, per far nascere lavoro nuovo dove l’innovazione produce valore.
Nasceranno anche nuove professioni per gestire l’IA?
Certo. Saranno fondamentali le professionalità legate al controllo dell’IA, alla sua governance, gestione dei rischi, qualità dei dati e compliance. Il timbro umano resta la nostra garanzia per il futuro.
Rischiamo un cortocircuito se comprime i consumi e distrugge la classe media?
Il rischio esiste, ma non condivido la visione catastrofista. L’obiettivo è governare la nuova tecnologia come stiamo facendo, con formazione e innovazione. Rimanere indietro non è un’opzione. Chi non investe in competenze, formazione e innovazione vedrà intere categorie professionali sostituite o marginalizzate, con aumento drammatico della disoccupazione tecnologica. Non adottare l’IA oggi significa subirla domani.




