L’intelligenza artificiale e la sua applicazione in vari ambiti della vita sociale, economica e politica dell’uomo comporta una riflessione seria, per le forti implicazioni etico e morali che il progresso tecnologico porta inevitabilmente con sé, ed è pertanto, necessario dare una risposta la più rapida ed efficace possibile.
In passato l’uomo è sempre stato al centro del mondo e protagonista della sua storia. Oggi, invece, stiamo assistendo ad uno spostamento di prospettiva che va verso un nuovo sistema di cose, nella quale l’intelligenza artificiale è posta in primo piano per le sue potenziali e innumerevoli capacità di potersi adattare all’utilizzo in svariati ambiti, fino a ieri prerogativa della sola persona umana.
Questa sua notevole capacità è ancor più ampliata dal fatto che l’intelligenza artificiale attraverso un processo di autoapprendimento evolutivo, è in grado di raggiungere risultati tali, ad oggi inimmaginabili.
In questo contesto dinamico, anche il modo e le forme con cui l’essere umano interagirà con il mondo è destinato a cambiare, e così il suo ruolo centrale.
L’uomo dovrà imparare a gestire le trasformazioni e le evoluzioni generate dall’intelligenza artificiale cogliendone le sfide, senza però cedere alcunché sotto il profilo di una limitazione della dignità e autodeterminazione propria dell’uomo.
Di certo il progresso tecnologico non può arrestarsi, ma l’essere umano ne deve diventare una parte necessaria, in modo da sfruttare tutti i vantaggi che ne derivano e limitare al minimo i rischi.
Questo è l’indirizzo della Commissione Europea che pone l’accento sull’importanza nel definire delle regole, delle linee giuda per arrivare ad un governo unitario dell’intelligenza artificiale, un piano antropocentrico che assicuri come a valle di ogni decisioni presa dalla macchina ci sia sempre la super visione dell’essere umano, il quale dovrà in ultima analisi spiegare le ragioni e le riflessioni che sono alla base delle scelte adottate. L’obiettivo è trovare un equilibrio tra protezione dati (privacy) e diritti dell’essere umano, al fine della salvaguardia della dignità e delle libertà della persona.
Con la traslazione dal mondo reale al mondo virtuale, si parla di transumanesimo digitale, cioè un corpo e una mente “aumentati e potenziati” dall’uso dell’intelligenza artificiale, che superi i limiti dati dalla condizione umana, fino ad affermare che il nostro cervello nelle sue funzioni biologiche non avrebbe bisogno più del corpo. È, invece, fondamentale e indispensabile riconoscere la libertà e la decisone umana come essenziali, ed evitare di umanizzare la macchina fino a far “rendere artificiale” l’uomo.
Assume quindi, fondamentale importanza il valore della sostenibilità, che tenga conto delle esigenze dei cittadini e delle imprese e rispetti l’insieme dei principi e valori etici posti a tutela dell’individuo, al fine di raggiungere l’obiettivo di una digitalizzazione etica e sostenibile. È necessario sviluppare un modello di etica digitale che consideri l’etica come un elemento congenito del processo produttivo dei servizi posti a servizio dell’essere umano, soprattutto se basati ad esempio sull’intelligenza artificiale. L’etica digitale è un sistema di valori e principi morali legati alle interazioni tra imprese, persone e cose.
Lo sviluppo di soluzioni e servizi eticamente digitali deve essere improntato a quello che potrebbe essere definito come principio di etica by design e by default, principio in base al quale un determinato servizio deve essere preliminarmente valutato sotto il profilo etico, sin dalla progettazione – concetti già noti con riferimento alla data protection.
La dimensione e i principi etici devono, pertanto, guidare le scelte sull’utilizzo dei dati personali, mettendo in atto un approccio etico ai trattamenti che svolgono mediante l’impiego di algoritmi d’IA, senza mai tralasciare un’analisi preventiva ed un monitoraggio costante di tipo etico.
Un efficace modello di etica digitale deve tenere in considerazione nella sua costituzione della trasparenza del percorso di digitalizzazione, ciò al fine di rendere i servizi a supporto dell’uomo affidabili, con elevati standard di qualità e sicurezza, efficienti ed idonei a garantire il rispetto dei diritti, della dignità, della libertà, della sicurezza e della privacy delle persone.
L’obiettivo è una cultura collettiva, orientata al digitale, etica, trasparente, affidabile, responsabile, sicura e sostenibile.
Tale cultura richiede di definire le regole per valutare l’eticità dell’IA e renderla coerente con i principi etici, che devono riflettere tanto le norme di rango primario e secondario, che i valori, le norme sociali e i comportamenti della collettività, in coerenza con le Linee Guida etiche della Commissione europea sull’IA affidabile.
Le problematiche inerenti al modello di digitalizzazione eticamente sostenibile comporta inevitabilmente un ragionamento sul piano del forte legame esistente tra diritto, giustizia ed algoritmo, la domanda legittima è chiedersi, come possano essere efficacemente contemperati il diritto, la macchina, l’agire umano e i principi etici.
La diffusione di tecnologie caratterizzate dall’impiego di sistemi di IA, alla cui base vi sono algoritmi progettati per replicare il comportamento e la capacità di apprendimento umani, ha aperto, infatti, un dibattito etico, sociale e giuridico.
Ci si domanda se una macchina guidata da algoritmi può comportarsi in modo etico, oppure se ci si può fidare dell’intelligenza artificiale. Tutto questo, perché le potenzialità che derivano dall’impiego di tali tecnologie sono inimmaginabili, così come i rischi derivanti dal suo utilizzo, che giustificano, in una certa misura, la diffidenza con cui il legislatore e il regolatore si sono finora posti rispetto all’impiego di tali strumenti.
I risultati prodotti dall’IA dipendono dalla progettazione degli algoritmi e dai dati attraverso i quali questi ultimi vengono addestrati. L’utilizzo, in fase di progettazione, di dati non sufficientemente rappresentativi potrebbe compromettere l’attendibilità dei risultati, a causa di assunzioni errate nel processo di apprendimento automatico.
Le criticità sul versante della protezione dei dati personali e l’impossibilità di stabilire a priori le finalità del trattamento sono accentuati dal fatto che la macchina, nel corso del processo di apprendimento, è in grado di evolvere in modo non sempre prevedibile le proprie condotte e, quindi, di discostarsi dalle finalità in principio stabilite.
Le considerazioni che precedono portano ad una constatazione di carattere etico: la macchina non può sostituirsi all’agire umano. L’IA non deve risolversi in una delega in bianco in favore dell’algoritmo, tale da neutralizzare i giudizi, anche di valore, che sono propri esclusivamente dell’uomo.
Infatti, la Commissione europea intende fornire regole comuni per lanciare i nuovi prodotti e servizi sul mercato Europeo, in un contesto di fiducia da parte dei cittadini dell’Unione. L’obiettivo è di assicurare che i sistemi di IA immessi sul mercato siano sicuri ed etici e, secondo un approccio basato sul rischio, rispettino la normativa vigente in materia di diritti fondamentali dell’individuo e di valori dell’Unione e siano di contrasto alla c.d. opacità dell’algoritmo.
L’AI Act riconosce proprio nella sorveglianza umana il punto di equilibrio tra i rischi intrinseci di tali tecnologie e la perdita di opportunità in termini di crescita e benessere sociale, che il loro utilizzo invece comporta.
In questo scenario, si sente – sia a livello europeo che nazionale – la necessità dell’intervento della trasparenza, quale soluzione al nodo dell’opacità tecnologica dell’algoritmo dell’IA.
La trasparenza è vista come l’unico elemento che possa consentire la realizzazione di soluzione tecnologiche in grado di creare fiducia e benessere sociale.
Ecco come, nel modello di etica digitale si innestano i principi di trasparenza e conoscibilità algoritmica, strumenti di governance posti a tutela dei diritti fondamentali degli individui, a garanzia della data protection e data security.
Fabio Lazzini – Autore del saggio “Etica digitale e Intelligenza artificiale. I rischi per la protezione dei dati”, edito da Giappichelli