Intelligenza artificiale: prospettive e rischi nell’era digitale

L’analisi di un alto magistrato, che è anche un intellettuale, delle implicazioni, sociali, culturali, umane, giudiziarie, del fenomeno dell’intelligenza artificiale. C’è la necessità di regolamentare, anche in Italia, l’uso dell’intelligenza artificiale, soprattutto con riferimento a scuole ed Università, posto che esse debbono accrescere negli studenti le capacità di discernimento critico ed offrire loro le basi per l’utilizzo in modo etico di qualsivoglia strumento tecnologico. Come l’IA entrò in un tribunale dieci anni fa nel Wisconsin e determinò la condanna di un cittadino ( caso Loomis)

Luciano Floridi, uno studioso italiano noto in tutto il mondo, docente di filosofia ed etica nell’Università di Oxford, nonché di sociologia della comunicazione presso l’Università di Bologna, qualche anno fa, nel 2013, ha coniato un neologismo – ONLIFE: questa la nuova parola – per rappresentare la nuova condizione umana nell’era del digitale.

È paragonabile alla società delle mangrovie – sostiene Floridi. Le mangrovie sono piante che vivono in acqua salmastra, quella dove l’acqua dei fiumi e quella del mare si incontrano. Un ambiente incomprensibile se lo si guarda con l’ottica dell’acqua dolce o dell’acqua salata. Ecco: “ONLIFE” è questo, la nuova esistenza nella quale la barriera fra reale e virtuale è caduta, non c’è più differenza fra “online” e “offline”, ma c’è appunto una “onlife”: la nostra esistenza, divenuta ibrida come l’habitat delle mangrovie”.

Viviamo in un’epoca ed in una società in cui, grazie all’intelligenza artificiale, i social sono divenuti particolarmente pervasivi. Scegliamo l’albergo, la musica da ascoltare, il vestito da comprare o il film da guardare in base ai consigli di un algoritmo, e ciò determina una costante erosione dell’autonomia individuale. Non che ieri non vi fossero condizionamenti, ma certo non erano pesanti come quelli di oggi, perché non avevamo mezzi di comunicazione così penetranti, quali quelli mossi da un’intelligenza artificiale.

Oltre mezzo secolo fa, nel 1968, Stanley Kubrick, il grande regista americano scomparso, girò un film che ha, in un certo senso, segnato la storia del cinema, rappresentando un punto fermo nella filmografia del secolo scorso (e non solo): “2001 Odissea nello spazio”. Vi si narra, fra l’altro, di una navicella spaziale in viaggio verso Giove. A bordo viaggiano gli astronauti, ma a governarla è un computer ritenuto infallibile (della serie Hal 9000) il quale, però, ad un certo punto, forse per un guasto, si ribella al Comandante dell’astronave, che prova inutilmente a ripararlo. Essendo divenuto un pericolo, il computer viene disattivato, ma l’astronave, senza più la sua guida, si perde negli spazi siderali.

 

 

 

Una visione, quella di Kubrick, in un certo senso profetica su quello che è diventato oggi il ricorso all’intelligenza artificiale. Sulla sua importanza, ma anche sui suoi rischi.

Sono di questi giorni le riflessioni – ed anche le polemiche – su ChatGPT, lo strumento di intelligenza artificiale definito “conversazionale”, perché elabora il linguaggio naturale, utilizzando algoritmi di apprendimento automatico per generare risposte più o meno simili a quelle umane. A causa dei timori per l’apprendimento che ha determinato (o si pensa possa determinare) è stato vietato nelle scuole pubbliche di New York e Los Angeles e nelle otto principali università australiane.

Da qui, evidentemente, la necessità di regolamentare, anche in Italia, l’uso dell’intelligenza artificiale, soprattutto con riferimento a scuole ed Università, posto che esse debbono accrescere negli studenti le capacità di discernimento critico ed offrire loro le basi per l’utilizzo in modo etico di qualsivoglia strumento tecnologico. Anche perché – come ha osservato (forse brutalmente) il grande linguista Noam Chomsky – “ChatGPT è fondamentalmente un forma di plagio high-tech” che finisce con l’eludere l’apprendimento. La conseguenza può essere quella di un sistema educativo che non stimola più gli studenti, non li spinge ad impegnarsi, a sforzarsi di ragionare, di pensare; e se ciò accade, se cioè il sistema educativo “non interroga i giovani sulle grandi questioni e dunque non li fa crescere”, allora – conclude Chomsky – “rischierà di perderli”.

Per non parlare, poi, dei problemi – e dei rischi – legati ai c.d. “social” di più facile accesso, di cui oggi non riusciamo a fare a meno e che, forse senza che neppure ce ne accorgiamo, condizionano pesantemente la nostra vita. Perché sovente sono loro, i social, a dettare legge, come acutamente osservato da Floridi; tanto che può persino accadere che la Presidente del Consiglio si spinga a comunicare, attraverso un post su FB, la fine della propria liaison affettiva col suo compagno di vita. Cosa impensabile sino a qualche anno fa.

L’intelligenza artificiale impatta notevolmente anche sul mondo della Giustizia, come emerge, non solo dai positivi risultati prodotti dal processo civile telematico, ma da tutta una serie di studi nei quali si evidenzia come il ricorso all’informatica costituisca una straordinaria opportunità per dare alla giustizia un nuovo approccio ed un nuovo slancio; con l’avvertenza, tuttavia, che opportunità non equivale necessariamente a buon uso, talché si richiedono, anche qui, competenza, prudenza, responsabilità e professionalità.

Negli Stati Uniti – che storicamente costituiscono il Paese antesignano nello sviluppo delle tecnologie – è sempre più frequente il ricorso agli strumenti informatici nel campo della pubblica sicurezza e dell’amministrazione della Giustizia. Non sempre con esiti positivi tuttavia, come, per esempio, nel caso Loomis.

Eric Loomis, nel febbraio del 2013 venne fermato dalla Polizia mentre, alla guida di  un’automobile, venne a trovarsi nel mezzo di una sparatoria nel Wisconsin.

Arrestato con l’accusa di non essersi fermato all’ALT dei gendarmi e sottoposto a processo penale, è stato condannato ad una lunga pena detentiva (sei anni) perché giudicato “ad alto rischio di ripetizione del crimine” grazie non ad una valutazione del Giudice, ma a quella di un algoritmo frutto di un software in uso negli uffici giudiziari americani e messo a punto, peraltro, non dall’amministrazione della giustizia, ma da un’azienda privata. Non basta. La Corte suprema del Wisconsin ha rigettato il ricorso di Loomis – che lamentava la violazione dei suoi diritti di imputato – nonostante qualcuno abbia avanzato seri dubbi che l’algoritmo utilizzato contenesse una sorta di discriminazione verso i neri.

 

 

 

Ma l’uso dell’informatica ed il ricorso a tecniche predittive  sta cambiando anche il modo di operare degli sceriffi e della Polizia, dal momento che accade sempre più spesso che gli investigatori si facciano dire dai computer i luoghi in cui è più elevata la percentuale di commissione dei crimini, così da predisporre una sorveglianza più efficace; sicché può accadere che un giovane di 18 anni, solo per essere stato notato sostare per lungo tempo all’interno di un’auto, in un luogo che il computer ha qualificato come “predective hot spot”, ossia particolarmente a rischio quale possibile teatro di un crimine, venga fermato e malmenato brutalmente per non aver dato una soddisfacente spiegazione circa la sua presenza in quel luogo.

Qualcuno ricorderà “Minority report”, il film di Steven Spielberg tratto da una novella di Philip K. Dick, in cui grazie proprio al ricorso a tecniche predittive rese possibili dal sistema informatico “precrimine”, la polizia veniva posta in grado di arrestare i colpevoli ancor prima che commettessero dei crimini. Sappiamo come poi va a finire: anche quel sistema poteva essere manipolato dal potere, per cui, alla fine del film, viene messo da parte.

Il processo tecnologico certamente non può essere fermato, sicché ben venga l’ausilio degli strumenti più avanzati e sofisticati. Ma per quanto tali essi possano essere, non potranno mai sostituirsi al cervello dell’uomo, la “macchina” più sofisticata che esista. Mi paiono giuste, pertanto, allo stato degli atti, le proteste degli avvocati americani e delle associazioni per i diritti civili, che contestano l’ambizione dell’Amministrazione della Giustizia di impedire il crimine ricorrendo all’intelligenza artificiale, percependo che essa costituisce causa di indebolimento dei diritti degli imputati.

Meglio, allora, il buon vecchio giudice, purché abbia la piena consapevolezza che il suo è pur sempre il potere di un uomo che decide su un altro uomo e che, proprio per questo, richiede di essere esercitato col massimo rigore, con grande professionalità e con l’umiltà di riconoscere che quella che viene fuori dal processo è pur sempre una verità, appunto, processuale, che può anche non coincidere con la verità assoluta, umanamente irraggiungibile.

Ma sui rischi dell’intelligenza artificiale si è soffermato anche Papa Francesco con un importante messaggio, in occasione della 57^  Giornata mondiale della Pace. “Dobbiamo ricordare – ha affermato il Papa – che la ricerca scientifica e le innovazioni tecnologiche non sono disincarnate dalla realtà e «neutrali», ma soggette alle influenze culturali. In quanto attività pienamente umane, le direzioni che prendono riflettono scelte condizionate dai valori personali, sociali e culturali di ogni epoca”.

Non si può presumere, da parte di chi progetta algoritmi e tecnologie digitali, un impegno ad agire in modo etico e responsabile. Da qui la necessità – ha detto ancora Papa Francesco – di “rafforzare o, se necessario, istituire organismi incaricati di esaminare le questioni etiche emergenti e di tutelare i diritti di quanti utilizzano forme di intelligenza artificiale o ne sono influenzati. L’immensa espansione della tecnologia deve quindi essere accompagnata da un’adeguata formazione alla responsabilità per il suo sviluppo. … A tale proposito, esorto la Comunità delle nazioni a lavorare unita al fine di adottare un trattato internazionale vincolante, che regoli lo sviluppo e l’uso dell’intelligenza artificiale nelle sue molteplici forme”.

Di fronte a tali manifestate perplessità, alla sempre più elevata pervasività dei social, appare necessario garantire al cittadino la libertà di scegliere e, dunque, di essere se stesso. Importante, sotto tale profilo, la regolamentazione giuridica, segnatamente quella del diritto civile, il quale incide sulla nostra vita oltre la nostra immaginazione e che, alla stregua di quanto previsto dalla nostra Costituzione, consente la tutela dei più deboli rispetto alle prevaricazioni dei più forti.

Ma altrettanto importante è che della propria umanità, della propria individualità, della propria libertà sia consapevole lo stesso cittadino, allo stesso modo di quanto rappresentato in un’opera letteraria fondamentale, quale “Il barone rampante” di Italo Calvino.

Il romanzo, scritto nel 1957, è infatti la storia di un uomo che, scegliendo di vivere fra gli alberi e rimanendo fedele a questa scelta sino alla morte, realizza la sua pienezza di vita, trova un modo anticonvenzionale ma straordinariamente felice di vivere la propria vita, rifiutando le convenzioni sociali. Cosimo – il protagonista – opta per la piena libertà, per una sorta di apoteosi dell’essere se stessi, per cui vivere fra gli alberi diventa metafora del perseguire e difendere la propria individualità, del non accettare schemi precostituiti o socialmente imposti.

“Il barone rampante” non è – si badi bene – un’apologia della vita eremitica. Al contrario, Cosimo – il barone – coltiva un’esistenza ricca di relazioni, intesse anche una storia d’amore con Viola, sua vicina di casa. La sua scelta di vivere sugli alberi non sta a significare assenza o rifiuto delle leggi, ma instaurazione di norme nuove, attinenti alla sua visione del mondo, a cui egli si attiene con diligenza per tutta la vita.

Solo essendo così spietatamente se stesso, come fu fino alla morte, poteva dare qualcosa a tutti gli uomini” – scrive Calvino.

Con quest’opera lo scrittore (di cui si è celebrato il centenario dalla nascita) ci insegna a “scegliere di scegliere”, a non accettare passivamente, a ribellarci anche, per avere uno stile di vita libero da condizionamenti.

Quegli stessi condizionamenti che, come ci ricorda il filosofo Floridi, hanno trasformato la nostra vita da on-line ad onlife e rispetto alla quale siamo chiamati, tutti, a mettere in campo degli anticorpi adeguati.

 

Roberto TanisiMagistrato – Già presidente del Tribunale e della Corte d’Appello di Lecce

Le scelte di papa Francesco: né da vivo né da morto

Ha suscitato non poca meraviglia, e qualche interrogativo, la scelta di papa Francesco del luogo dove stabilire la sua tomba. Read more

Una riflessione sul Natale. E sulla lotta tra il Bene e il Male

Solo una riflessione sulle due metà del mondo che abitiamo. Due facce di una sola società civile tentano, invano, di Read more

Intelligenza artificiale e identità umana: una visione etica

L’intelligenza artificiale e la sua applicazione in vari ambiti della vita sociale, economica e politica dell’uomo comporta una riflessione seria, Read more

Intelligenza artificiale e Gemello Digitale: vantaggi, potenzialità, rischi. Ne discutono uno scienziato e un antropologo

Nella serata del 14 gennaio presso il Caffè letterario Neritonensis di Nardò si è tenuto un importante seminario su: Al Read more

Tags: , , , ,
Articolo successivo
“Se le donne abbassassero le braccia, il cielo cadrebbe”
Articolo precedente
Almanacchi e lunari: la grande ombra di Leopardi chiede lumi sull’Italia

Menu