Oggi siamo sempre più vicini a un’intelligenza artificiale (AI) in grado di assumere iniziative, portare avanti uno scopo e fornire soluzioni in ambito lavorativo, medico e sociale. Molti esperti, coadiuvati da sociologi ed economisti, si riunirono nel 2014 per stabilire delle regole e per orientarsi nel campo dell’intelligenza artificiale. Il risultato fu la nascita del Future of Life Institute, questo il nome del “patto” firmato da molti magnati della new technology, tra i quali Elon Musk e Stephen Hawking. A dieci anni da quelle firme, una serie di iniziative di confronto hanno dato il via al biodiritto. I temi trattati? Bioetica e neuro-scienze.
«Che ne è del diritto mentre la tecnica s’impossessa del nascere e morire umano?». La domanda posta da Natalino Irti, avvocato e membro dell’Accademia dei Lincei, nel libro “Il diritto nell’età della tecnica”, conduce direttamente al cuore del problema.
Il giurista che tratta questioni inerenti all’AI non può fare a meno di confrontarsi con tutte le figure professionali. L’intelligenza artificiale è una materia necessariamente interdisciplinare. Nel 2017, ad Asilomar (California), si è arrivati a una carta comune “Asilomar AI Principles” che stabilisce il principio fondante che: l’AI deve essere “benefica” e non priva di controllo. La questione etica su quest’ultima definizione però sembra impattare con lo sviluppo tecnologico stesso. Anche perché «Quella delle macchine non sembra essere una marcia trionfale allaconquista del Pianeta», spiega Douglas Heaven, editore della rivista MIT Review (Massachussets Institute of Technology).
Il passato e il presente della robotica sono costellati da piccole difficoltà quotidiane che i robot faticano a superare. «Per capire qual è il futuro degli automi con intelligenza artificiale, dobbiamo seguirli proprio in queste difficoltà», continua Heaven.
Fu lo stesso Galileo per primo a capire quanto la meccanica possa essere una scienza esatta per la quale i risultati del progresso tecnologico sono animati soltanto da solidi principi. I computer e gli automi, sono sempre più intelligenti, ma più accresce la loro capacità “cognitiva” più cresce la necessità di garanzie sul loro comportamento.
Varcare confini non ancora scoperti del mondo dell’AI sarà il passo successivo verso il futuro, ma che può anche nascondere un pericolo reale se non adeguatamente normato.
Elio Nello Meucci – Redattore