×
Chi siamo
Progetti
Chi siamo
Progetti

AI Act, l'Europa e la regolamentazione dell'intelligenza artificiale

AI Act, l'Europa e la regolamentazione dell'intelligenza artificiale

Terzo evento del ciclo di incontri "Humane Intelligence. Trasformare l’Intelligenza Artificiale in una Tecnologia Positiva"

Un articolo di Francesco Berlucchi

 

Il quotidiano La Repubblica l’ha definita recentemente «la persona più influente in Europa nell'ambito dell'intelligenza artificiale». È una donna, è italiana, ed è un’alumna dell’Università Cattolica, laureata in Scienze politiche a Milano. Lucilla Sioli, direttrice per “Intelligenza artificiale e Industria digitale” all’interno della Direzione generale Connect, ossia delle Reti di comunicazione, dei contenuti e delle tecnologie della Commissione Europea, ha condotto i lavori sull’AI Act, sotto la guida politica del commissario Thierry Breton.

L’AI Act e’ il primo corpus di regole al mondo sull'intelligenza artificiale e sul suo utilizzo. «Da un lato stiamo parlando di una tecnologia estremamente utile, considerando il suo potenziale nei settori della salute, dei trasporti e del manifatturiero» spiega Sioli, durante il terzo appuntamento del ciclo “Humane intelligence. Trasformare l’Intelligenza Artificiale in una tecnologia positiva” promosso dallo Humane Technology Lab (HTLab), il Laboratorio dell’Università Cattolica che esplora il rapporto tra esperienza umana e tecnologia. 

«Dall’altro lato questa tecnologia è una scatola nera, basa il proprio comportamento su calcoli probabilistici, rendendo difficile prevedere le sue predizioni» prosegue Sioli. «Oltretutto, l'intelligenza artificiale utilizza dati che provengono dalla nostra esperienza umana, perciò il rischio di violare i diritti fondamentali dell’uomo è reale. È quindi necessario assicurarsi che la tecnologia venga progettata e allenata in modo da minimizzare questo tipo di rischi». Nell’incontro “AI Act: la via europea per la regolamentazione dell'intelligenza artificiale”, Sioli spiega che «scrivere questo quadro regolamentare è stato molto complicato» perché «ci sono tensioni tra la difesa dei nostri diritti e la possibilità di avere sempre a disposizione delle tecnologie innovative». Proprio quelle che l’Europa deve «saper sviluppare e utilizzare», sostiene Sioli, per non dipendere da tecnologie che provengono da altre parti del mondo. 

L’esempio, ça va sans dire, è ChatGPT. «Pensiamo all’AI generativa» racconta. «È stata creata negli Stati Uniti sulla base di dati che molto spesso provengono da quel contesto. Se noi europei non siamo in grado di sviluppare modelli simili, dipenderemo da quelli forniti da altri. Con tutti i rischi che ne conseguono, sia dal punto di vista dei dati sia da quello culturale». Non a caso Daniele Bellasio, vicedirettore de Il Sole24Ore, fa notare che «l’intelligenza artificiale si basa su otto modelli di linguaggio, sei dei quali sono statunitensi. Se parliamo solo di intelligenza artificiale generativa, gli investimenti nel 2024 sono pari a circa 37 miliardi di dollari. E quasi un terzo di questo mercato è americano».

Uno dei rischi è che il primato europeo in termini di tutela dei diritti possa portare gli investimenti verso «mercati meno regolamentati, come la Cina ma anche gli stessi Stati Uniti» commenta Bellasio. «La speranza è che i governi dei Paesi europei trovino il modo di investire e di aiutare le aziende in questo settore, in modo che l’Europa possa affiancare al primato nella regolamentazione anche una leadership in termini di ricerca e sviluppo». Sioli ha spiegato che per questa ragione l’Europa cofinanzia con gli stati membri una rete pubblica di supercomputer, come Leonardo a Bologna, per favorire l’allenamento dei grossi modelli di intelligenza artificiale da parte delle startup europee e della comunità scientifica del Vecchio Continente.

«L’etimologia di ciberspazio deriva dal greco κυβερ, timone. E quindi chi è al timone, e dove si sta dirigendo la nave?» si chiede allora Gabriele Della Morte, professore di Diritto Internazionale ed esperto di Diritto dell’Intelligenza artificiale. «Nathan Roscoe Pound, preside della Facoltà di Giurisprudenza di Harward, nel 1923 scriveva nel saggio Introduction to Legal History una frase fulminante: “Il diritto deve essere stabile ma non può essere immobile”». Della Morte allude alla tensione tra «il movimento che l’ordinamento deve fare per adeguarsi alle istanze mutevoli della società» e il suo «bisogno di rigidità», che consente «la certezza del diritto». Si tratta di «un gioco acrobatico a cui da sempre è sottoposto il giurista, una difficile prova di acrobazia che diventa esasperata quando il diritto si confronta con le tecnologie».

La soluzione, come spesso accade nel mondo del diritto, sta nel bilanciamento tra gli interessi. «Bisogna guardare favorevolmente all’innovazione» spiega Lucilla Sioli. «Abbiamo basato l’AI Act sul concetto di rischio. Le regole sono commisurate al livello di rischio che l’intelligenza artificiale può generare. E questo livello dipende dal contesto in cui la tecnologia viene utilizzata». L’approccio legislativo è quello che il cittadino europeo ben conosce, perché viene già utilizzato in relazione alla sicurezza dei prodotti commercializzati all'interno dell'Unione Europea. Stiamo parlando del marchio CE, che attesta che il prodotto rispetti i requisiti previsti dal legislatore in materia di sicurezza, di salute e di tutela dell'ambiente. 

«Ci sono casi in cui l’Unione Europea non tollera l’uso dell’intelligenza artificiale» prosegue Sioli. «Un esempio è il credito sociale. Poi ci sono i rischi elevati, come quelli che attengono alle applicazioni per assumere le persone o ai dispositivi medici. Queste applicazioni devono essere certificate prima di essere immesse sul mercato europeo». E ancora, ci sono i rischi legati alla trasparenza. «Pensiamo a un chatbot: dovrebbe far capire molto chiaramente all’utente che sta interagendo con una macchina; oppure, nel caso di un deepfake, dovrebbe essere contrassegnato per evitare la diffusione di disinformazione». Il pensiero, in questo momento, non può non correre all’utilizzo durante le campagne elettorali, come è stato ricordato durante il primo evento di questo ciclo di incontri

«Sono passati pochi mesi tra l’arrivo di strumenti come i chatbot alla portata più o meno di tutti e l’approvazione di questa regolamentazione europea» chiosa Bellasio. «Questo primato non deriva dal fatto che la struttura diretta da Lucilla Sioli ci abbia messo poco tempo a scrivere una legge su una materia così complessa, ma è il frutto di anni di lavoro di questa struttura europea che ha studiato come regolamentare l’intelligenza artificiale mentre le grandi multinazionali del settore la stavano sviluppando. Poi c’è sicuramente il vantaggio di avere i modelli a cui attingere, in Europa, per regolamentare anche questo settore, come l’utilizzo del marchio CE ma anche la regolamentazione della tutela della privacy».

Di certo, siamo di fronte a una rivoluzione. «Rivoluzione è la parola ricorrente, nella letteratura scientifica, nell’ambito dell’intelligenza artificiale» racconta il professor Della Morte. «Gli orientamenti sono due. C’è chi pensa che abbiamo già tutti gli strumenti per adeguare le vecchie categorie giuridiche ai nuovi problemi. Io penso che, al contrario, la trasformazione digitale sia autenticamente rivoluzionaria, perché impatta sulle categorie attraverso le quali noi interpretiamo il mondo e la fenomenologia giuridica, che sono lo spazio e il tempo». Secondo Della Morte, poi, cercando di «antropomorfizzare l’intelligenza artificiale» si mascherano i problemi, ma restano sul fondo due grandi questioni: «come regolare queste innovazioni e che cosa regolare nel concreto».

«La scelta adottata dall’AI Act è molto felice» commenta Antonella Sciarrone Alibrandi, giudice della Corte Costituzionale, già Sottosegretario del Dicastero per la Cultura e l’Educazione della Santa Sede, intervenuta durante l’incontro. «Al di là del primato europeo, è virtuosa proprio per la netta distinzione tra i sistemi di intelligenza artificiale che sono potenzialmente lesivi dei diritti fondamentali e, dall’altro lato, tutte quelle applicazioni che riguardano settori, come quello bancario-finanziario, in cui non c’è un impatto sui diritti fondamentali».

Lo si è ben visto anche analizzando molti utilizzi della tecnologia in ambito aziendale, durante il secondo incontro di questo ciclo. Usi già frequentissimi. «Come direttore dello Humane Technology Lab sono molto felice del successo di questo trittico di eventi» conclude Giuseppe Riva. «Penso che l’intelligenza artificiale sia un tema cruciale. Il nostro obiettivo è proseguire nell’esplorazione dei temi più avanzati in questo settore. Per questo dopo l’estate partirà un ciclo di eventi tutto nuovo». 

L'intervista è pubblicata su Secondo Tempo.

scroll-top-icon