AI Act: l’Europa punta tutto sull’Intelligenza Artificiale

Condividi:

Con sempre maggior frequenza abbiamo parlato e raccontato nei mesi scorsi dell’incredibile sviluppo che – soprattutto nell’ultimo anno – le Intelligenze Artificiali stanno affrontando, la loro “espansione internazionale” e i pericoli da affrontare. Abbiamo narrato, in particolare, sia di ChatGPT e del trend che ha creato negli ultimi mesi e di Nvidia, azienda californiana che ha raggiunto un valore di 1.000 miliardi grazie alle AI. Sembrava tutto procedere alla velocità della luce; tutto tranne il punto di vista giuridico, che lasciava ancora molte domande sull’avanzata delle intelligenze artificiali nella quotidianità. Domande da (probabilmente) accantonare, perché il 14 giugno il Parlamento Europeo ha approvato il cosiddetto AI Act, la prima regolamentazione giuridica sull’AI al mondo.

 

AI Act: sviluppo più che limitazione delle intelligenze artificiali

Le applicazioni di Intelligenza Artificiale influenzano oramai qualsiasi informazione che riscontriamo nel mondo mediatico. Esse prevedono i contenuti interessanti per l’utente (nei social network), acquisiscono e analizzano i dati per far rispettare le leggi negli stati o, addirittura, vengono utilizzate per diagnosticare e curare malattie come il cancro. In altre parole, l’intelligenza artificiale è già ben radicata nelle nostre vite e influenza già molte parti di essa. Una regolamentazione giuridica, quindi, assume un carattere del tutto primario, accolto e sviluppato “in tempo record” dall’Unione Europea con il cosiddetto AI Act.

Come affermato dallo stesso sito della legge, l’Artificial Intelligence Act (comunemente chiamato AI Act) è una proposta di legge europea sull’intelligenza artificiale, il primo pacchetto giuridico sull’AI da parte di uno dei principali regolatori politici mondiali, l’UE. Sulla scia del regolamento generale sulla protezione dei dati (GDPR) del 2018, l’EU AI Act potrebbe divenire uno standard globale, determinando “fino a che punto l’AI ha un effetto positivo piuttosto che negativo sulla tua vita ovunque tu sia”, come affermato dal sito della legge.

Secondo la burocrazia europea, all’approvazione del Parlamento Europeo (avvenuta con 499 voti a favore, 28 contrari e 93 astensioni) seguirà l’emanazione definitiva da parte dell’UE, la quale dovrebbe arrivare entro fine anno. Si presume, quindi, che il regolamento potrebbe entrare definitivamente in vigore entro il 2024-2025. Ricordiamo, infatti, che i membri del Parlamento avranno l’obbligo di discutere i dettagli con il Consiglio dell’Unione europea e la Commissione europea prima che il progetto di norme diventi vera e propria legislazione.

 

In cosa consiste la legge?

Il “meeting” del Parlamento europeo che ha portato all’emanazione del progetto è stato assolutamente chiaro: i sistemi di AI utilizzati nell’Unione Europea devono essere sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente; “I sistemi di intelligenza artificiale”, si legge dal sito dell’UE, “dovrebbero essere supervisionati dalle persone, piuttosto che dall’automazione, per prevenire esiti dannosi”.

In particolare, le nuove regole stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio derivante dall’intelligenza artificiale. AI Act stabilisce perciò tre “categorie di rischio”, dalla più alta alla più bassa. Con “rischio inaccettabile”, i sistemi AI sono considerati una minaccia per le persone e saranno vietati. Tra questi possiamo sottolineare come principale il cosiddetto “punteggio sociale”, come classificazione delle persone in base al comportamento sulla scia del modello cinese del credito sociale. Seconda categoria, saranno i sistemi ad “alto rischio”, i quali incidono negativamente sulla sicurezza o sui diritti fondamentali e che dovranno essere obbligatoriamente valutati prima di essere immessi sul mercato e anche durante il ciclo di vita. Infine, terza e ultima categoria, è quella che contiene i sistemi a “rischio limitato”: essi dovranno in particolare rispettare requisiti minimi di trasparenza che consentirebbero agli utenti di prendere decisioni informate (tra questi ci sarebbe anche il celebre ChatGPT).

 

I rischi

Non potevamo non parlare del futuro; e soprattutto dei rischi della normativa, sottolineati tuttavia già dal sito della legge stessa. Secondo quest’ultimo, infatti, ci sono “diverse scappatoie ed eccezioni nella proposta di legge”, che andrebbero a limitare la capacità della norma di rimanere una “forza positiva” durante la quotidianità. In particolare, un aspetto vogliamo sottolineare, forse l’elemento più rischioso per il futuro. Così com’è stata proposta, la legge AI Act è inflessibile: se, per esempio, tra qualche anno un’applicazione AI pericolosa verrà utilizzata per un settore nuovo e imprevisto, l’attuale normativa non prevede alcun meccanismo per identificarla come “ad alto rischio”.

Le parole sono una cosa; la realtà dei fatti è, spesso, tutt’altra. In passato i social network – o Internet in generale – dovevano essere semplicemente una nicchia per pochi. Oggi “invadono” senza scrupoli le nostre vite e, soprattutto, abbiamo accettato senza alcuna opposizione l’introduzione estrema di algoritmi a modifica delle nostre preferenze. Già oggi i danni sono molti (revenge porn, balcanizzazione mediatica, cyberbullismo e quello che viene brutalmente definito “pensiero unico”); lo sviluppo delle Intelligenze Artificiali rischia, perciò, di velocizzare e ampliare molte delle problematiche che non riusciamo a prevedere o che ancora sminuiamo.

Arienti Stefano

Arienti Stefano

Scopri altri articoli