AI Act: cosa prevedono le nuove regole europee
Tempo di lettura: 8 minuti
di Alessandra Pisoni
“La legge europea sull'intelligenza artificiale rappresenta una novità a livello mondiale. Un quadro giuridico unico per lo sviluppo di un'intelligenza artificiale di cui ci si può fidare. Garantendo la sicurezza e i diritti fondamentali delle persone e delle imprese". È così che Ursula von der Leyen si è pronunciata dopo l’approvazione da parte del Parlamento Europeo dell’AI Act (Artificial Intelligence Act). Questa normativa europea, che entrerà in vigore dal maggio 2024, è frutto di un lavoro iniziato nel 2021 e che vede per la prima volta al mondo un’istituzione introdurre dei limiti e delle linee guide per quanto riguarda la produzione e l’utilizzo dell’intelligenza artificiale. La legge è passata con 523 voti a favore, 46 contrari e 49 astenuta e vede l’Unione Europea in prima linea nel regolare uno strumento che ad oggi vede crescere esponenzialmente la sua presenza. Secondo Goldman Sachs Research, entro il 2033 il contributo dell’AI dovrebbe far registrare un aumento del PIL globale pari al 7%, un dato che testimonia in modo evidente il suo impatto sulla crescita economica. Si prevede infatti che il mercato dell’AI raggiungerà un volume pari a 407 miliardi di dollari entro il 2027, registrando una crescita evidente rispetto agli 86,9 miliardi di dollari stimati nel 2022.
È lampante come le possibilità e gli sviluppi dell’AI siano enormi, l’Unione Europea ne è consapevole ed è notevole il tentativo di indirizzare questa crescita in una direzione ben precisa. L’obiettivo di questa normativa è fare in modo che l’Intelligenza artificiale sia sviluppata e utilizzata in modo sicuro, etico e nel rispetto dei diritti fondamentali degli individui. È da qui che viene la classificazione dei sistemi di intelligenza artificiale in base al loro livello di rischio per la sicurezza e diritti: la normativa è infatti molto specifica nel vietare l’utilizzo per fini di polizia predittiva, del social scoring, di riconoscimento delle emozioni in contesti scolastici e lavorativi e dell’ottenimento di immagini facciali per la creazione di banche dati. In questo senso è evidente il focus sulla tutela della privacy. Tuttavia, questa regolamentazione porta con sé delle esclusioni significative, sono infatti esclusi gli usi militari, di difesa e di sicurezza nazionale, così come i progetti di ricerca scientifica e l'uso non professionale. Queste esclusioni potrebbero riflettere la volontà di mantenere flessibilità e autonomia in settori sensibili e specifici.
Oltre l’attenzione al rispetto della sicurezza dei cittadini, l’AI Act, delineando una regolamentazione ampia sull'uso e lo sviluppo dei sistemi di intelligenza artificiale all'interno dell'Unione Europea ma anche a fornitori non europei i cui software vengono utilizzati all’interno dell’UE, porta con sé ulteriori obiettivi. Innanzitutto, si propone di stabilire un mercato unico per l'IA, agevolando la libera circolazione e il riconoscimento dei sistemi conformi alle norme dell'UE. Intende inoltre promuovere la produzione di software, sostenendo l'innovazione, offrendo incentivi, finanziamenti e orientamenti per lo sviluppo di sistemi sicuri ed etici. Promuove infatti la cooperazione e il coordinamento tra Stati membri, istituzioni e parti interessate per garantire un approccio coeso e responsabile allo sviluppo e all'uso dell'IA nell'Unione Europea. L'AI Act favorisce l'innovazione attraverso le regulatory sandbox (ovvero un ambiente controllato e limitato in cui le imprese possono testare nuove tecnologie, prodotti o servizi in condizioni reali, ma sotto la supervisione regolamentare) e semplifica l'adeguamento per le startup e le piccole e medie imprese. Si garantisce trasparenza, con requisiti specifici per chatbot e sistemi di IA generativa, per informare gli utenti sull'interazione con una macchina.
Questo è positivo perché secondo una ricerca di Forbes Advisor il 64% dei proprietari di aziende ritiene che l’AI abbia il potenziale per migliorare le loro interazioni con i clienti e la produttività aziendale. Allo stesso tempo però sono prevalentemente le grandi imprese che hanno degli investimenti in corso riguardo progetti in materia di intelligenza artificiale. I dati che riporta l’Osservatorio Artificial Intelligence della School of Management del Politecnico di Milano fotografa la situazione italiana. In Italia Il 61% delle grandi imprese ha all’attivo, almeno al livello di sperimentazione, un progetto di Intelligenza Artificiale, circa 2 grandi aziende su 3 hanno discusso internamente delle applicazioni delle Generative AI, tra queste 1 su 4 ha avviato una sperimentazione. D’altra parte, si scende al 18% tra le piccole e medie imprese vede al proprio interno progetti che riguardano l’Intelligenza Artificiale, soltanto il 7% delle PMI sta riflettendo su potenziali applicazioni e solo il 2% ha concretamente attivato almeno una sperimentazione. I dati, quindi, chiariscono che degli investimenti sul tema, soprattutto indirizzati al mondo delle PMI, potrebbero portare solo benefici.
A questi obiettivi si accompagna anche l’introduzione di sanzioni, in caso di non conformità, le sanzioni posson arrivare fino a 35 milioni di euro o il 7% del fatturato mondiale annuo dell'impresa colpevole, a seconda di quale sia maggiore.
L'entrata in vigore dell'AI Act è quindi prevista per la fine di maggio 2024, con un'applicazione graduale delle sue disposizioni. Questa legislazione ha ricevuto una reazione generalmente positiva, è vista infatti come un passo avanti significativo per l'Europa nella regolamentazione dell'innovazione tecnologica. È evidente che l'AI Act garantisca la tutela dei diritti fondamentali e promuove la creatività e l'innovazione ed il primo tentativo a livello internazionale di andare in direzione di una regolamentazione sul tema. Non mancano voci critiche, ad esempio Boniface de Champris, dirigente dell’associazione delle imprese informatiche CCIA Europe dichiara che nonostante gli sforzi per migliorare il testo finale, molte delle nuove regole sull’intelligenza artificiale rimangono poco chiare e potrebbero rallentare lo sviluppo e la diffusione di applicazioni innovative in Europa. Al di là dei limiti che il testo presenta, riprendiamo le parole dell’eurodeputato socialista italiano Brando Benifei, che del testo è stato relatore e che sostiene sia fondamentale l’applicazione anticipata delle regole per il contrasto a disinformazione e deepfakes, sicuramente inizialmente approssimativa per via degli standard ancora non pienamente adottati, ma che sarà fondamentale pur in forma imperfetta per proteggere le nostre democrazie nell’anno elettorale più importante per l’Europa e per il mondo.