AI Act, cosa prevede la legge europea sull'intelligenza artificiale - Borsa&Finanza
Cerca
Close this search box.

AI Act, cosa prevede la legge europea sull’intelligenza artificiale

Un chip di computer per l'IA

È stato ufficialmente approvato l’AI Act, la legge europea che regolamenta il settore dell’intelligenza artificiale. L’Artificial Intelligence Act dell’Unione europea, proposto dalla Commissione, è stato oggetto di 36 ore di lunghi ed estenuanti negoziati tra Consiglio e Parlamento, che il 9 dicembre sono arrivati all’accordo provvisorio per il via libera alla legislazione. Il progetto punta a garantire che i sistemi di IA immessi sul mercato europeo e utilizzati nell’Unione siano sicuri, rispettino la privacy, la sostenibilità ambientale, i diritti fondamentali e i valori dell’UE.

 

AI Act, cosa prevede il testo approvato

Composto da 85 articoli, l’AI Act è la prima legge al mondo a fornire una regolamentazione sistemica sugli usi dell’intelligenza artificiale. “È un risultato storico e un’enorme pietra miliare verso il futuro”, dichiara Carme Artigas. Naturalmente il pacchetto di regole comunitarie non è ancora definitivo: i tecnici sono al lavoro per fornire un testo che verrà votato in modo risolutivo dagli organismi europei. Bisognerà quindi attendere 24 mesi prima che le sue funzioni vengano applicate a pieno regime: se tutto procederà senza intoppi, la normativa entrerà in vigore e diventerà pienamente efficace nel 2026.

Per adesso, l’AI Act mira a fare un passo avanti per tutelare i diritti e le libertà dei cittadini dinanzi all’aggiornamento costante e irrefrenabile di questa tecnologia, bilanciando l’innovazione con la protezione dei dati personali. La legge disciplina innanzitutto i sistemi General-Purpose (GPAI, per scopi generali) che includono gli LLM (Large Language Models), i modelli linguistici di grandi dimensioni basati sul deep learning che generano testi, immagini, video, traduzioni, calcoli, codici e così via e che sono dietro le applicazioni di IA generativa più diffuse come ChatGPT di OpenAI, Bard di Google, Bing Chat di Microsoft, Jasper.ai, Midjourney e chatbot simili.

Superata la richiesta di Francia, Germania ed Italia di una autoregolamentazione delle singole aziende attraverso codici di condotta per gli sviluppatori, reclamata per non limitare innovazione, ricerca e sviluppo a vantaggio di Stati Uniti e Cina, l’AI Act introduce regole precise e caratteristiche di sicurezza informatica, trasparenza dei processi di addestramento e condivisione della documentazione tecnica prima dell’arrivo sul mercato. Le General Purpose AI devono fondarsi su autovalutazione e responsabilizzazione: i produttori sono obbligati a dimostrare che il modo in cui sono arrivati a sviluppare la tecnologia non leda i diritti fondamentali degli individui e non costituisca un rischio per le persone.

L’approccio della legge europea sull’intelligenza artificiale è basato sul rischio: maggiore è il rischio, più severe sono le regole. Le società che usano i modelli fondativi (i cosiddetti foundational models: i sistemi di addestramento degli strumenti di IA) avranno quindi restrizioni di portata diversa a seconda della commercializzazione del loro prodotto. Un conto saranno le piccole e medie imprese, un altro i giganti del settore. Ma di base, vale per tutti la trasparenza delle fonti utilizzate per allenare gli algoritmi, ovvero il mare magnum di dati e informazioni in cui le IA pescano per generare le risposte alle domande e alle esigenze degli utenti.

Nel rispetto del diritto d’autore e per contrastare truffe e disinformazione, è prevista per tutte le General Purpose AI la pubblicazione di una lista di materiali usati per l’addestramento degli algoritmi e l’obbligo di rendere riconoscibile ogni contenuto prodotto. Le GPAI che pongono rischi sistemici, invece, dovranno fornire una previsione di valutazione dei pericoli e un piano delle strategie di mitigazione, oltre a comunicare eventuali incidenti all’AI Office, un ufficio europeo interno alla Commissione e dedicato all’IA per sovrintendere all’applicazione della legge.

 

L’AI Act vieta la biometria, anche con finalità predittiva

I sistemi ad alto rischio – quelli che lavorano con grandi quantità di dati e con complessità avanzata – sono soggetti ad obblighi ancora più stringenti per l’impatto che possono avere sui diritti dei cittadini. In questa categoria, ad esempio, sono inseriti i sistemi di IA usati per influenzare l’esito delle elezioni e il comportamento degli elettori: in questi casi, sviluppatori, produttori e utilizzatori sono tenuti a fornire una dettagliata documentazione tecnica del loro operato.

Quanto a privacy e sorveglianza, l’uso dell’intelligenza artificiale per identificare le persone negli spazi accessibili al pubblico attraverso il riconoscimento biometrico in tempo reale (RBI, Remote Biometric Identification) è vietato. L’unica eccezione è relativa a tre casi straordinari di rilevanza, per elenchi di reati rigorosamente definiti e previa autorizzazione giudiziaria:

 

  • prevista ed evidente minaccia di attacco terroristico;
  • ricerca di vittime (rapimento, traffico, sfruttamento sessuale, stupro);
  • persecuzione di seri crimini con localizzazione o identificazione dei sospettati di aver commesso reati specifici.

 

Gli unici dati che la polizia potrà usare sia in tempo reale che post-remoto sono quelli di categorie specifiche come il sesso, l’età, il colore di occhi e capelli, i tatuaggi e l’origine etnica. Via libera sui dati anonimi: i sistemi di IA potranno essere usati per analizzare materiale relativo a crimini e pericoli per la sicurezza pubblica. In tal caso, e in generale quando è previsto lo sfruttamento di sistemi di intelligenza artificiale, le forze dell’ordine sono tenute a notificarne l’utilizzo alle autorità indipendenti preposte al controllo, per assicurare trasparenza e responsabilità.

Nei sistemi di categorizzazione biometrica, inoltre, non sarà consentito:

 

  • utilizzare caratteristiche sensibili come le convinzioni politiche e il credo religioso, l’età e l’etnia, la disabilità e la situazione socio-economica;
  • tracciare emozioni e comportamenti sul posto di lavoro e nelle scuole;
  • ricorrere al social scoring, ovvero il sistema di credito sociale che classifica in punti i comportamenti degli individui;
  • fare web scraping, ossia raccogliere in maniera non mirata immagini del volto da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale;
  • applicare tecniche manipolative e sfruttare le vulnerabilità delle persone.

 

A corredo della legge europea sull’intelligenza artificiale, da rianalizzare quando il testo sarà definitivo, ci sono la possibilità per i cittadini di presentare reclami riguardo a decisioni prese da sistemi IA ad alto rischio che impattano sui loro diritti e una serie di misure a sostegno dell’innovazione e delle PMI. In aggiunta, i modelli utilizzati esclusivamente per scopi di ricerca e sviluppo e per promuovere l’innovazione (i cosiddetti regulatory sandbox) sono esclusi da alcune restrizioni, così come la legge non si applica ai sistemi utilizzati esclusivamente per obiettivi militari o di difesa. È previsto, infine, un regime di sanzioni per chi non rispetterà la normativa. Le multe vanno da 7,5 a 35 milioni di euro o dall’1,5% al 7% del fatturato globale annuo, a seconda del tipo di violazione e delle dimensioni dell’azienda.

AUTORE

Alessandro Zoppo

Alessandro Zoppo

Ascolta musica e guarda cinema da quando aveva 6 anni. Orgogliosamente sannita ma romano d'adozione, Alessandro scrive per siti web e riviste occupandosi di cultura, economia, finanza, politica e sport. Impegnato anche in festival e rassegne di cinema, Alessandro è tra gli autori di Borsa&Finanza da aprile 2022 dove si occupa prevalentemente di temi legati alla finanza personale, al Fintech e alla tecnologia.

ARTICOLI CORRELATI

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *