AI Act: la prima legge (targata UE) sull'intelligenza artificiale
Benché non privo di difetti, l'AI Act si è rivelato un completo ed efficace primo tentativo di regolare l'uso dellintelligenza artificiale: ecco i principali punti sollevati dall'UE su possibili rischi e ambiti di applicazione
Lo scorso marzo, lUnione Europea ha approvato la legge sullintelligenza artificiale conosciuta come AI Act, un evento che ha attirato una considerevole quantità di attenzione, in quanto si tratta della prima legge del genere al mondo. Ma cosa stabilisce, di preciso? In breve, si tratta di un tentativo di regolare luso dellintelligenza artificiale, stabilendo quali applicazioni devono essere vietate (e le relative eccezioni) e quali devono essere considerate come ad alto rischio, oltre che gli obblighi e requisiti a cui devono essere sottoposte queste ultime, in maniera tale da garantire il rispetto dei nostri diritti. Inoltre, lAI Act propone anche misure a favore dellinnovazione, promuovendo lo sviluppo di sistemi di più capaci, ma anche più sicuri. Vediamo quindi di esaminare i punti più importanti di questo intervento legislativo.
Prima di iniziare, bisogna però chiarire alcune cose: innanzitutto, lAI Act divide lintelligenza artificiale - di cui fornisce una definizione basata su autonomia e capacità inferenziale come elementi portanti che permettono di distinguerla dai più semplici algoritmi - in multipli gruppi usando due misure, il rischio e le capacità. In termini di capacità, le IA possono essere sistemi di IA, che svolgono un numero limitato di compiti, o modelli/sistemi di IA per finalità generali, che possono svolgere unampia varietà di compiti; per quanto riguarda il rischio, invece, un sistema di IA può ricadere nelle categorie vietato, ad alto rischio e non ad alto rischio, mentre le IA per finalità generali possono essere con rischio sistemico o non. Inoltre, nel caso dei sistemi di IA il rischio dipende dallambito in cui lintelligenza artificiale viene utilizzata più che dal compito che svolge. In altre parole, luso di unIA potrebbe essere vietato in certe situazioni, ma accettabile in altre: ad esempio, le IA per il riconoscimento delle emozioni sono vietati in ambito scolastico e lavorativo, ma altrimenti ricadono nella categoria ad alto rischio (ad esempio in ambito medico, dove la capacità di riconoscere emozioni può essere estremamente utile).
Partendo da queste premesse, vediamo quindi di esaminare quali sono le applicazioni vietate:
- le IA che usano tecniche subliminali o volutamente manipolative e ingannevoli per indurre le persone a prendere certe decisioni;
- le IA che sfruttano vulnerabilità come età, situazione economica o disabilità per indurre le persone a prendere certe decisioni;
- le IA utilizzate per creare sistemi di scoring che attribuiscono punteggi sociali alle persone valutandone comportamento e caratteristiche personali (in maniera molto simile al sistema cinese del credito sociale);
- le IA usate per la profilazione, ossia la pratica di valutare il rischio che una persona commetta crimini in base alla sua personalità e caratteristiche personali;
- le IA utilizzate per creare od ampliare banche dati per il riconoscimento facciale facendo uso di immagini ottenute su internet o provenienti da filmati di telecamere a circuito chiuso;
- come menzionato precedentemente, le IA capaci di riconoscere emozioni attraverso lanalisi di elementi come espressioni facciali, gesti e voce, qualora utilizzate in ambito scolastico o lavorativo;
- le IA che fanno uso di dati biometrici, ossia caratteristiche fisiche, comportamentali e fisiologiche (volto, forma del corpo, voce, postura ecc.) per dedurre informazioni come orientamento sessuale, religione od opinioni politiche;
- le IA che fanno uso di dati biometrici per permettere lidentificazione in tempo reale delle persone allinterno di spazi pubblici.
Come si potrà facilmente notare, si tratta di applicazioni la cui moralità (e legalità) è discutibile, in quanto porterebbero ad una varietà di violazioni dei diritti fondamentali: comportamenti pregiudizievoli, discriminazione, invasione della privacy, manipolazione e sfruttamento di vulnerabilità. Detto questo, lAI Act considera anche le possibili eccezioni a queste regole, evidenziando il fatto che, come menzionato precedentemente, il rischio correlato a un sistema di IA dipende in buona parte dallambito in cui viene utilizzata: oltre allesempio dellIA per identificare emozioni di cui prima, la profilazione può essere valida per individuare un colpevole dopo che un crimine è stato commesso (anziché prima), mentre i dati biometrici possono essere utilizzati come metodo per verificare lidentità di un utente che cerca di accedere a dispositivi e servizi (si pensi ad esempio al riconoscimento facciale usato da alcuni smartphone), o per permettere di rintracciare rapidamente persone rapite o scomparse, terroristi e criminali. In tutti questi casi parliamo comunque di intelligenze artificiali ad alto rischio, in quanto rimane la possibilità che vengano usate per violare i diritti fondamentali, ma sono esplicitamente identificati come applicazioni non vietate.
Cosa sono, quindi, le IA ad alto rischio? In generale, lAI Act stabilisce una serie di criteri che permettono di identificarle, ma propone anche diversi casi specifici, tra cui le eccezioni di cui sopra. Unintelligenza artificiale è considerata ad alto rischio se presenta un rischio significativo per salute, sicurezza o diritti fondamentali, una valutazione che dipende da una varietà di fattori, tra cui la finalità dellIA, i dati che tratta, il suo livello di autonomia e la portata e misura dei danni potenziali; particolarmente interessante è il fatto che si fa riferimento anche ai benefici ottenibili dallIA in questo calcolo, implicando che un certo livello di rischio è comunque accettabile, qualora i vantaggi siano sufficientemente alti.
In aggiunta, oltre ai sistemi biometrici e di riconoscimento emozioni non vietati, lAI Act propone anche una serie di esempi specifici come IA ad alto rischio:
- IA usate in infrastrutture critiche, come gestione del traffico stradale o fornitura di acqua e gas;
- IA usate nellambito dellistruzione e formazione allo scopo di valutare i risultati, monitorare il comportamento e determinare laccesso o lammissione;
- IA usate nel settore delloccupazione e della gestione dei lavoratori per selezionare e assumere, per la gestione dei rapporti di lavoro e lassegnazione degli incarichi, e per valutare e monitorare;
- IA usate per valutare lammissibilità ad accedere a servizi pubblici e privati, tra cui laccesso al credito e alle assicurazioni, allassistenza sanitaria, e la classificazione delle chiamate di emergenza;
- IA usate nelle attività di contrasto (ossia per combattere la criminalità) o per gestire frontiere, richieste dasilo e immigranti;
- IA usate nellamministrazione della giustizia e nei processi democratici, qualora possano influenzare le decisioni delle persone esposte.
Si noti, inoltre, che, come nel caso delle applicazioni vietate, anche qui abbiamo delle eccezioni, casi in cui unintelligenza artificiale è considerata non ad alto rischio, tipicamente quando sono usate per scopi puramente amministrativi.
A differenza delle applicazioni vietate, le IA ad alto rischio possono essere utilizzate, ma sono sottoposte ad un sistema di gestione dei rischi, in sostanza una sorta di esame che deve essere effettuato prima dellimmissione sul mercato del sistema di IA, e che deve essere ripetuto e aggiornato periodicamente. In parole povere, il fornitore deve esaminare i possibili rischi che il sistema potrebbe causare, inclusi quelli che potrebbero sorgere a causa di un uso improprio, e adottare misure per limitare o gestire questi rischi. Inoltre a ciò, deve anche essere rispettata una serie di obblighi, alcuni dei quali si applicano al fornitore, altri al deployer (utilizzatore), che garantiscano che lIA sia quanto più possibile sicura: i dati devono essere completi e rappresentativi per evitare la creazione di bias, il fornitore deve disporre di una documentazione tecnica che ne spieghi lo sviluppo e il funzionamento e fornire un manuale di istruzioni al deployer, e lIA deve essere sviluppata in modo da permettere la sorveglianza umana e garantire un elevato livello di robustezza rispetto ad errori e guasti, cybersicurezza inclusa.
Per quanto riguarda le IA non ad alto rischio, esse sono solo brevemente menzionate, in quanto non affette dallAI Act: in generale, sono identificate come intelligenze artificiali che non influenzano lesito del processo decisionale, ad esempio nel caso in cui siano usate per svolgere compiti altamente limitati, oppure per migliorare il risultato di unattività umana. Per quanto riguarda obblighi e limitazioni, i fornitori di IA non ad alto rischio non sono tenuti a rispettare i requisiti stabiliti per i sistemi di IA ad alto rischio, ma sono incoraggiati ad adottarli volontariamente, e creare codici di condotta, facendo riferimento a sette principi etici non vincolanti. In ordine, intervento e sorveglianza umani, robustezza tecnica e sicurezza, vita privata e governance dei dati, trasparenza, non discriminazione ed equità e diversità, benessere sociale ed ambientale, e responsabilità.
La situazione per i modelli di IA per finalità generali è leggermente differente, imponendo alcuni obblighi(prevalentemente legati al fornire documentazione tecnica e informazioni su capacità e limiti) che valgono indipendentemente dal livello di rischio, mentre i modelli che presentano un rischio sistemico, definiti come sistemi che hanno capacità di impatto elevato o un impatto significativo sul mercato interno sono anche soggetti a ulteriori obblighi riguardanti lindividuazione e attenuazione dei rischi e il garantire un elevato livello di cybersicurezza. Questultimo punto è particolarmente importante, in quanto lAI Act inserisce la possibilità che qualcuno sfrutti vulnerabilità del sistema tra i più importanti rischi per questa tipologia di IA, insieme alluso improprio, ai problemi di controllo, e ai modelli autoreplicanti. Bisognerebbe infine menzionare il caso delle IA generative, ossia capaci di creare o modificare immagini, video e audio (e quindi categorizzate come sistemi per finalità generali), che hanno attirato molta attenzione negli ultimi mesi per via del fenomeno dei deepfake: in virtù della difficoltà nel distinguere questi contenuti AI-generated da quelli autentici lAI Act impone un obbligo di marcatura a fornitori e deployer, richiedendo che i primi trovino un modo per marcare i contenuti in un modo che permetta di rilevarli come prodotti dallIA, mentre i secondi dovrebbero segnalare che si tratta di contenuti AI-generated qualora vengano pubblicati o condivisi.
Nel suo insieme, lAI Act è sorprendentemente completo ed efficace, specialmente se si considera che è la prima legge sulluso dellintelligenza artificiale al mondo. Ciò non vuol dire che sia perfetta, e unattenta analisi rivelerà certamente alcune mancanze o imprecisioni, ma lattenzione dedicata a esaminare le possibili applicazioni dellIA è considerevole, come dimostra la quantità di eccezioni evidenziate. Soprattutto, lAI Act riesce a bilanciare la necessità di fornire indicazioni precise e complete con quella di rimanere adattabile e aperto a cambiamenti e aggiornamenti, praticamente un obbligo in un campo in continua evoluzione, fornendo così in indicazioni che, sebbene a volte un po vaghe, risultano efficaci e versatili. Altrettanto importante è il modo in cui lUE ha deciso di gestire il problema del rischio: viene ampiamente riconosciuto che lintelligenza artificiale comporta dei rischi (al punto che i sistemi di IA non ad alto rischio sono menzionati solo brevemente, specialmente in confronto a quanto spazio è dedicato ai sistemi ad alto rischio), ma il numero di applicazioni vietate è piuttosto ridotto, e gli obblighi e le limitazioni per i sistemi ad alto rischio sono, per la maggior parte, piuttosto ragionevoli. Tutto ciò, unitamente alla dichiarata intenzione di supportare linnovazione e lo sviluppo, risulta in un regolamento che riconosce chiaramente le capacità dellintelligenza artificiale, sia in positivo che in negativo, e che cerca di proseguire in maniera tale da minimizzare i rischi, ma non in maniera tale da nuocere alla ricerca.
Manfredi Negro per la Fondazione Anna Kuliscioff
30/4/2024