Nel mese di aprile 2021 la Commissione europea ha avanzato una proposta di regolamento sull'Intelligenza Artificiale (di seguito, “Artificial Intelligence Act” o “AIA”).
L’AIA si propone – fra le altre cose – di assicurare che l’impiego di sistemi di intelligenza artificiale (IA), quale che sia il settore di impiego (es. sanità, istruzione, finanza, energia, etc.), avvenga nel rispetto dei valori fondanti dell’Unione Europea e in un quadro normativo definito.
A tal fine, l’AIA prevede disposizioni particolarmente stringenti in relazione alla qualità dei dati, alla trasparenza, alla supervisione umana e alla responsabilità derivante dall’uso di sistemi di IA.
L’AIA delinea altresì le norme relative alle cosiddette IA generiche, ovvero sistemi che possono essere utilizzati per scopi diversi con vari gradi di rischio. Tali tecnologie includono, ad esempio, sistemi di IA generativa con grandi modelli linguistici come ChatGPT.
Nel mese di giugno 2023 il Parlamento Europeo ha adottato la sua posizione negoziale sull’AIA, dando il via al trilogo fra Commissione, Consiglio e Parlamento Europeo, che si concluderà con l’emanazione del testo definitivo. La versione finale del regolamento dovrebbe essere pubblicata entro la fine del 2023 e entrare in vigore nel 2026, con un periodo di adeguamento di due anni (simile a quello previsto dal GDPR). Questo periodo consentirà ai destinatari delle disposizioni dell’AIA (di seguito, i “Soggetti Obbligati”) di adeguarsi ai cambiamenti previsti dalla normativa prima che questi diventi efficace.
Pertanto, si noti che il presente memorandum si riferisce ad un testo di legge che è ancora soggetto ad un processo legislativo che potrebbe portare a diverse modifiche dei suoi contenuti.
L’AIA introdurrà per la prima volta una definizione di “Intelligenza Artificiale”, che servirà per individuare quali strumenti rientreranno sotto la disciplina dell’AIA. Nonostante la definizione non sarà definitiva fino all’emanazione dell’atto, si prospetta sin d’ora – ad esempio – che numerosi software classificati come “dispositivi medici”, anche già presenti sul mercato, dovranno ritenersi basati su sistemi di IA e dovranno pertanto rispettare le prescrizioni dell’AIA (e.g., dispositivi per fornire assistenza ai medici nella diagnosi di patologie).
L’AIA stabilirà inoltre definizioni chiare per i diversi attori coinvolti nell'IA. Ciò significa che tutte le parti coinvolte nello sviluppo, nell'utilizzo, nell'importazione, nella distribuzione o nella produzione di modelli di IA saranno ritenute responsabili a vario titolo. Inoltre, l’AIA si applicherà anche ai fornitori e agli utilizzatori di sistemi di IA situati al di fuori dell'UE, se l'output prodotto dal sistema sarà destinato a essere utilizzato nell'UE.
3.1. Fase 1: inventario e analisi dei modelli di IA
Il primo passo che devono compiere i Soggetti Obbligati per adeguarsi all’AIA dovrà essere quello di valutare se esse utilizzano sistemi che possono essere qualificati come “intelligenza artificiale”. Tali modelli potranno essere già in utilizzo, in sviluppo, oppure ancora in procinto di essere ricevuti da fornitori terzi.
3.2. Fase 2: classificazione del rischio dell’IA
L’AIA adotta un approccio basato sul rischio: in altre parole, per comprendere a quali obblighi si è sottoposti è necessario comprendere a quale categoria di rischio appartiene il sistema di IA utilizzato.
Dunque, sulla base della catalogazione dei modelli di IA, i Soggetti Obbligati dovranno procedere alla classificazione dei modelli in base al rischio. In tal proposito, è stata proposta una valutazione dei rischi in due ulteriori sottofasi: una prima classificazione da effettuarsi attraverso le categorie di rischi previste nell’AIA; una seconda valutazione riguarderà, invece, l’impatto dell’IA sui diritti fondamentali, che ogni utilizzatore di AI dovrà effettuare autonomamente secondo un criterio che dovrà essere stabilito internamente (Fundamental Rights Impact Assessment).
Quanto alla classificazione dei modelli in base al rischio, l’AIA distingue diverse categorie:
3.2.1. Rischio inaccettabile
L’AIA, nel definire la classificazione, fornisce esempi di modelli che presentano un rischio inaccettabile e che dunque sono vietati. In particolare, sono vietati:
3.2.2. Rischio elevato
Analogamente, l’Annex III dell’AIA fornisce un elenco dei sistemi ad alto rischio di cui all’articolo 6(2), che devono essere conformi a più requisiti, sottoposti a una valutazione di conformità (da completarsi prima che il modello venga immesso sul mercato), e comunque devono essere sottoposti ad una costante sorveglianza anche dopo essere stati immessi sul mercato.
I sistemi di IA ad alto rischio si dividono in due categorie:
All'elenco ad alto rischio – originariamente proposto dalla Commissione – sono stati aggiunti i sistemi di IA utilizzati per influenzare gli elettori e l'esito delle elezioni, nonché i sistemi di raccomandazione utilizzati dalle piattaforme di social media designate come "piattaforme online di grandi dimensioni" ai sensi del Regolamento (UE) 2022/2065 (Digital Services Act).
Fra i requisiti imposti per i sistemi ad alto rischio vi sono:
Per i dispositivi medici, ad esempio, la normativa di settore prevede già alcune procedure di valutazione della conformità. A tal riguardo, l’AIA prescrive che la conformità dell’IA sia valutata mediante la valutazione di conformità condotta ai sensi della normativa di settore, per evitare sovrapposizioni di procedure. Coerentemente, il rilascio del certificato di conformità CE attesterà la conformità del sistema IA sia al Medical Device Regulation, sia all’AIA. Dunque, l'articolo 59 del regolamento (UE) 2017/745 e l'articolo 54 del regolamento (UE) 2017/746 si applicheranno in ogni caso.
3.2.3. Foundation models (o base models)
Anche i foundation models, sotto forma di sistemi di IA generativa (come, ad esempio, ChatGPT) e di IA di base, avranno regole specifiche di regolamentazione. I sistemi di IA generativa e di base possono essere considerati entrambi IA di uso generale, perché sono in grado di svolgere svariati compiti.
Per tali modelli l’AIA richiede requisiti di trasparenza più elevati, per cui:
I fornitori di modelli di “basic AI” dovranno valutare e mitigare i possibili rischi ad essi associati (per la salute, la sicurezza, i diritti fondamentali, l'ambiente, la democrazia, e lo stato di diritto) e registrare i loro modelli nel database dell'UE prima che vengano immessi sul mercato.
3.2.4. Rischio limitato o minimo
Le restanti applicazioni di IA sono considerate a rischio limitato o minimo. Questi sistemi devono soddisfare determinati requisiti di trasparenza, che consentano agli utenti di comprendere che sta interagendo con una IA e di prendere decisioni informate. Esempio di tali sistemi sono: chat bots, generatori di immagini o video “deep fakes” (quando non sono considerati ad alto rischio), sistemi per la traduzione o per le previsioni meteorologiche.
I sistemi di IA con rischio minimo sono, ad esempio, i filtri antispam o i videogiochi.
3.3. Valutazione della conformità (pre-marketing) e enforcement (post-marketing)
I fornitori dei sistemi di IA ad alto rischio garantiscono che tale sistema sia sottoposto ad una procedura di valutazione della conformità di cui all'articolo 43 dell’AIA prima della sua immissione sul mercato o messa in servizio.
Se in seguito a tale valutazione l’IA risulta conforme ai requisiti di legge, i fornitori redigono una dichiarazione di conformità UE a norma dell'articolo 48 e appongono la marcatura CE.
L'AIA richiede ai fornitori di IA ad alto rischio di monitorare le prestazioni dei loro sistemi anche dopo il lancio sul mercato, atteso che l'IA si evolve man mano che riceve nuovi input. In tale fase di monitoraggio, i fornitori dovranno effettuare un'analisi continua dei dispositivi, software e altri sistemi di IA che interagiscono con il sistema di IA, tenendo conto dei limiti derivanti dalla protezione dei dati, dal diritto d'autore e dalla legge sulla concorrenza.
La Commissione dovrà fornire un modello per i piani di monitoraggio post-vendita entro un anno dall'entrata in vigore dell’AIA.
L’AIA si occupa anche di affrontare le questioni legate alle preoccupazioni sulla qualità dei dati utilizzati per costruire sistemi di IA. Pertanto il regolamento prevede, tra le altre cose:
Secondo l’AIA, i sistemi di IA devono essere progettati e sviluppati in modo da poter essere efficacemente controllati da persone fisiche durante il periodo di utilizzo del sistema.
Non si tratta semplicemente di una questione di trasparenza del funzionamento del sistema di IA (come nel GDPR). Tale obbligo è più ampio e dovrebbe consentire, ad esempio, al "supervisore umano" di individuare le anomalie, in modo da essere in grado di interpretare correttamente i risultati del sistema. Un obiettivo esplicito è quello di prevenire o ridurre al minimo i rischi per i diritti fondamentali.
Se un sistema ad alto rischio è gestito da un "utilizzatore" piuttosto che dal fornitore originario (ad esempio, un'azienda privata acquista e installa un sistema di assunzione automatizzato), la ripartizione delle responsabilità è molto diversa nell’AIA rispetto al GDPR. Nel GDPR, l'azienda sarebbe il "titolare del trattamento dei dati" e dunque il soggetto sottoposto ai doveri. Nell'AIA, rimane esclusiva responsabilità del produttore dell’IA ottenere la valutazione di conformità prima che il sistema venga immesso sul mercato e implementare la "supervisione umana" in un modo che sia appropriato per essere utilizzato dall'utente. Diversamente, se l'utente modifica sostanzialmente il sistema, diventa il nuovo "fornitore" con tutti i doveri di certificazione che ne conseguono.
Le esenzioni per le attività di ricerca e per i componenti di IA forniti con licenze open-source sono state recentemente proposte dal Parlamento. Fra tali esenzioni vi rientra anche la promozione di sandbox regolamentari (esenzione temporanea dalle normative pertinenti durante un periodo di test), a condizione che siano istituite dalle autorità pubbliche allo scopo di testare i sistemi di IA prima che siano immessi sul mercato o altrimenti messi in servizio.
L’AIA è parte di un pacchetto di tre pilastri proposto dalla Commissione europea per sostenere l'IA in Europa. Gli altri pilastri comprendono una modifica della direttiva sulla responsabilità dei prodotti (PLD) e una nuova direttiva sulla responsabilità dell'IA (AILD). Mentre l’AIA si concentra sulla sicurezza e sulla prevenzione ex ante dei diritti fondamentali, gli altri due pilastri riguardano i danni causati dai sistemi di IA.
L'inosservanza dell’AIA potrebbe far scattare, in base al livello di rischio, gradi diversi di alleggerimento dell'onere della prova – quanto alla PLD – per le richieste di risarcimento per responsabilità da prodotto senza colpa – quanto all'AILD – per qualsiasi altra richiesta di risarcimento (basata sulla colpa). La modifica della PLD e l'AILD avranno un percorso di approvazione ancora molto lungo, atteso che non sono ancora state approvate dal Parlamento europeo e, in quanto direttive, dovranno essere recepite a livello nazionale.
La proposta di legge mira anche a istituire uno “European Artificial Intelligence Board”, che supervisionerebbe l'attuazione del regolamento e ne garantirebbe un'applicazione uniforme in tutta l'UE. L'organismo avrebbe il compito di emettere pareri e raccomandazioni sulle questioni che si presentano e di fornire indicazioni alle autorità nazionali.
Allo stato, le sanzioni per la mancata conformità all’AIA sono significative: allo stato, esse vanno fino a 40 milioni di euro o fino al 7% del fatturato annuo globale, a seconda della gravità della violazione.
L’approccio adottato dall’UE attraverso l’AIA è quello di trovare un bilanciamento fra innovazione ed esigenze di tutela. In tale ottica, i Soggetti Obbligati che utilizzano l'IA devono imparare ad orientarsi tra le disposizioni normative (ancora in evoluzione), mirando all’innovazione ma sempre conformandosi alla disciplina di legge. I Soggetti Obbligati, in particolare, dovrebbero valutare il potenziale impatto dell’AIA sulle loro attività e valutare se il loro modus operandi è conforme ai principi e alle disposizioni che entreranno in vigore. Nonostante il periodo di grazia di due anni prima della effettiva applicazione dell’AIA, è necessario agire tempestivamente, atteso che lo sviluppo di sistemi di IA può richiedere tempistiche molto lunghe.
Pertanto, un approccio proattivo dei Soggetti Obbligati (che può consistere nel monitorare gli sviluppi normativi) è fondamentale non solo per una futura compliance, ma anche per mitigare i rischi di reclami o di contenzioso con le diverse parti contrattuali.
Il contenuto di questo elaborato ha valore meramente informativo e non costituisce, né può essere interpretato, quale parere professionale sugli argomenti in oggetto. Per ulteriori informazioni si prega di contattare Paolo Gallarati, Giulio Uras e Jacopo Dirutigliano.