REGOLAMENTO EUROPEO 2024/1689 DEL PARLAMENTO EUROPEO E DEL CONSIGLIO del 13 giugno 2024 che stabilisce regole armonizzate sull'intelligenza artificiale

 

IL MODELLO UE: METODO: RISk BASED (regolazione trasversale). OBIETTIVO: tutelare i dirittti fondamentali della persona. Approccio regolatorio ex ante

Negli USA l'approccio è ex post (modello basato sulla reponsabilità - civile, tutela dei consumatori e di settore-. Le discipline sono statali, non cè una disciplina federale. Negli Stati Uniti la preferenza e` per l’innovazione e il principio che domina e` l’autoregolazione.

In Cina e` ritenuto essenziale il controllo, anche politico e culturale, e percio` vige un approccio dirigista.

Il modello UK è un modello intermedio tra quello UE e quello USA: si basa su PRINCIPI di: TRASPARENZA, SICUREZZA, EQUITA, ACCOUNTABILITY c'è una frammentarietà

 

L’adozione della formula legislativa del regolamento, direttamente vincolante per gli Stati membri, in luogo di quella della direttiva è ritenuta la più idonea per evitare che discipline nazionali ostacolino le ragioni dell’UE nella regolazione del mercato unico e le politiche degli Stati.

Il preambolo del regolamento afferma che “le norme armonizzate stabilite nel presente regolamento dovrebbero applicarsi in tutti i settori e, in linea con il nuovo quadro legislativo, non dovrebbero pregiudicare il vigente diritto dell’Unione, in particolare in materia di protezione dei dati, tutela dei consumatori, diritti fondamentali, occupazione e protezione dei lavoratori e sicurezza dei prodotti, al quale il presente regolamento è complementare”

 

In data 21 aprile del 2021 con la presentazione della proposta di Regolamento sull’intelligenza artificiale da parte della Commissione europea

la premura principale risiede nella creazione di un ecosistema di fiducia da parte degli utenti garantendo la sicurezza e i diritti umani, senza pregiudicare gli investimenti e la ricerca

precedentemnte:

Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL), consultabile in eur-lex.europa.eu.

Nel mese di aprile del 2018, poi, sempre la Commissione, ha adottato la comunicazione dal titolo «L’intelligenza artificiale per l’Europa». Il documento program- matico ha definito gli obiettivi di investimento, nonche ́ quelli legislativi ed etici nell’ambito del quadro dell’innovazione europea

Elaborati dei principi da parte del c.d. Gruppo di esperti ad alto livello, i quali hanno portato all’adozione della comunicazione della Commissione europea tito- lata «Creare fiducia nell’intelligenza artificiale antropocentrica» con la quale sono stati recepiti i principi in questione

ll libro bianco sull’intelligenza artificiale pubblicato il 19 febbraio 2020

 

 

STRUTTURA-EFFICACIA- ENTRATA IN VIGORE

L’EU AI Act o Regolamento 1689/2024 è stato proposto per la prima volta nell’aprile 2021. Una lunga serie di confronti negoziali ha portato al raggiungimento di un accordo politico sul testo nel dicembre del 2023. Il 13 marzo 2024 il Parlamento europeo ha approvato in via definitiva il Regolamento Europeo sull’Intelligenza Artificiale, mentre 21 maggio 2024 l’EU AI Act è stato formalmente approvato dal Consiglio d’Europa, che ne ha sancito l’adozione ufficiale. Il 12 luglio 2024 il testo finale dell’EU AI Act è stato pubblicato sull’Official Journal dell’Unione Europea ed è entrato in vigore 20 giorni dopo la sua pubblicazione, quindi il 1o agosto 2024.

L’applicazione della normativa avverrà a partire dal 2 agosto 2026.

Tuttavia:

a) I capi I e II si applicano a decorrere dal 2 febbraio 2025 (ad esempio, che il divieto di adozione di soluzioni basate AI che comportino rischi «inaccettabili»);

b) Il capo III, sezione 4, il capo V, il capo VII, il capo XII e l’articolo 78 si applicano a decorrere dal 2 agosto 2025, ad eccezione dell'articolo 101;

c) L'articolo 6, paragrafo 1, e i corrispondenti obblighi di cui al presente regolamento si applicano a decorrere dal 2 agosto 2027.

 

Il Regolamento si basa su tre elementi:
a) il primo elemento è il perimetro di applicazione.
b) il secondo elemento è l’approccio regolatorio basato sul rischio;
c) il terzo elemento riguarda la tutela dei diritti fondamentali

 

L’obiettivo del Regolamento è bilanciare l’innovazione tecnologica con il rispetto dei diritti fondamentali.

L’art. 1, capo I (disposizioni generali) del Regolamento, stabilisce che lo scopo del provvedimento “è migliorare il funzionamento del mercato interno e promuovere la diffusione di una Intelligenza Artificiale antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza, dei diritti fondamentali sanciti dalla Carta dei diritti fondamen- tali, compresi la democrazia, lo Stato di diritto, e la protezione dell’ambiente, contro gli effetti nocivi dei sistemi di Intelligenza Artificiale nell’Unione, epromuovendo l’innovazione”.


ART. 3 DEFINIZIONE DI IA. Prevede una definzione flessibile al fine di garantire un adattamento nel tempo, tenuto conto della sviluppo del settore

«sistema di IA»: un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall'input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali

Viene abbandonato l'idicazione al termine "software" e si fa riferimento a un sistema automatizzato. Si fa riferimento all’autonomia, ma con la specifica di livelli variabili; agli obiettivi, che possono essere non solo espliciti, ma anche impliciti, senza specificare se debbano provenire dalla macchina o dall’uomo; all’eliminazione dei contenuti tra gli output generabili, probabilmente per l’introduzione della definizione dei «modelli di base» che attengono proprio alla IA generativa a cui si voleva alludere con il riferimento ai contenuti; all’introduzione del chiarimento che l’influenza degli ambienti puo` riguardare quelli fisici o virtuali. Questa specifica rafforzerebbe un’interpretazione tesa a ritenere che l’influenza dell’ambiente con cui interagisce il sistema non debba arrivare al punto di modificare o influenzare il comportamento dell’utente. Il Parlamento ha semplificato la definizione di sistemi di IA per finalita` generali prevedendo che si tratta di un sistema capace di adattarsi a una varieta` generale di applicazioni per le quali non era stato in origine progettato e ha introdotto un’altra tecnica riguardante i modelli di base (la IA generativa).

 

BENEFICI E RISCHI

I consiedrando del regolamento esplicitano che l'IA contribuisce al conseguimento di un'ampia gamma di benefici a livello economico, ambientale e sociale nell'intero spettro delle attività industriali e sociali me presenta rischi e puo' pregiudicare gli interessi pubblici e i diritti fondamentali tutelati dal diritto dell'Unione. Tale pregiudizio può essere sia materiale sia immateriale, compreso il pregiudizio fisico, psicologico, sociale o economico.

Al fine di garantire un livello costante ed elevato di tutela degli interessi pubblici in materia di salute, sicurezza e diritti fondamentali, è opportuno stabilire regole comuni per i sistemi di IA ad alto rischio

Il giudizio di conformita` e` rimesso agli attori coinvolti anziche ́ a soggetti terzi. Il fulcro della disciplina dell’AI Act e` rappresentato dai sistemi di IA ad alto rischio, individuati nell’art. 6 e negli allegati II e III. La disciplina individua una serie di requisiti essenziali in virtu` dei quali deve accertarsi la conformita` del dispositivo prima dell’immissione nel mercato e della messa in servizio.

 

 

I quattro livelli di rischio del regolamento sull’IA e le regole corrispondenti sono i seguenti:

 

Rischi minimi o nulli per la maggior parte dei sistemi di IA che, non introducendo particolari rischi, non sono disciplinati o interessati dal regolamento dell’UE sull’IA. Per tale motivo giochi o i filtri antispam basati sull’IA possono essere utilizzati liberamente.

Rischi limitati in relazione ai sistemi di IA che, presentando solo rischi limitati, possono essere utilizzati a condizione che gli utenti siano compiutamente informati riguardo al fatto che i contenuti sono generati ricorrendo all’IA, così da poter prendere decisioni informate. È questo il caso della intelligenza generativa applicata alla produzione di contenuti, come chatbot o sistemi di IA applicati ai settori più disparati.

Rischi elevati in relazione ai sistemi di IA ad alto rischio, come quelli utilizzati nella diagnosi delle malattie, nella guida autonoma e nell’identificazione biometrica delle persone coinvolte in attività criminali o indagini penali. Tali sistemi, valutati come ad alto impatto, saranno chiamati a soddisfare requisiti e obblighi rigorosi per accedere al mercato dell’UE; requisiti e obblighi che comprendono test rigorosi, trasparenza e supervisione umana.

Rischi inaccettabili con riferimento ai sistemi di IA che rappresentino o possano rappresentare una minaccia per la sicurezza, i diritti o i mezzi di sussistenza delle persone. Tra questi utilizzi figurano la manipolazione cognitivo-comportamentale, la polizia predittiva, il riconoscimento delle emozioni sul luogo di lavoro e negli istituti di istruzione e il punteggio sociale. Tali sistemi sono colpiti da divieto, salvo espresse deroghe ed eccezioni limitate

 

OBBLIGHI PREVISTI PER LA CATEGORIA DEI SISTEMI AD ALTO RISCHIO

(i) Requisiti di trasparenza tesi a garantire maggiore trasparenza sui meccanismi decisionali degli algoritmi.

(ii) Supervisione umana, dovendo garantire un appropriato livello di supervisione umana sui processi automatizzati.

(iii) Tracciabilità, da tradurre nell’ obbligo di mantenere documentazione dettagliata sui sistemi AI utilizzati.

(iv) Valutazione della conformità prima dell’immissione sul mercato.


(v) Adeguata gestione del rischio, mediante implementazione di sistemi di gestione del rischio

 

 

ART. 5 Capo II del Regolamento “Pratiche di IA vietate”

L'art. 5 c.a stabilisce un elenco (tassativo) di pratiche di IA vietate:

a) l'immissione sul mercato, la messa in servizio o l'uso di un sistema di IA che utilizza tecniche subliminali che agiscono senza che una persona ne sia consapevole o tecniche volutamente manipolative o ingannevoli aventi lo scopo o l'effetto di distorcere materialmente il comportamento di una persona o di un gruppo di persone, pregiudicando in modo considerevole la loro capacità di prendere una decisione informata, inducendole pertanto a prendere una decisione che non avrebbero altrimenti preso, in un modo che provochi o possa ragionevolmente provocare a tale persona, a un'altra persona o a un gruppo di persone un danno significativo;

b) l'immissione sul mercato, la messa in servizio o l'uso di un sistema di IA che sfrutta le vulnerabilità di una persona fisica o di uno specifico gruppo di persone, dovute all'età, alla disabilità o a una specifica situazione sociale o economica, con l'obiettivo o l'effetto di distorcere materialmente il comportamento di tale persona o di una persona che appartiene a tale gruppo in un modo che provochi o possa ragionevolmente provocare a tale persona o a un'altra persona un danno significativo;

c) l'immissione sul mercato, la messa in servizio o l'uso di sistemi di IA per la valutazione o la classificazione delle persone fisiche o di gruppi di persone per un determinato periodo di tempo sulla base del loro comportamento sociale o di caratteristiche personali o della personalità note, inferite o previste, in cui il punteggio sociale così ottenuto comporti il verificarsi di uno o di entrambi gli scenari seguenti.

i) un trattamento pregiudizievole o sfavorevole di determinate persone fisiche o di gruppi di persone in contesti sociali che non sono collegati ai contesti in cui i dati sono stati originariamente generati o raccolti;

ii) un trattamento pregiudizievole o sfavorevole di determinate persone fisiche o di gruppi di persone che sia ingiustificato o sproporzionato rispetto al loro comportamento sociale o alla sua gravità;

d) l'immissione sul mercato, la messa in servizio per tale finalità specifica o l'uso di un sistema di IA per effettuare valutazioni del rischio relative a persone fisiche al fine di valutare o prevedere il rischio che una persona fisica commetta un reato, unicamente sulla base della profilazione di una persona fisica o della valutazione dei tratti e delle caratteristiche della personalità; tale divieto non si applica ai sistemi di IA utilizzati a sostegno della valutazione umana del coinvolgimento di una persona in un'attività criminosa, che si basa già su fatti oggettivi e verificabili direttamente connessi a un'attività criminosa;

e) l'immissione sul mercato, la messa in servizio per tale finalità specifica o l'uso di sistemi di IA che creano o ampliano le banche dati di riconoscimento facciale mediante scraping non mirato di immagini facciali da internet o da filmati di telecamere a circuito chiuso;

f) L'immissione sul mercato, la messa in servizio per tale finalità specifica o l'uso di sistemi di IA per inferire le emozioni di una persona fisica nell'ambito del luogo di lavoro e degli istituti di istruzione, tranne laddove l'uso del sistema di IA sia destinato a essere messo in funzione o immesso sul mercato per motivi medici o di sicurezza;

g) l'immissione sul mercato, la messa in servizio per tale finalità specifica o l'uso di sistemi di categorizzazione biometrica che classificano individualmente le persone fisiche sulla base dei loro dati biometrici per trarre deduzioni o inferenze in merito a razza, opinioni politiche, appartenenza sindacale, convinzioni religiose o filosofiche, vita sessuale o orientamento sessuale; tale divieto non riguarda l'etichettatura o il filtraggio di set di dati biometrici acquisiti legalmente, come le immagini, sulla base di dati biometrici o della categorizzazione di dati biometrici nel settore delle attività di contrasto;

h) l'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto a meno che, e nella misura in cui, tale uso sia strettamente necessario per uno degli obiettivi seguenti:

i) la ricerca mirata di specifichevittime di sottrazione, tratta di esseri umani o sfruttamento sessuale di esseri umani, nonché la ricerca di persone scomparse;

ii) la prevenzione di una minaccia specifica, sostanziale e imminente per la vita o l'incolumità fisica delle persone fisiche o di una minaccia reale e attuale o reale e prevedibile di un attacco terroristico;

iii) lalocalizzazione o l'identificazione di una persona sospettata di aver commesso un reato, ai fini dello svolgimento di un'indagine penale, o dell'esercizio di un'azione penale o dell'esecuzione di una sanzione penale per i reati di cui all'allegato II, punibile nello Stato membro interessato con una pena o una misura di sicurezza privativa della libertà della durata massima di almeno quattro anni.

 

CONSIDERANDO 20: ALFABETIZZAZIONE

«l’alfabetizzazione in materia di IA dovrebbe dotare i fornitori, i deployer e le persone interessate delle nozioni necessarie per prendere decisioni informate in merito ai sistemi di IA. Tali nozioni possono variare in relazione al contesto pertinente e possono includere la comprensione della corretta applicazione degli elementi tecnici durante la fase di sviluppo del sistema di IA, le misure da applicare durante il suo utilizzo, le modalità adeguate per interpretare l’output del sistema di IA e, nel caso delle persone interessate, le conoscenze necessarie per comprendere in che modo le decisioni adottate con l’assistenza dell’IA incideranno su di esse»

 

Il considerando 53 precisa che un sistema di IA che non influenza materialmente l’esito del processo decisionale dovrebbe essere inteso come un sistema di IA che non ha un impatto sulla sostanza, e quindi sull’esito del processo decisionale, sia esso umano o automatizzato.

La disposizione prosegue stabilendo che questo e` il caso in cui sono soddisfatte una o piu` condizioni, ossia quando: a) il sistema di IA e` destinato a eseguire un compito procedurale limitato; b) il sistema di IA e` destinato a migliorare il risultato di un’attivita` umana precedentemente completata; c) il sistema di IA e` destinato a rilevare schemi decisionali o deviazioni da schemi decisionali precedenti e non e` inteso a sostituire o influenzare la valutazione umana precedentemente completata senza un’adeguata revisione umana ; d) il sistema di IA e` destinato a eseguire un compito preparatorio per una valutazione pertinente ai fini dei casi d’uso elencati nell’Allegato III

L’art. 113 dell’AI Act stabilisce un termine di applicazione differenziato delle disposizioni del Regolamento

 

 

 

 

 

 

 

 

 

Informazioni generali sul sito