La struttura del Regolamento prevede un articolato sistema di classificazione dei rischi (Capitolo II), che differenzia i sistemi di intelligenza artificiale in base al potenziale pericolo per gli individui e la società, con particolari implicazioni in termini di tutela della privacy, trasparenza e responsabilità civile. I sistemi di IA sono suddivisi in quattro livelli: rischio inaccettabile, alto, limitato e minimo. Per ciascun livello, il Regolamento impone specifici requisiti normativi ai quali i fornitori devono conformarsi per garantire un equilibrio tra innovazione e protezione dei diritti fondamentali. Ad esempio, i sistemi ad alto rischio sono soggetti a una rigorosa valutazione di conformità che include la gestione della cybersicurezza, la supervisione umana e un’accurata documentazione tecnica durante tutto il ciclo di vita del sistema.
Tra i principi fondamentali del Regolamento vi è la necessità di una governance responsabile dei dati: la qualità, la rappresentatività e la non discriminazione dei dati utilizzati per l’addestramento dei modelli di intelligenza artificiale devono rispettare elevati standard di affidabilità e riservatezza. È cruciale anche il rispetto del principio di proporzionalità, che richiede che l’uso dell’IA sia calibrato in modo da non sacrificare irragionevolmente i diritti degli individui. Ad esempio, i sistemi di IA che comportano elevati rischi per la dignità e la sicurezza personale, come la sorveglianza biometrica in tempo reale, sono strettamente regolamentati o addirittura vietati.
Il corso esamina inoltre le particolari responsabilità dei fornitori e degli utilizzatori (deployers) dei sistemi di IA, individuati dal Regolamento come i principali soggetti responsabili della conformità dei sistemi immessi sul mercato europeo. I fornitori sono tenuti a implementare un sistema di gestione del rischio iterativo e ad attenersi a rigorose regole di trasparenza e tracciabilità dei modelli di IA. L’utilizzatore, invece, è responsabile della supervisione operativa del sistema, della gestione dei dati generati e della tempestiva comunicazione di incidenti o malfunzionamenti alle autorità competenti.
Un ulteriore approfondimento è dedicato alle raccomandazioni delle Autorità europee per la protezione dei dati, in particolare dell’European Data Protection Board (EDPB), che ha elaborato linee guida volte ad armonizzare i requisiti dell’AI Act con il Regolamento Generale sulla Protezione dei Dati (GDPR).
Il corso include anche l’analisi delle sentenze rilevanti della Corte di Giustizia dell’Unione Europea (CGUE), che definiscono principi giuridici applicabili anche ai sistemi di IA. Tra queste rientrano decisioni sul diritto all’oblio, sulla profilazione e sulla trasparenza dei processi decisionali, che costituiscono le basi di una giurisprudenza volta a tutelare i diritti fondamentali nell’uso dell’IA. Attraverso discussioni guidate, i partecipanti esamineranno casi ispirati a tali sentenze, sviluppando una capacità critica di interpretazione dei principi giuridici e delle loro applicazioni.
Infine, il corso affronta il tema delle sanzioni e delle misure di applicazione, analizzando il sistema sanzionatorio previsto dall’AI Act per la mancata conformità alle disposizioni normative. I partecipanti rifletteranno sul ruolo deterrente delle sanzioni e comprenderanno come la conformità non rappresenti soltanto un obbligo formale, ma un elemento essenziale per la costruzione di un ecosistema di IA coerente con i principi etici e giuridici dell’Unione Europea.
Mirjana Pejic Bach
Inglese
tramite sessioni online