IA, le regole UE

Il Parlamento europeo ha fissato la propria posizione negoziale sull’AI Act (Normativa sull’IA) al fine di assicurare che i sistemi di intelligenza artificiale in uso nell’UE siano sicuri, trasparenti, tracciabili e non discriminatori. Il Parlamento intende creare una definizione neutra e uniforme dal punto di vista tecnologico per l’intelligenza artificiale, che si renda applicabile a tutti i futuri sistemi di AI. In precedenza, era già stata costituita la Commissione speciale sull’intelligenza artificiale in un’era digitale (AIDA) per analizzare l’impatto dell’IA sull’economia dell’Unione europea. La relazione finale della commissione AIDA, adottata dalla plenaria nel maggio 2022, include una proposta per la tabella di marcia dell’UE verso l’IA, un approccio olistico per una posizione comune a lungo termine che mette in evidenza i valori chiave, gli obiettivi e i valori dell’UE relativi all’IA, come affermato dal l’eurodeputato Axel Voss (EPP, DE):   “Con questo rapporto, dimostriamo chiaramente che l’IA sarà un volano per la digitalizzazione e un punto di svolta nella competizione digitale globale“.

L’intelligenza artificiale (IA) è l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività. Permette ai sistemi di capire il proprio ambiente, mettersi in relazione con quello che percepisce e risolvere problemi, e agire verso un obiettivo specifico. Il computer riceve i dati (già preparati o raccolti tramite sensori, come una videocamera), li processa e risponde. I sistemi di IA sono capaci di adattare il proprio comportamento analizzando gli effetti delle azioni precedenti e lavorando in autonomia. Pensiamo agli assistenti digitali, ai motori di ricerca, lo shopping online, i traduttori automatici, i termostati intelligenti.

La trasformazione digitale è una delle priorità principali dell’UE e il Parlamento europeo contribuisce a creare le politiche per rafforzare i mezzi a disposizione dell’Europa nel campo delle nuove tecnologie digitali, offrire nuove opportunità ad aziende e consumatori, permettere la transizione verde dell’UE e la neutralità carbonica entro il 2050, creare occasioni di formazione digitale per cittadini e lavoratori, e aiutare la digitalizzazione dei servizi pubblici rispettando diritti e valori fondamentali.

L’IA può portare molti benefici, ad esempio una migliore assistenza sanitaria, trasporti più sicuri e puliti, una produzione più efficiente e un’energia più conveniente e sostenibile; ma presenta anche dei rischi se non regolamentata. Per questo l’UE l’ha inserita all’interno della sua strategia digitale per regolamentarne lo sviluppo e l’implementazione al fine di garantire le  migliori condizioni per lo sviluppo in un quadro sicuro di questa innovativa tecnologia. Il successo nello sviluppo dell’intelligenza artificiale in Europa, dipende in larga misura da una strategia europea per i dati che funzioni. Il Parlamento vuole che la Agenda europea per le competenze conosce il potenziale dei dati industriali e pubblici per le aziende e i ricercatori dell’UE e richiede uno spazio dati europeo, un’infrastruttura per i big data e una legislazione che contribuisca all’affidabilità.

Nell’aprile 2021, la Commissione ha proposto il primo quadro normativo dell’UE sull’IA; proponendo che i sistemi di intelligenza artificiale utilizzabili in diverse applicazioni siano analizzati e classificati in base al rischio che rappresentano per gli utenti. I diversi livelli di rischio comporteranno una maggiore o minore regolamentazione, attraverso nuove regole che stabiliscono obblighi per fornitori e utenti; molti sistemi di intelligenza artificiale comportano un rischio minimo, ma devono essere valutati. In questo caso dovrebbero rispettare requisiti minimi di trasparenza che consentano agli utenti di prendere decisioni informate e lasciare la possibilità all’utente di decidere se desidera continuare a utilizzarle. Gli utenti dovrebbero essere informati quando interagiscono con l’IA; includendo i sistemi di intelligenza artificiale che generano o manipolano contenuti di immagini, audio o video (ad esempio deepfake).

ll PE vuole specificare una definizione tecnologicamente neutra e uniforme per l’IA che potrebbe essere applicata ai futuri sistemi di intelligenza artificiale. I sistemi d’intelligenza artificiale sono considerati a rischio inaccettabile, e pertanto vietati, quando costituiscono una minaccia per le persone. Questo può verificarsi nel caso di manipolazione comportamentale cognitiva di persone o gruppi vulnerabili specifici come giocattoli attivati vocalmente che incoraggiano comportamenti pericolosi nei bambini; classificazione sociale delle persone in base al comportamento, al livello socio-economico, alle caratteristiche personali; sistemi d’identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale. Alcune eccezioni potrebbero tuttavia essere ammesse: per esempio, i sistemi di identificazione biometrica a distanza “post”, in cui l’identificazione avviene dopo un significativo ritardo, saranno consentiti per perseguire reati gravi e solo previa autorizzazione del tribunale.

Nel caso di sistemi IA ad alto rischio, che influiscono negativamente sulla sicurezza o sui diritti fondamentali, questi saranno suddivisi in due categorie: i sistemi di intelligenza artificiale utilizzati in prodotti soggetti alla direttiva dell’UE sulla sicurezza generale dei prodotti, ad esempio giocattoli, aviazione, automobili, dispositivi medici e ascensori. La seconda specie include otto aree specifiche in cui i sistemi Ia dovranno essere registrati in un database dell’UE: identificazione e categorizzazione biometrica di persone naturali; gestione e funzionamento di infrastrutture critiche; istruzione e formazione professionale; occupazione, gestione dei lavoratori e accesso all’autoimpiego; accesso e fruizione di servizi privati essenziali e servizi pubblici e vantaggi • forze dell’ordine; gestione delle migrazioni, asilo e controllo delle frontiere; assistenza nell’interpretazione e applicazione legale della legge. Tutti i sistemi di intelligenza artificiale ad alto rischio saranno valutati prima di essere messi sul mercato e durante tutto il loro ciclo di vita.

©Futuro Europa® Le immagini utilizzate sono tratte da Internet e valutate di pubblico dominio: per segnalarne l’eventuale uso improprio scrivere alla Redazione

Condividi
precedente

La missione di Giorgia Meloni a Washington

successivo

Compromessi sposi (Film, 2019)

Rispondi

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *