Intelligenza artificiale in UE

L’intelligenza artificiale (IA) è l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività. IA permette ai sistemi di capire il proprio ambiente, mettersi in relazione con quello che percepisce e risolvere problemi, e agire verso un obiettivo specifico. Il computer riceve i dati (già preparati o raccolti tramite sensori, come una videocamera), li processa e risponde. I sistemi di IA sono capaci di adattare il proprio comportamento analizzando gli effetti delle azioni precedenti e lavorando in autonomia. A ottobre 2020 gli euro-deputati hanno approvato con 559 voti favorevoli, 44 voti contrari e 88 astensioni, delle proposte per regolamentare l’uso dell’Intelligenza Artificiale (AI) nell’UE e promuovere innovazione, norme etiche e fiducia nella tecnologia. L’iniziativa legislativa di Iban García del Blanco (S&D, ES) sollecita la Commissione a presentare un nuovo quadro giuridico che delinei i principi etici e gli obblighi legali da seguire nello sviluppo, nell’implementazione e nell’utilizzo dell’intelligenza artificiale, della robotica e delle tecnologie correlate nell’UE, compresi software, algoritmi e dati. Le tecnologie IA ad alto rischio, come quelle con capacità di autoapprendimento, dovrebbero essere progettate in modo da consentire la sorveglianza umana in qualsiasi momento. Se viene utilizzata una funzionalità che potrebbe comportare una grave violazione dei principi etici e risultare pericolosa, le capacità di autoapprendimento dovrebbero essere disabilitate e dovrebbe essere ripristinato il pieno controllo umano.

Il PE ha anche approvato (con 626 voti favorevoli, 25 voti contrari e 40 astensioni) una iniziativa legislativa riguardo responsabilità per i danni causati dall’IA. Nella risoluzione presentata dal relatore Axel Voss (PPE, DE), si richiede un quadro giuridico in materia di responsabilità civile orientato al futuro, che renda gli operatori IA ad alto rischio oggettivamente responsabili dei danni che ne possono derivare. Un quadro giuridico chiaro contribuirà a stimolare l’innovazione fornendo alle imprese la certezza del diritto. Proteggerà al contempo i cittadini e promuoverà la loro fiducia nelle tecnologie di IA, scoraggiando le attività che potrebbero essere pericolose. La minaccia per la democrazia rappresentata dall’intelligenza artificiale passa per l’informazione. È già stata accusata di creare delle “bolle” in rete, dove i contenuti sono presentati in base ai contenuti con cui l’utente ha interagito in passato, invece di creare un ambiente aperto per un dibattito a più voci, inclusivo e accessibile. Affidarsi all’intelligenza artificiale comporta dei rischi, specialmente quando questa ha la facoltà di prendere decisioni senza la supervisione umana. L’apprendimento automatico si basa sul riconoscimento di modelli all’interno di set di dati. I dati forniti dagli uomini alle macchine possono però riflettere pregiudizi sociali, e in quel caso l’intelligenza artificiale incorporerà gli stessi pregiudizi nel proprio processo decisionale. Le regole dovrebbero essere applicate alle attività di IA fisiche o virtuali che danneggiano o influiscono sulla vita, la salute, l’integrità fisica, il patrimonio, o che causano un rilevante danno immateriale che si traduce in una “perdita economica verificabile”. Sebbene le tecnologie di IA ad alto rischio siano ancora rare, i deputati ritengono che i loro operatori dovrebbero avere un’assicurazione simile a quella per i veicoli a motore.

Una terza proposta legislativa ha avuto come oggetto i diritti di proprietà intellettuale (DPI), la relazione presentata da Stéphane Séjourné (Renew Europe, FR), è stata approvata con 612 voti favorevoli, 66 voti contrari e 12 astensioni. Si ribadisce la leadership globale dell’UE in materia di IA richiede un sistema efficace di diritti di proprietà intellettuale (DPI) e salvaguardie per far sì che il sistema europeo dei brevetti protegga gli sviluppatori innovativi. Secondo i deputati, è importante distinguere tra le creazioni umane ottenute con l’assistenza dell’IA e quelle generate autonomamente dall’IA. L’IA non dovrebbe avere personalità giuridica. La proprietà dei DPI dovrebbe essere quindi concessa solo agli esseri umani. Inoltre, nel testo si approfondisce ulteriormente il tema del diritto d’autore, della raccolta di dati, dei segreti commerciali, dell’uso di algoritmi e del deepfake.

L’intelligenza artificiale (IA) ha un ruolo fondamentale nella trasformazione digitale della società. È difficile immaginare un mondo senza l’utilizzo dell’IA in svariati beni e servizi e molti cambiamenti stanno già avvenendo nel mondo del lavoro, della finanza, della sanità, della sicurezza e dell’agricoltura. L’intelligenza artificiale è un punto centrale nel green deal europeo e nel rilancio dell’economia post COVID-19. Parlando di investimenti, gli USA sono nettamente i primi con un range da € 12,1 a € 18,6 miliardi; Asia € 6,5-9,7; Europa € 2,4-3,2; si valuta un impatto tra i € 6.500 e i € 12.000 miliardi/anno come impatto economico dell’automazione del lavoro e della conoscenza, dei robot e dei veicoli autonomi entro il 2025. Nell’ultimo decennio la richiesta di brevetti è aumentata del 400%, nel periodo 1960-2018 ne sono stati richiesti 1.863 negli USA, 1.085 in Cina, 1.074 nella UE. Proprio per questo il Parlamento ha costituito la commissione speciale sull’intelligenza artificiale in un’era digitale (AIDA) per analizzare l’impatto dell’IA sull’economia dell’Unione europea. Secondo il presidente della commissione AIDA Dragoș Tudorache (Renew, Romania) “L’Europa ha bisogno di sviluppare un’intelligenza artificiale che sia degna di fiducia, in grado di eliminare pregiudizi e discriminazioni e servire il bene comune, di assicurare sviluppo a imprese e industrie oltre a generare benessere economico”.

Anche se le auto a guida autonoma sono ancora rare, le automobili che guidiamo hanno già alcune funzioni di sicurezza che usano l’intelligenza artificiale. L’Unione europea ha ad esempio contribuito a finanziare VI-DAS, i sensori che individuano possibili situazioni pericolose e incidenti. La navigazione è inoltre in gran parte dipendente dall’intelligenza artificiale. attacchi e le minacce informatiche. Lo fanno imparando dal continuo flusso di dati, riconoscendo tendenze e ricostruendo come sono avvenuti gli attacchi precedenti. Nel caso dell’epidemia di COVID19, l’intelligenza artificiale viene usata per i controlli della temperatura nei luoghi pubblici. In medicina, è usata per riconoscere le infezioni a partire da immagini delle TAC dei polmoni. L’IA può anche essere usata per fornire i dati sulla progressione dell’epidemia. Il volume dei dati prodotti nel mondo dovrebbe passare da 33 zettabyte nel 2018 a 175 zettabyte nel 2025. Un zettabyte equivale a mille miliardi di gigabyte. Il 61% degli europei guarda positivamente all’IA e ai robot, ma l’88% pensa che ci voglia una gestione attenta. Tra l’11% e il 37% è l’aumento stimato della produttività del lavoro grazie all’IA e dal 1.5% al 4% la riduzione delle emissioni globali di gas serra entro il 2030. Tutto questo è attribuibile all’uso dell’IA, entro il 2035, secondo uno studio del Parlamento europeo.

©Futuro Europa® Le immagini utilizzate sono tratte da Internet e valutate di pubblico dominio: per segnalarne l’eventuale uso improprio scrivere alla Redazione

Print Friendly, PDF & Email
Condividi

Sii il primo a commentare su "Intelligenza artificiale in UE"

Lascia un commento

Il tuo indirizzo mail non sarà pubblicato


*