MIT, quali rischi dall’intelligenza artificiale

Numerosi sono i vantaggi provenienti dall’intelligenza artificiale: aiutare gli archeologi nella ricostruzione dei reperti, nel campo dell’assistenza agli anziani e non solo, nella scrittura di testi, moltissimi tipi di lavoro e di conseguenza posti di lavoro sono messi a rischio ( Studio della Sloan School of Management del MIT ha sviluppato un esame dei posti di lavoro che potenzialmente hanno più probabilità di subire un impatto dal “machine learning”, cioè da quella tecnologia che permette ai software di auto-addestrarsi e imparare compiti e funzioni senza l’aiuto da parte dell’uomo), ma altrettanti creati da questi cambiamenti così rapidi e innovazioni tanto profonde del mondo produttivo.

E’ in corso una profonda metamorfosi socio-culturale, antropologica ed economica delle nostre Società. Gli algoritmi di intelligenza artificiale stanno acquisendo la capacità di imparare da sole e sono impiegate in sempre più ambiti produttivi: dall’elaborazione di raccomandazioni on line alla previsione e prevenzione dei reati fino al riconoscimento di volti.

Una rivoluzione talmente profonda che in sede UE si è sentita la necessità di redarre un vero e proprio “Codice Etico sull’intelligenza artificiale”. Si tratta di un documento realizzato grazie alla sinergia di 52 esperti del mondo accademico, della società civile, del mondo degli affari e dell’economia che si sofferma soprattutto sulla creazione di una rete e di norme per tutelare e garantire il rispetto dei diritti dell’uomo rispetto alle macchine intelligenti, che non dovrà mai essere danneggiato fisicamente, psicologicamente e finanziariamente, per “salvaguardare la dignità umana”.

L’Europa, del resto, è il continente che, stando all’ultimo Rapporto Ai Index investe più risorse nella ricerca scientifica nel campo dell’IA, con la maggior produzione scientifica di articoli e paper sull’argomento, seconda solo agli Stati Uniti per influenza e rilievo di produzione scientifica.

E proprio le pagine della Rivista Technology Review del Massachusetts Institute of Tecnology hanno ospitato uno Studio in cui sono stati esaminati i pericoli principali e i rischi che possono scaturire da un utilizzo scorretto dell’IA: si va dalle auto a guida autonoma e agli incidenti mortali a cui possono dar luogo; ai brogli nelle elezioni politiche in cui questi software potrebbero essere utilizzati per semplificare e velocizzare le procedure (stiamo parlando dell’utilizzo dei bot, software addestrati ad utilizzare i social media come se si trattasse di persone vere); passando per errori investigativi per la repressione e punizione dei criminali, come ad esempio il riconoscimento facciale; fino ad arrivare alle armi autonome, per le quali all’ONU stanno lavorando alla creazione di un bando; ai “deep fake” video falsi creati con l’intelligenza artificiale in modo talmente perfetto da sembrare veri; e alle discriminazioni di razza e di genere, in cui stando ai dati emersi dagli Studi scientifici, emerge che le macchine possono incorrere con estrema facilità.

In sede europea dopo la formalizzazione di un primo “approccio europeo sull’IA” e l’istituzione di un “gruppo di esperti di alto livello sull’IA” si è costituita l’Alleanza europea sull’intelligenza artificiale e la stesura di un “Piano coordinato dell’UE” con la collaborazione di tutti gli Stati della UE e la “Dichiarazione di cooperazione” in materia di IA e la proposta di investimento di sette miliardi di euro dai programmi Horizon Europe.

Sono numerosissime le questioni etiche e legali legate all’utilizzo dell’IA. La questione non riguarda semplicemente la sicurezza digitale, ma molto di più: la stabilità politica e socio-economica dei Paesi (uno per tutti basti ricordare il crescente utilizzo di software per manipolare l’informazione). L’uomo non potrà mai affidarsi completamente a queste macchine. Occorre affiancare l’adozione e utilizzo delle nuove tecnologie alla formulazione di regole e indirizzi politici con i quali gestire l’intelligenza artificiale, prevenire i potenziali pericoli, coinvolgere i cittadini nei processi decisionali, per un utilizzo corretto e il miglior sfruttamento e utilizzo delle potenzialità offerte dell’IA.

©Futuro Europa® Le immagini utilizzate sono tratte da Internet e valutate di pubblico dominio: per segnalarne l’eventuale uso improprio scrivere alla Redazione

Print Friendly, PDF & Email
Condividi

Sii il primo a commentare su "MIT, quali rischi dall’intelligenza artificiale"

Lascia un commento

Il tuo indirizzo mail non sarà pubblicato


*