Anche i robot hanno pregiudizi

L’Intelligenza artificiale è sempre più parte integrante della vita che ci circonda e sarà sempre più difficile pensare di farne a meno: per ricostruire video attraverso la creazione di un sistema che fosse in grado di riempire i vuoti di un filmato utilizzando solo pochi frame a disposizione; pantaloni robotici che aiutano gli anziani a camminare o che, comunque, agevolino i movimenti delle persone con problemi di mobilità; ancora robot che riconoscono gli oggetti senza averli mai visti e che riconoscano e prendano oggetti fino a quel momento sconosciuti o piuttosto reti neuronali artificiali che dopo essere state “addestrate” riconoscano l’avvicinarsi di sismi utilizzando un database contenente le informazioni di oltre 100.000 sismi realmente avvenuti. Ha un enorme potenziale ancora non totalmente conosciuto e padroneggiato dagli studiosi, può trasformare la vita dell’uomo, semplificandola, ma, ugualmente enorme è il potenziale di pericolosità che racchiude in sé ancora, per giunta, neanche completamente esplorato.

Nuovi Studi scientifici, che attualmente, però, restano ancora solo sul piano teorico, puramente speculativo, condotti da ricercatori dell’Università di Cardiff e del Massachusetts Institute of Technology di Boston, pubblicato sulla Rivista Scientific Reports, dimostrano che i robot possono sviluppare pregiudizi in modo autonomo, scegliendo di adottare comportamenti psicologico-intellettuali, appresi o dai propri simili o dall’uomo, che renderebbero le macchine vittime degli stessi errori cognitivi in cui può incorrere l’uomo.

Si tratta di uno Studio in cui attraverso algoritmi o modelli matematici si provano a simulare interazioni sociali fra singoli siano essi macchine o umani. Sono state realizzate tantissime simulazioni al computer il cui risultato è stato di dimostrare come la “scelta del pregiudizio” verso un soggetto terzo sia un tipo di scelta/decisione che non richiede un alto livello di abilità cognitiva e, per questo motivo, un comportamento disfunzionale in cui facilmente i robot, che ancora, malgrado gli enormi e rapidissimi progressi di costruzione e avanzamento tecnologico di cui sono stati protagonisti, possono “scegliere” di adottare in modo verosimilmente realistico. E sono quelli più comuni relativi al genere, alla razza e alla religione i principali ad essere oggetto di attenzione da parte dei ricercatori.

Semplificando,  di cosa si tratta? Non sono altro, i pregiudizi dei robot, che “biased” (informazioni pregiudizievoli o errori cognitivi) che gli algoritmi basati sul “machine learning”, che rappresentano l’intelligenza e i circuiti neuronali delle macchine, possono acquisire e adottare “contaminando” milioni e milioni di scelte e decisioni che l’uomo li ha autorizzati a prendere o adottare nelle innumerevoli funzioni che li abbiamo delegati ad assolvere.

Vediamo quindi che i pericoli che questi potranno procuraci o creare diventeranno infiniti. Si tratta, alla fine, di una questione di “sicurezza”, infatti se forniamo a questi sistemi dati “compromessi” saranno essi stessi compromessi: il dato positivo e che si è dimostrato che le macchine non sono ancora in grado di sviluppare pregiudizi in modo autonomo e volontario.

Più lo scambio di informazioni e di dati avvieni in ambienti ristretti e più aumenta la probabilità che si sviluppino “conoscenze falsate”, mentre l’apertura farebbe sì che, inversamente, diminuisca la possibilità che tali distorsioni si possano sviluppare, grazie, anche, all’aumento di dati/informazioni da incrociare e da cui questi potranno poi sviluppare/creare nuovi algoritmi o “circuiti di pensiero”.

Ma non solo. Più l’utilizzo dei robot si espanderà anche a settori e in campi intellettuali cosiddetti “tecnici” come possono essere il diritto o la medicina più assumerà concretezza un altro grave pericolo: quello causato da persone che senza avere competenze tecnico professionali in questi settori intellettuali specifici si occuperanno della gestione di questi sistemi. Quello che accadrà sarà che là dove verrà meno la preparazione e la competenza umana nella gestione del sistema meccanico sarà lasciato spazio libero all’autonoma “volontà” o “libero arbitrio del sistema meccanico” e un modello matematico deciderà in nome e per conto della mente umana, che non è stata in grado di gestirlo e padroneggiarlo per inadeguatezza della propria preparazione e competenza professionale e che acquisirà il controllo delle nostre esistenze.

In definita, dallo Studio risulta che nel trasferire informazioni/conoscenze a sistemi meccanici creati dall’uomo sia fondamentale, non solo curare la competenza di coloro che dovranno occuparsene, ma trovare il modo di far apprendere loro, anche, sistemi etico-valoriali in modo che esse, poi, nello sviluppo degli algoritmi/sistemi neuronali di pensiero, possano poi operare la selezione del dato informativo ricevuto migliore oltre che eticamente più appropriata.

La denuncia dei ricercatori vuole essere quindi che, data la diffusione che si sta verificando dello “bias algoritmico” in molti settori occorra, quanto prima, identificarlo e correggerlo, correndo ai ripari soprattutto per quanto concerne la preparazione e capacità professionale di quanti siano destinati ad occuparsi di questi sistemi algoritmici neuronali: i cosiddetti robot.

©Futuro Europa® Le immagini utilizzate sono tratte da Internet e valutate di pubblico dominio: per segnalarne l’eventuale uso improprio scrivere alla Redazione

Print Friendly, PDF & Email
Condividi

Sii il primo a commentare su "Anche i robot hanno pregiudizi"

Lascia un commento

Il tuo indirizzo mail non sarà pubblicato


*