Giacomo Calzolari (EUI): AI tra rischi e opportunità
Giacomo Calzolari (Ph.D., Università di Tolosa) è professore a tempo pieno presso il Dipartimento di Economia e Provost per la Ricerca e le Relazioni Esterne. In qualità di Provost per la Ricerca e le Relazioni Esterne, il professor Calzolari supervisiona i portafogli di ricerca e relazioni esterne dell’EUI (Istituto Universitario Europeo). Le sue responsabilità includono la promozione e il sostegno del profilo di ricerca dell’EUI e la promozione di partnership istituzionali. Nel suo lavoro sulle relazioni esterne, collabora con il Servizio Sviluppo e Relazioni Esterne (DEXT). Il professor Calzolari è entrato a far parte dell’Istituto nel settembre 2018 provenendo dall’Università di Bologna. È ricercatore presso il Centre for Economic Policy Research (CEPR) e vanta numerose pubblicazioni su riviste di economia e finanza di alto livello. La sua attività di ricerca gli è valsa diversi premi internazionali. È redattore dell‘International Journal of Industrial Organization and European Economy – Banks and Regulation e ha curato Labour: Review of Labor Economics and Industrial Relations. Fornisce consulenza a diverse agenzie nazionali in materia di antitrust e politica della concorrenza ed è membro del gruppo consultivo sulla politica della concorrenza della Commissione europea. Il Prof. Calzolari ha fornito consulenza al Parlamento europeo in materia di intelligenza artificiale e mercati finanziari. La sua attuale ricerca si concentra su intelligenza artificiale, politica della concorrenza, organizzazione industriale, regolamentazione, regolamentazione e vigilanza bancaria ed economia degli incentivi. Lo abbiamo intervistato.
Buongiorno professore, grazie della sua disponibilità. Partiamo dal suo webinar a Prometeia. Una delle prime cose che ha sottolineato è stata che di intelligenza artificiale se ne parla tantissimo, ma in realtà esiste da tanto tempo. Lei ha parlato degli anni ’70, dai navigatori ad altri oggetti, mentre oggi è argomento quotidiano, quindi, in realtà, non era visibile, ma era nella nostra vita già da tempo.
Sì, esatto, confermo. Diciamo che quello che era disponibile erano le idee principali sugli algoritmi, c’erano due tipi di filosofia, fino al 2010, più o meno. C’era un tipo di approccio all’intelligenza artificiale molto più sofisticato rispetto a quello che abbiamo adesso e che produce questi strumenti che sono disponibili come chatg.pt di OpenAI, Gemini di Google, eccetera. In questo approccio, che è precedente a quello che stiamo usando adesso, è un approccio che cercava di utilizzare la logica del ragionamento umano associandola a una base di conoscenza e quindi, per esempio, in ambito medico si caricavano, diciamo tra virgolette, su questi sistemi di intelligenza artificiale le conoscenze mediche che erano note, e quindi le relazioni tra sintomi e patologie, cose di questo genere. Questa base di conoscenza veniva associata a una costruzione algoritmica della logica del ragionamento umano e quindi, fino dagli anni Settanta alla fine degli anni Novanta, la strada che era percorsa da chi si occupava di computer science, di intelligenza artificiale, era questa e in parallelo erano stati anche sviluppati degli altri algoritmi che sono quelli che utilizziamo adesso e che sono alla base di questa rivoluzione che stiamo vedendo. Questi sono invece degli algoritmi che non fanno uso della logica, non fanno uso della conoscenza, fanno grande uso di dati, ma non dati trasformati da informazione a conoscenza. Questo approccio parallelo che si era sviluppato, anche negli anni passati, non era riuscito a svilupparsi fino appunto ai primi anni 2000 perché mancavano macchine sufficientemente potenti per sviluppare questo approccio che in inglese viene chiamato brute force, quindi forza bruta nella soluzione dei problemi. Abbandonando completamente questa idea. di combinare la logica con la conoscenza, si è sviluppato, grazie appunto all’arrivo di questi computer molto potenti, alla capacità di memorizzare database giganteschi, si è sviluppato questo approccio, che è molto meno basato sulla logica e sulla conoscenza, ma che però è estremamente efficace. Da quello che abbiamo già visto adesso, questi sviluppi sono chiaramente molto efficaci e l’aspetto interessante è che siccome questo approccio moderno è così efficace, non ha alla sua base. dei principi basati sulla logica e sulla conoscenza, ha la caratteristica che facciamo molta fatica ad interpretare, a capire, perché questi nuovi algoritmi si comportano in un modo piuttosto che in un altro. Quindi c’è questo problema, di cui ho accennato alla presentazione brevemente, della difficoltà di interpretare questo nuovo tipo di algoritmi, che risultano quindi essere delle scatole chiuse. C’è tutto un problema parallelo di cui si stanno occupando i computer scientist, ma anche che si occupa di politiche di regolamentazione, che è quello di interpretare e cercare di interpretare il funzionamento degli algoritmi di questa nuova classe molto potente di algoritmi.
C’è l’impressione che non inventino qualcosa, ma visto che si basano su set di dati esistenti, facciano cose che si facevano già, ma molto più velocemente. Ad esempio, al webinar, lei aveva portato l’esempio sui prezzi con i due agenti che si fanno concorrenza: una volta, negli anni ’80, andavano in giro i commerciali per i supermercati a vedere i prezzi finali. Il risultato era quello di allineare i prezzi, adesso l’algoritmo lo fa molto più velocemente. Ma potremmo dire, non so, fotografie che adesso (invece che con Photoshop e ci lavori un’ora) con l’intelligenza ci si mette un minuto.
Da una parte sì, c’è sicuramente questo aspetto. Entrambi gli esempi che ho presentato a Prometeia, di fatto sono esempi che mostrano la capacità di AI di replicare attività tipiche umane. Una, appunto, è la capacità di fissare i prezzi in modo intelligente e la capacità di fissare i prezzi in modo intelligente significa, nel caso specifico, addirittura capire che cosa significa l’interazione competitiva all’interno di un mercato. Quindi un approccio particolarmente sofisticato a questa decisione di prezzi, fino al punto di arrivare che in certe condizioni potrebbe convenire a chi vende di evitare di farsi troppa concorrenza e quindi mettersi d’accordo. Questa è un’attività che esiste da quando esistono i mercati, è un tipo di comportamento che esiste da quando esistono i mercati, è sanzionata dal diritto e dalle norme antitrust. Gli umani lo sanno, ne sono consapevoli e i manager che anche oggi, in modo più o meno nascosto, cercano di accordarsi, lo fanno in modo consapevole, sapendo che stanno violando la legge e quindi questa è una delle ragioni per le quali esistono le autorità antitrust, precisamente per combattere la collusione. In quel caso, nel caso degli algoritmi, quello che è sorprendente è che questi algoritmi abbiano la capacità di apprendere questo tipo di comportamento, non solo molto velocemente nel caso specifico del mercato nel quale lavorano, nel quale operano, ma direi più in generale, è quello che sorprende è la capacità di. comprendere il funzionamento di un mercato senza averne nessun tipo di esperienza. Queste macchine hanno questa capacità, veramente sorprendente, di diventare esperti senza esserlo. Un manager ha bisogno di 30, 40 anni per diventare esperto sul mercato, sul proprio mercato. Queste macchine sono in grado di farlo nel giro di qualche minuto. C’è questo primo aspetto, che a mio avviso è sorprendente, di replicare semplicemente il comportamento umano esperto, e questo credo che sia un aspetto importante. Non è il comportamento umano medio, è il comportamento umano di chi si occupa di certe attività come esperto. Il passo successivo che, secondo me, è potenzialmente sia molto interessante, ma anche da un punto di vista della regolamentazione, potenzialmente preoccupante, è che in alcuni casi, e ci sono già episodi che conosciamo, questi algoritmi sono in grado di apprendere qualche cosa che noi umani non abbiamo mai visto. Questo, evidentemente, è un risultato potenzialmente molto positivo se, per esempio, queste scoperte si riferiscono a nuove molecole, come nel caso di questa azienda che è stata acquisita da Google, si chiama Deep Mind, è una delle aziende più avanzate che si occupa di ricerca di intelligenza artificiale. Sono state in grado di produrre un algoritmo, che si chiama Alpha Fold, che è in grado di scoprire nuove molecole che hanno proprietà interessanti, per esempio, ai fini della produzione di nuovi farmaci innovativi. In questo caso sono stati in grado di identificare qualcosa di cui non avevamo alcuna idea, quindi non di replicare qualcosa di noto, ma di produrre qualcosa di completamente nuovo. E un altro episodio interessante, è quello di un algoritmo sempre prodotto da questa società che è Deep Mind, sono stati in grado di sviluppare un algoritmo che senza alcuna conoscenza preliminare è stato in grado di sconfiggere nel gioco da tavola che si chiama Go, un gioco cinese particolarmente complicato che ha un numero di mosse molto più alto di quello che c’è per esempio nel gioco degli scacchi. È stato in grado di sconfiggere il campione internazionale umano che era un coreano, la cosa più sorprendente non è tanto il fatto che sia stato in grado di sconfiggerlo nel giro di qualche mese di addestramento; ma che ha utilizzato delle strategie per vincere che non si erano mai viste. Lei sa che nel gioco degli scacchi, anche nel gioco del Go, ci sono delle strategie specifiche, note, che i master utilizzano per migliorare le proprie posizioni. In questo caso questo algoritmo ha utilizzato delle strategie e sono state interpretate dagli esperti come una assoluta novità nell’approccio strategico del gioco. Da una parte è vero che, in molte occasioni, per la maggior parte di ciò che abbiamo visto, questi algoritmi stanno replicando attività umane e finché ci limitiamo a questo aspetto, ad utilizzare queste macchine per sostituire il lavoro umano, magari in modo più efficiente, non possiamo sperare che queste questa tecnologia abbia un impatto molto significativo sulle nostre economie. Ma è abbastanza chiaro che saranno in grado nel giro di, a mio avviso già adesso o nel giro di qualche anno, di produrre in modo significativo attività e scoperte che non erano disponibili a noi umani.
Io ho fatto delle prove con i vari programmi di AI, Gemini, chatg.pt, Copilot, DeepSeek, Grok, che inserendo lo stesso input, si ottengono risposte diverse, ma diverse anche nel senso che, ad esempio, Chat.gpt o Gemini, su temi politici, anche banali, delle volte dicono no, è politica, non posso risponderti o non so, uguale per la chiave sesso. Mentre altri, come Grok, ti dicono qualunque cosa. Quindi, c’è una forma che, al di là di avere risposte diverse a seconda di quale si usa, anche una forma di censura? Non so se questo possa essere positivo o preoccupante. Perché dare queste forme di censura dei programmi che poi si vanno a usare?
Questo è un aspetto molto importante e molto interessante che si riferisce alla governance e alle politiche di questi strumenti. Le risposte eterogenee che adesso questi strumenti restituiscono sono dovute al fatto che all’interno degli algoritmi, ciascuna di queste aziende ha inserito dei vincoli che limitano certi ambiti, certi tipi di risposte. Queste chat che noi usiamo, che di fatto non sono altro che delle interfacce rispetto ai modelli, agli algoritmi che stanno dietro queste interfacce; hanno dei filtri che impediscono all’algoritmo di proporre risposte che gli sviluppatori delle aziende non siano, per una ragione o per l’altra, adeguate. E da questo punto di vista mi verrebbe da dire che anche questa è una grande novità, questa diffusione così veloce di questi strumenti è una novità assoluta. Se lei pensa a come si sono sviluppate le masse di utenti dei social network e alla velocità con la quale chat.gpt ha preso 100 milioni di user, se non ricordo male, in un mese, è una novità assoluta. Da un certo punto di vista, il fatto che chi ha resi disponibili sul mercato questi strumenti alle masse abbia. a un certo punto, contrariamente all’inizio, pensato che fosse una buona idea mettere qualche filtro. Credo che tutto sommato è un’indicazione del fatto che ogni tanto l’autoregolamentazione all’interno dei mercati può funzionare. Dall’altra parte è certo che, siccome questi algoritmi sono in mano ad aziende, da una parte questi filtri sono utili, dall’altra possono effettivamente rappresentare, di fatto, delle censure. Non solo sono in mano ad aziende private che, ovviamente, hanno degli incentivi che non sono necessariamente completamente allineati agli incentivi di una di una società, ma talvolta ci sono, come nel caso della Cina, delle relazioni così strette tra le aziende che sviluppano questi strumenti e i governi, che le censure diventano di fatto non delle censure, di aziende, ma che diventano delle censure di governo. Si sa che, per esempio, gli algoritmi di intelligenza artificiale in Cina non rispondono a certi temi di politica che possono risultare sconvenienti per il governo cinese. Questi strumenti sono sviluppati da aziende che hanno motivazioni che non sono necessariamente del tutto allineate con le con le motivazioni di una società e la cosa più preoccupante, è la velocità con la quale si sviluppa questa tecnologia. Le faccio un esempio, quando l’Unione Europea ha cominciato a discutere ormai, 7-8 anni fa, se non ricordo male, l’Artificial Intelligence Art, che poi è stato passato recentemente; l’ultima versione che era disponibile e che stava per essere licenziata dall’Unione, non aveva nessuna indicazione relativa ai modelli Large Language Model, che sono i modelli che usiamo come base al giorno d’oggi nei vari strumenti. Chi si era occupato di preparare la versione preliminare di questo atto, questa nuova legge e regolamentazione europea, non era a conoscenza di questi sviluppi. Questo è un esempio della difficoltà di combinare la libera impresa delle aziende che hanno l’obiettivo di sviluppare velocemente, di acquisire posizioni rilevanti all’interno di questi mercati, dall’altra parte quella di cercare di capire come limitare o regolare eventuali problemi che possono sorgere. Questo è un problema, nel caso dell’intelligenza artificiale, particolarmente acuto, pur non essendo, ovviamente, una novità assoluta, perché tutte le volte che abbiamo tecnologie innovative che si sviluppano velocemente ci si trova di fronte a problemi di questo genere. In questo caso è ancora più significativo perché, indubbiamente, la tecnologia si sta sviluppando molto velocemente.
Riguardo l’atto di che richiamava adesso sulla regolamentazione europea, si parla spessissimo del ritardo dell’Europa rispetto agli Stati Uniti nell’intelligenza artificiale. Ad esempio, sempre nei test che ho fatto su vari programmi, Mistral, che dovrebbe essere quello più avanzato a livello europeo, i risultati che restituisce sono apparentemente decisamente e nettamente inferiori ai concorrenti. Effettivamente sembra che ci sia molto ritardo su questo aspetto tra Europa e Stati Uniti.
Sicuramente l’Europa è in una posizione, per il momento, non preminente in questo mercato. I due principali player sono gli Stati Uniti, più che gli Stati Uniti, le aziende nordamericane e quelle cinesi. L’Europa ha alcune aziende che sono all’avanguardia, ma che al momento non hanno prodotto dei modelli particolarmente innovativi. Questo è un mercato molto in evoluzione, la tecnologia stessa è molto in evoluzione. Se dovessi dire che è impossibile immaginare che anche una sola di queste aziende, non particolarmente famose o note oggi, potrebbe diventare in futuro un player dominante, non lo escluderei. Perché la tecnologia si sta ancora sviluppando molto velocemente, questa strada che è stata imboccata recentemente dei large language model, questi modelli giganteschi con miliardi di parametri che vengono affinati in questo processo di allenamento e che utilizzano delle mole di dati sterminate. Questo approccio basato su di un approccio macro, non è, necessariamente, la strada definitiva per lo sviluppo di questa tecnologia, è la direzione che sicuramente ha recentemente prodotto degli sviluppi che sono tangibili, utilizzabili, fruibili anche da non esperti. Come dicevo anche alla durante la presentazione a Prometeia, la maggior parte delle applicazioni di AI che potranno avere un impatto sulle nostre economie in modo molto significativo, e probabilmente più pervasivo, sono applicazioni specifiche alle necessità specifiche di ciascuna azienda. In questo caso non c’è necessariamente bisogno di modelli enormi macro. Anche modelli molto più piccoli, ma specializzati, potranno risultare essere, probabilmente, l’approccio giusto in particolari contesti. Il fatto che l’Europa, al momento sia chiaramente indietro rispetto allo sviluppo di questi macro modelli, non significa necessariamente che non sarà o non potrà essere un soggetto rilevante.
Un ‘altro aspetto sempre legato a questo, fra Europa e Stati Uniti e l’intelligenza artificiale, è arrivata una notizia proprio in questi giorni sul discorso del cloud, perché i dati comunque stanno sul cloud e le aziende che hanno il cloud sono praticamente tutte americane. L’Europa ha iniziato adesso a lanciare un programma per creare un cloud europeo e gestire i propri dati. Anche questo è un altro problema che si va a inserire nel quadro generale.
Sì, i cloud sono una componente della filiera dell’intelligenza artificiale, ne avevo accennato brevemente alla presentazione. La filiera ha diversi elementi, uno di questi è il cloud, sta praticamente tra l’hardware e i dati. I cloud sono effettivamente, dal mio punto di vista, io mi occupo, oltre che di intelligenza artificiale, di politica della concorrenza e regolamentazione dei mercati. Guardando tutti i diversi elementi della filiera dell’intelligenza artificiale, quindi dall’hardware, cloud, i dati, i modelli, cioè gli algoritmi e poi le specifiche applicazioni, la parte che a mio avviso, al momento, potrebbe risultare la parte potenzialmente più a rischio dal punto di vista della concentrazione dei mercati, del potere di mercato e precisamente quella del cloud. Ci sono delle fortissime economie di scala e anche di scopo, che significa sostanzialmente che se io mi occupo nel cloud di attività diverse ho dei vantaggi di costo molto significativi e quindi non stupisce che i principali operatori di cloud attualmente siano Amazon e Microsoft a livello globale. Questa presenza di economie di scala e di scopo può portare effettivamente a una forte concentrazione di mercato e quando ci sono queste forze economiche, riuscire ad entrare in un mercato, come per esempio sta cercando di fare l’Europa, può risultare difficile. Però, di nuovo, non è impossibile. Sono mercati dove, probabilmente, ci sono quello che gli economisti chiamano effetti di rete, che sono questi effetti che possono ridurre i costi o aumentare il valore dei servizi e dei prodotti, quanti più sono i soggetti che fanno utilizzo dei servizi di cloud e questi effetti di rete tendono a concentrare i mercati. È una delle caratteristiche che abbiamo visto negli anni passati con le piattaforme digitali. Le piattaforme digitali sono mercati fortemente concentrati, precisamente perché sono caratterizzati da effetti di rete. Ora, è vero che quando il meccanismo degli effetti di rete viene avviato, a quel punto è difficile entrare sul mercato, ma al momento non siamo ancora in questo stadio. E quindi c’è ancora lo spazio, a mio avviso, per entrare e non credo che la finestra sia molto ampia. Secondo me qui stiamo parlando di 5 anni al massimo, oltre i quali l’industria sarà a quel punto consolidata, almeno per alcune parti della filiera, compreso quella del cloud. E quindi se l’Europa si muove velocemente, secondo me c’è ancora spazio.
Quindi, uno dei problemi principali che di cui parlano tutte le persone normalmente è la paura, questo timore dell’intelligenza artificiale che possa rubare il lavoro e così via. Ad esempio, nel suo webinar, alla fine l’impatto sulla possibile diminuzione della forza lavoro mi sembra fosse molto ridotto in realtà; quindi, potrebbe essere più opportunità che un timore.
Questo è un tema ovviamente molto delicato. L’impatto in termini di capacità di sostituire certe funzioni umane, mi riferisco nello specifico ad attività lavorativa all’interno delle imprese o in generale all’interno delle attività economiche, ci sarà sicuramente, non c’è dubbio su questo. Detto questo, non sarà necessariamente dirompente nella misura in cui, come dicevo alla presentazione, i vantaggi di costo che un’impresa può ottenere sostituendo lavoro a macchine sono dell’ordine del 20, 30%, che non è una quota irrilevante, ma non è neanche una quota necessariamente così significativa da comportare dei cambiamenti radicali nell’organizzazione e nel funzionamento delle imprese. Sicuramente avrà un impatto molto importante e non irrilevante, ma al tempo stesso non sarà un cambiamento radicale. Ci sono due aspetti che vanno assieme da questo punto di vista, da una parte l’impatto sul lavoro ci sarà di sostituzione del lavoro e al tempo stesso, dal momento che i risparmi, i guadagni di costo che si possono ottenere non sono radicali, questo impatto dell’intelligenza artificiale sul funzionamento delle nostre economie non sarà particolarmente significativo. Nella mia presentazione a Prometeia ho citato le previsioni fatte dal premio Nobel Daron Acemoglu che sostiene che non possiamo aspettarci degli impatti molto significativi, fintanto che rimaniamo appunto nell’area della sostituzione. Lui cita, dal 6 al 7% dell’incremento del PIL in 10 anni, che sono veramente variazioni minime. La grande novità, il grande cambiamento, potenzialmente anche epocale, come avviene per le rivoluzioni in ambito economico, potrebbe avvenire se si innesca questo meccanismo, di complementarità, invece che semplicemente sostituzione. Complementarità significa che ci possiamo aspettare da una nuova tecnologia che ci permetta di inventare, di capire nuovi processi, nuovi prodotti; che altrimenti non sarebbero stati disponibili. Se si tratta di sostituire attività umane, sicuramente ci saranno dei vantaggi, ma non saranno dei vantaggi radicali. Quando si tratterà, se si tratterà, di trovarci di fronte a innovazioni che gli esseri umani non sono in grado, non sarebbero stati in grado di ottenere, allora lì potremmo avere degli impatti sul funzionamento dei mercati economici molto più significativi, ai livelli delle tecnologie più significative, che abbiamo sperimentato. Diciamo giusto per avere un termine di paragone, ci sono previsioni sull’impatto dell’intelligenza artificiale per cui, qualora si innescasse questo meccanismo di complementarità, e lo stiamo già vedendo, che nel giro di vent’anni potrebbe portare a un incremento del PIL anche dal 15 al 20%. Tenendo conto che ci sono diverse stime sull’impatto che la tecnologia dell’information technology ha prodotto a partire dagli anni 80 in avanti, in base a cui nel giro di 20-25 anni, le stime sono intorno al 13-14%. Potenzialmente è una tecnologia che potrebbe avere un impatto molto superiore a quello del dell’ICT.
Ma se le stime fossero queste di incremento del PIL, potremmo essere davvero a rischio di una bolla tecnologica sulla AI. Per esempio, qualche giorno fa sono usciti dati previsionali sull’America molto ottimistici per il 2026, parlavano del 50-60%, numeri su cui conta Trump, incremento che sarebbe fondato sulla AI. Per non parlare degli investimenti, proprio ieri la Cina stava comprando 12 miliardi di chip Nvidia, se glieli vendono. Ecco, ci sono investimenti enormi. Se l’aumento del PIL sarà nelle stime di Acemoglu, forse 10-15%, potrebbe essere un fattore molto a rischio di bolla.
Decisamente, se rimane una tecnologia di sostituzione delle attività umane, questa è sicuramente una bolla speculativa, non c’è dubbio. Se invece si innesca quest’altro percorso di complementarietà, allora non sarà una bolla e sarà una General Purpose Technology come ICT, come Information Technology, come l’elettricità, e in quel caso gli investimenti che stiamo vedendo adesso si giustificherebbero ampiamente. Se uno volesse cercare di capire quale delle due strade stiamo imboccando, potremmo dire che sicuramente è stata imboccata la strada della sostituibilità. Per esempio, ai processi di selezione, ormai quasi tutte le aziende fanno un primo screening nella selezione dei candidati per assumere lavoratori attraverso strumenti di intelligenza artificiale, cosa che facevano in passato i reparti delle risorse umane. Questo è un esempio di sostituzione. Quindi, questo percorso è già stato imboccato. Se rimaniamo su questo indirizzo allora siamo di fronte a una bolla speculativa. Per cercare di capire se questo è quello che si sta vedendo e non c’è nient’altro, bisognerebbe cercare di seguire questi sviluppi particolarmente innovativi attraverso i quali l’intelligenza artificiale ci fornisce qualcosa di completamente nuovo, che non avevamo mai visto. Ho fatto qualche esempio poco fa, non sono tantissimi al momento, ma qualche esempio lo stiamo già vedendo. Se la tecnologia si trasforma e diventa principalmente uno strumento di innovazione, allora il percorso sarà completamente diverso e non sarà una bolla. Poi si sa, con le bolle speculative è anche una questione di timing, quindi magari la tecnologia ha le potenzialità, come è stato per esempio per le tecnologie digitali. Con le tecnologie digitali siamo passati prima attraverso una bolla, poi le tecnologie digitali hanno mostrato il loro valore negli anni successivi alla bolla. Quella è stata una questione di timing, perché non hanno offerto in tempi sufficientemente rapidi quel valore che poi negli anni successivi hanno prodotto, perché è indubbio che le piattaforme digitali hanno generato dei servizi estremamente utili e di grande valore.
Sì, non so se l’intelligenza artificiale valuta anche l’avidità dell’uomo, perché noi abbiamo visto negli anni anche i bond argentini quando ti promettono rendimenti incredibili e poi la gente si lascia toccare nel vivo, insomma, quando sarebbe meglio la prudenza. Questo una battuta per chiudere.
Sarebbe interessante cercare di capire se, con uno strumento di intelligenza artificiale non manipolato, quindi che risponde alle domande in relazione ai possibili investimenti di un risparmiatore, se uno strumento di intelligenza artificiale possa essere più o meno affidabile di un promotore finanziario. Magari informato un poco velocemente e magari che utilizza degli incentivi aziendali di budget che lo portano a proporre strumenti che non sono necessariamente adatti al cliente che ha di fronte. No, a mio avviso non è ovvio, già adesso quali dei due approcci possa risultare più sicuro e conveniente per un piccolo risparmiatore? No, non saprei dire a questo punto.
©Futuro Europa® Riproduzione autorizzata citando la fonte. Eventuali immagini utilizzate sono tratte da Internet e valutate di pubblico dominio: per segnalarne l’eventuale uso improprio scrivere alla Redazione
