Fintech

Finanza e intelligenza artificiale, la rivoluzione «invisibile»

Le più avanzate tecnologie informatiche sono state da tempo adottate nella finanza, ma finora le evoluzioni non sembrano aver messo a soqquadro il settore come paventato – Con l’avvento dei sistemi GPT, tuttavia, le cose cambieranno
Il settore finanziario è fra quelli più toccati dalla rivoluzione digitale avviata con il nuovo millennio. © CdT/Gabriele Putzu
Dimitri Loringett
20.12.2023 06:00

La data del 30 novembre 2022 è una di quelle destinate a entrare nei libri di storia: quel mercoledì di un anno fa OpenAI lanciò ChatGPT, il chatbot basato su intelligenza artificiale (IA) e apprendimento automatico. Da allora, fiumi d’inchiostro (analogico e digitale) sono scorsi annunciando una rivoluzione che avrebbe cambiato le sorti dell’umanità. Ma, a un anno di distanza, che cos’è cambiato? Nel concreto, non molto. Certo, le rivoluzioni epocali non avvengono da un giorno all’altro, sono processi lunghi, infatti.

Lo sa bene chi si occupa di tecnologia finanziaria (fintech), un ambito considerato anch’esso rivoluzionario ma che sta crescendo forte solo da pochi anni. Secondo McKinsey, nel 2023 la capitalizzazione delle società fintech quotate era di 550 miliardi di dollari, un valore raddoppiato rispetto a tre anni prima, ed entro il 2028 McKinsey stima che i ricavi del settore cresceranno quasi tre volte più velocemente di quelli del settore bancario tradizionale. «Il concetto fintech è stato “venduto” male: una decina d’anni fa si è diffusa l’idea che la fintech avrebbe rivoluzionato la finanza, il sistema bancario ecc., ma finora tale rivoluzione non si è ancora realizzata e, oltretutto, resta “invisibile” al grande pubblico», afferma Laurent Frésard, professore di Finanza all’USI. Secondo Frésard, quello che si osserva, piuttosto, è il cosiddetto «embedded finance», l’integrazione di soluzioni specifiche per la finanza, sviluppate da società altamente innovative (spesso startup), nei processi operativi – per esempio il traffico dei pagamenti – dei vari attori della finanza e dei servizi, come banche, società di gestione patrimoniale, hedge fund, assicurazioni ecc. Ed è così, secondo il professore, che si formano gli «ecosistemi» finanziari, come quello fra banche e assicurazioni. «Si tratta di partnership volute per offrire soluzioni complete, per esempio per il segmento immobiliare, tra mutuo, copertura assicurativa ecc. È un po’ un ritorno del modello bancassicurazione in voga negli anni Novanta, ma oggi con la digitalizzazione questi servizi sono molto meno cari perché integrate a livello di sistemi informatici, tipicamente “as a service” (per esempio sistemi di calcolo dei rischi per stabilire i premi assicurativi o per la concessione di mutui). Non sono visibili, ma ci sono e si trovano nel cosiddetto “back end”», conclude il professore.

Il settore finanziario è uno di quelli che è stato toccato maggiormente della rivoluzione digitale del nuovo millennio e che con l’avvento dell’IA sarà ulteriormente impattata. Si pensi, ad esempio, all’attività di analisi finanziaria e dei mercati, un tempo esclusiva e costosa e oggi diventata quasi una commodity. Come ci spiega l’analista finanziario di Royalfid a Savosa, Roberto Malnati, «l’analisi dei mercati è il frutto di elaborazioni statistico-qualitative che da tempo si possono fare in modo informatizzato e che con la tecnologia e la potenza di calcolo disponibile oggi si possono effettuare quasi in tempo reale». Ne consegue che quest’attività sia diventata «marginale», al contrario dell’attività di compliance che, invece, è esplosa (anche come conseguenza dell’accresciuta complessità normativa). «È la componente più “corposa” del settore – afferma Malnati – che tuttavia può essere gestita, pure essa, dai nuovi linguaggi offerti dall’informatica avanzata, tipo GPT». Ma c’è ancora una componente importante della finanza che, per ora, si salva: il cosiddetto «intrattenimento», come lo definisce Roberto Malnati. «È il “racconto” dei commentatori e analisti su ciò è accaduto e che potrebbe accadere sui mercati. Ma la parte analitica di questo racconto è già svolta in buona parte dai sistemi informatici, anche senza IA, che fanno, per esempio, asset allocation: calcolano il rischio, smontano e montano le posizioni in portafoglio d’investimento ecc.».

«Con i sistemi GPT di prossima diffusione – continua l’analista – prima o poi qualcuno sarà ben felice di essere intrattenuto da un LLM (large language model, ndr). I sistemi GPT svilupperanno tutta una serie di competenze emotive a cui l’essere umano si rivolgerà perché, ormai, ci si sta già abituando. Sarà come avere un vero assistente personale a cui chiedere, per esempio, “che cosa ne pensi del mercato?”, ma presto non risponderà più “non posso parlare del mercato, rivolgiti al tuo promotore finanziario”, come fa oggi. ChatGPT è un sistema ancora generico e non è “istruito” per fornire analisi o commenti di mercato. Ma possiamo pensare che ci saranno dei temi preclusi all’IA in futuro? Credo di no. E da quel momento, quella parte importantissima della finanza che oggi è remunerata molto bene non sarà competitiva con questi strumenti».

Ecco qui allora paventata una dimensione dell’IA che andrà ben oltre l’ormai comune chatbot. Ancora Malnati: «Un’IA ragionevole che parla di mercati e li commenta in termini ragionevoli al momento manca. La tecnologia è già pronta, ma non c’è ancora un’offerta perché non c’è una domanda, che emergerà nel momento in cui l’IA, che oggi è poco più di una curiosità, entrerà a far parte delle nostre vite normalmente». Ma la consulenza agli investimenti è un’attività «emotiva», tocca la realtà (e il portafoglio) delle persone. «l’IA va assolutamente normata, cioè servono delle regole chiare su qual è l’impatto di queste decisioni sulla vita delle persone. Per esempio, concedere o revocare un credito, o altre simili decisioni di compliance che non sono di poco conto per un essere umano. Nella situazione attuale non abbiamo grandi regolamenti».

«Finora l’innovazione è stata più sulle leggi che sull’IA stessa »

Con l’intesa raggiunta lo scorso 8 dicembre, l’UE si è prenota un posto in prima fila nella «corsa» globale alla regolamentazione dell’IA. Ma quella di Bruxelles sarà la via giusta per arrivare, in futuro, a un’IA davvero efficace e utile all’uomo? Giriamo la domanda a Tomas Chamorro-Premuzic, psicologo del lavoro e docente alla University College London (UCL), nonché responsabile dell’innovazione presso ManpowerGroup: «A mio avviso - esordisce - esistono due questioni distinte, che sembrano sovrapporsi sempre meno. La prima è il rapido aumento di leggi e regolamenti (come quelli dell’UE) volti a proteggere dalle applicazioni dannose dell’IA, nonché dai danni alla reputazione delle organizzazioni e della società. La seconda è la “grande promessa” (soprattutto da parte delle Big Tech) dell’IA di rivoluzionare ogni settore e azienda».

Secondo l’esperto, a un anno dal lancio di ChatGPT non si è vista una vera rivoluzione, ma piuttosto «una prospettiva più banale di tagliare i costi e le inefficienze e di usare l’IA per fare le cose in modo più veloce ed economico (e non necessariamente migliore)». In questo stesso periodo - continua - «le normative sono progredite in modo rapido. In un certo senso, l’ultimo anno ha visto più “innovazione” intorno alle normative sull’IA che all’IA vera e propria».

Chamorro-Premuzic resta tuttavia prudente. «C’è sempre stata una tendenza generale a sovrastimare l’impatto a breve termine delle nuove tecnologie dirompenti e a sottovalutare quello a lungo termine. Direi quindi che una grande attività di regolamentazione è probabilmente dettata dal panico, il che va bene, ma è necessaria una regolamentazione intelligente anziché una eccessiva o leggi generalizzate; la regolamentazione sta recuperando terreno, ma a prescindere da essa stiamo vedendo alcune delle prime aspettative sull’IA raffreddarsi un po’».

In conclusione, il nostro interlocutore ritiene che «la regolamentazione è necessaria ma non deve limitare o inibire i progressi dell’IA. E anche se i progressi dell’IA sono stati più lenti del previsto, ciò non è dovuto all’IA, ma semplicemente al fatto che la sua adozione su scala richiede molto più tempo, soprattutto dopo la fase (attuale) di hype».

Una normativa a tutela dei diritti fondamentali dell'uomo

L’Artificial intelligence Act dell’UE è basato sulla classificazione dei rischi sui diritti fondamentali dell’uomo. Il testo distingue quattro fasce di rischio relative ai sistemi (1) «a basso rischio» (la maggior parte dei sistemi di IA, senza obblighi specifici); (2) «ad alto rischio» (con specifici obblighi); (3) a «rischio inaccettabile» (banditi); e (4) a«rischio specifico di trasparenza» (es. il «deep fake», che dovrà essere palesato). Sui modelli che elaborano grandi masse di dati, la normativa prevede una disciplina a due livelli. Se i modelli sono ad alto impatto (primo livello), come GPT 4 e dipendono dal potere di calcolo, occorre una valutazione ex ante da parte degli sviluppatori e una condivisione della documentazione tecnica prima di accedere al mercato. Se non sono ad alto impatto (secondo livello) allora si prevedono obblighi di trasparenza quando si affacciano al mercato europeo.