Dagli algoritmi ClearBox alla Decision Platform. Casi concreti per il settore dei servizi finanziari - Franco Saracco, Banking Sales Director

5:27
 
Condividi
 

Manage episode 282662839 series 2858856
Creato da GFT Italy, autore scoperto da Player FM e dalla nostra community - Il copyright è detenuto dall'editore, non da Player FM, e l'audio viene riprodotto direttamente dal suo server. Clicca sul pulsante Iscriviti per rimanere aggiornato su Player FM, o incolla l'URL del feed in un altra app per i podcast.

Le tecnologie core AI si stanno focalizzando nell’aiutare le organizzazioni a far scalare le loro iniziative, magari partite come POC. In particolare le priorità, sul fronte dei dati e analytics, riguardano ambiti quali, per esempio, la “synthetic data generation” (tecnologie che permettono di ottenere dati di training per i modelli di Machine Learning (ML) in presenza di dati scarsi o incompleti o difficili da recuperare), il rendere operativi e scalabili i progetti di AI, il poter lavorare su use case complessi, utilizzando il concetto di explainability, ovvero il poter spiegare il perché di una particolare predizione. Far scalare le iniziative di AI è spesso complicato sia da sfide strategiche (es. aspetti sociali sull’utilizzo dei dati, etica, privacy) sia da sfide tattiche, ovvero trovare i dati corretti ed integrarli nei processi di business e nelle applicazioni.

Il concetto di Explainability, su cui in GFT lavoriamo da tempo, è di notevole importanza in ambito AI. Infatti, algoritmi predittivi che rendono possibile l’explainability, quali i cosiddetti “Clear Box”, permettono agli utenti di comprendere molto di più circa il processo decisionale, passando da “cosa” un modello predice a “come” il modello predice. Comprendere le ragioni che stanno dietro alle predizioni è molto importante quando si sta valutando la fiducia in un modello ML – se il business non ha fiducia in un modello non lo userà.

Un episodio