Artwork

Contenuto fornito da GFT Italy. Tutti i contenuti dei podcast, inclusi episodi, grafica e descrizioni dei podcast, vengono caricati e forniti direttamente da GFT Italy o dal partner della piattaforma podcast. Se ritieni che qualcuno stia utilizzando la tua opera protetta da copyright senza la tua autorizzazione, puoi seguire la procedura descritta qui https://it.player.fm/legal.
Player FM - App Podcast
Vai offline con l'app Player FM !

Dagli algoritmi ClearBox alla Decision Platform. Casi concreti per il settore dei servizi finanziari - Franco Saracco, Banking Sales Director

5:27
 
Condividi
 

Manage episode 282662839 series 2858856
Contenuto fornito da GFT Italy. Tutti i contenuti dei podcast, inclusi episodi, grafica e descrizioni dei podcast, vengono caricati e forniti direttamente da GFT Italy o dal partner della piattaforma podcast. Se ritieni che qualcuno stia utilizzando la tua opera protetta da copyright senza la tua autorizzazione, puoi seguire la procedura descritta qui https://it.player.fm/legal.

Le tecnologie core AI si stanno focalizzando nell’aiutare le organizzazioni a far scalare le loro iniziative, magari partite come POC. In particolare le priorità, sul fronte dei dati e analytics, riguardano ambiti quali, per esempio, la “synthetic data generation” (tecnologie che permettono di ottenere dati di training per i modelli di Machine Learning (ML) in presenza di dati scarsi o incompleti o difficili da recuperare), il rendere operativi e scalabili i progetti di AI, il poter lavorare su use case complessi, utilizzando il concetto di explainability, ovvero il poter spiegare il perché di una particolare predizione. Far scalare le iniziative di AI è spesso complicato sia da sfide strategiche (es. aspetti sociali sull’utilizzo dei dati, etica, privacy) sia da sfide tattiche, ovvero trovare i dati corretti ed integrarli nei processi di business e nelle applicazioni.

Il concetto di Explainability, su cui in GFT lavoriamo da tempo, è di notevole importanza in ambito AI. Infatti, algoritmi predittivi che rendono possibile l’explainability, quali i cosiddetti “Clear Box”, permettono agli utenti di comprendere molto di più circa il processo decisionale, passando da “cosa” un modello predice a “come” il modello predice. Comprendere le ragioni che stanno dietro alle predizioni è molto importante quando si sta valutando la fiducia in un modello ML – se il business non ha fiducia in un modello non lo userà.

  continue reading

4 episodi

Artwork
iconCondividi
 
Manage episode 282662839 series 2858856
Contenuto fornito da GFT Italy. Tutti i contenuti dei podcast, inclusi episodi, grafica e descrizioni dei podcast, vengono caricati e forniti direttamente da GFT Italy o dal partner della piattaforma podcast. Se ritieni che qualcuno stia utilizzando la tua opera protetta da copyright senza la tua autorizzazione, puoi seguire la procedura descritta qui https://it.player.fm/legal.

Le tecnologie core AI si stanno focalizzando nell’aiutare le organizzazioni a far scalare le loro iniziative, magari partite come POC. In particolare le priorità, sul fronte dei dati e analytics, riguardano ambiti quali, per esempio, la “synthetic data generation” (tecnologie che permettono di ottenere dati di training per i modelli di Machine Learning (ML) in presenza di dati scarsi o incompleti o difficili da recuperare), il rendere operativi e scalabili i progetti di AI, il poter lavorare su use case complessi, utilizzando il concetto di explainability, ovvero il poter spiegare il perché di una particolare predizione. Far scalare le iniziative di AI è spesso complicato sia da sfide strategiche (es. aspetti sociali sull’utilizzo dei dati, etica, privacy) sia da sfide tattiche, ovvero trovare i dati corretti ed integrarli nei processi di business e nelle applicazioni.

Il concetto di Explainability, su cui in GFT lavoriamo da tempo, è di notevole importanza in ambito AI. Infatti, algoritmi predittivi che rendono possibile l’explainability, quali i cosiddetti “Clear Box”, permettono agli utenti di comprendere molto di più circa il processo decisionale, passando da “cosa” un modello predice a “come” il modello predice. Comprendere le ragioni che stanno dietro alle predizioni è molto importante quando si sta valutando la fiducia in un modello ML – se il business non ha fiducia in un modello non lo userà.

  continue reading

4 episodi

Tutti gli episodi

×
 
Loading …

Benvenuto su Player FM!

Player FM ricerca sul web podcast di alta qualità che tu possa goderti adesso. È la migliore app di podcast e funziona su Android, iPhone e web. Registrati per sincronizzare le iscrizioni su tutti i tuoi dispositivi.

 

Guida rapida