Artwork

Contenuto fornito da Alex Casalboni. Tutti i contenuti dei podcast, inclusi episodi, grafica e descrizioni dei podcast, vengono caricati e forniti direttamente da Alex Casalboni o dal partner della piattaforma podcast. Se ritieni che qualcuno stia utilizzando la tua opera protetta da copyright senza la tua autorizzazione, puoi seguire la procedura descritta qui https://it.player.fm/legal.
Player FM - App Podcast
Vai offline con l'app Player FM !

Explainable AI: perché è importante comprendere ed interpretare i sistemi basati su intelligenza artificiale (ospite: Paolo Irrera)

28:32
 
Condividi
 

Manage episode 304894956 series 2677140
Contenuto fornito da Alex Casalboni. Tutti i contenuti dei podcast, inclusi episodi, grafica e descrizioni dei podcast, vengono caricati e forniti direttamente da Alex Casalboni o dal partner della piattaforma podcast. Se ritieni che qualcuno stia utilizzando la tua opera protetta da copyright senza la tua autorizzazione, puoi seguire la procedura descritta qui https://it.player.fm/legal.

Cosa significa rendere un modello di machine learning interpretabile, comprensibile, corretto ed equo? Cosa si intende con Fairness AI e quali strumenti sono a disposizione su AWS per identificare e correggere i bias nei dati e nei modelli? In questo episodio intervisto Paolo Irrera dell'Amazon Machine Learning Solutions Lab per parlare di interpretabilità e correttezza dei sistemi basati su intelligenza artificiale e degli strumenti come Amazon SageMaker Clarify che permettono a sviluppatori e data scientist di addestrare e monitorare modelli corretti ed equi. Link: Amazon SageMaker Clarify. Link: Amazon Machine Learning Solutions Lab.

  continue reading

120 episodi

Artwork
iconCondividi
 
Manage episode 304894956 series 2677140
Contenuto fornito da Alex Casalboni. Tutti i contenuti dei podcast, inclusi episodi, grafica e descrizioni dei podcast, vengono caricati e forniti direttamente da Alex Casalboni o dal partner della piattaforma podcast. Se ritieni che qualcuno stia utilizzando la tua opera protetta da copyright senza la tua autorizzazione, puoi seguire la procedura descritta qui https://it.player.fm/legal.

Cosa significa rendere un modello di machine learning interpretabile, comprensibile, corretto ed equo? Cosa si intende con Fairness AI e quali strumenti sono a disposizione su AWS per identificare e correggere i bias nei dati e nei modelli? In questo episodio intervisto Paolo Irrera dell'Amazon Machine Learning Solutions Lab per parlare di interpretabilità e correttezza dei sistemi basati su intelligenza artificiale e degli strumenti come Amazon SageMaker Clarify che permettono a sviluppatori e data scientist di addestrare e monitorare modelli corretti ed equi. Link: Amazon SageMaker Clarify. Link: Amazon Machine Learning Solutions Lab.

  continue reading

120 episodi

Tutti gli episodi

×
 
Loading …

Benvenuto su Player FM!

Player FM ricerca sul web podcast di alta qualità che tu possa goderti adesso. È la migliore app di podcast e funziona su Android, iPhone e web. Registrati per sincronizzare le iscrizioni su tutti i tuoi dispositivi.

 

Guida rapida