Feed ufficiale per seguire il podcast www.caffe20.it/rss Il podcast piu' longevo d'Italia, dal 2008 ! Contenuti pro su www.caffe20.it/membri 30gg gratis poi da 3 euro al mese, ascolti anche da spotify. Ogni giorno alle 8.30, sabato e domenica compresi, 4 minuti di tecnologia e di diritto per chi lavora su internet. Come ? Con semplicita', franchezza e umilta': non siamo dispensatori di verita', siamo ricercatori di soluzioni. Su www.caffe20.it puoi creare la tua playlist per argomento o cons ...
…
continue reading
Contenuto fornito da PointerPodcast. Tutti i contenuti dei podcast, inclusi episodi, grafica e descrizioni dei podcast, vengono caricati e forniti direttamente da PointerPodcast o dal partner della piattaforma podcast. Se ritieni che qualcuno stia utilizzando la tua opera protetta da copyright senza la tua autorizzazione, puoi seguire la procedura descritta qui https://it.player.fm/legal.
Player FM - App Podcast
Vai offline con l'app Player FM !
Vai offline con l'app Player FM !
Pointer[138]: Generatori Di Bias - Con Federico Bianchi
Manage episode 354283473 series 3310957
Contenuto fornito da PointerPodcast. Tutti i contenuti dei podcast, inclusi episodi, grafica e descrizioni dei podcast, vengono caricati e forniti direttamente da PointerPodcast o dal partner della piattaforma podcast. Se ritieni che qualcuno stia utilizzando la tua opera protetta da copyright senza la tua autorizzazione, puoi seguire la procedura descritta qui https://it.player.fm/legal.
📷 Ultimamente avrete sicuramente sentito parlare di modelli generativi di immagini. Potrebbe quasi sembrare che funzionino quasi per magia, tuttavia presentano diversi problemi. Ne parliamo con Federico Bianchi, Postdoctctoral Researcher a Stanford. ⚠️ Questi modelli possono generare infinite immagini ma, considerando che possiamo scrivere infiniti prompt, è possibile che ci siano dei bias. Come possiamo individuarli ed eliminarli? Solitamente si agisce sui dati di training o sul modello? 📣 Il problema dei bias è estremamente importante, anche per le eventuali conseguenze che potrebbero verificarsi a seconda dell' uso che si può fare dei generatori di immagini. Con Federico abbiamo parlato di questo e di tanto altro, Se l'argomento vi incuriosisce non perdetevi la nostra intervista!
…
continue reading
Note della puntata
- Il paper di Federico - Easily Accessible Text-to-Image Generation Amplifies Demographic Stereotypes at Large Scale
- Multimodal datasets: misogyny, pornography, and malignant stereotypes
- Not Yet Human: Implicit Knowledge, Historical Dehumanization, and Contemporary Consequences
- Risk assessment process Open AI
I nostri contatti:
193 episodi
Manage episode 354283473 series 3310957
Contenuto fornito da PointerPodcast. Tutti i contenuti dei podcast, inclusi episodi, grafica e descrizioni dei podcast, vengono caricati e forniti direttamente da PointerPodcast o dal partner della piattaforma podcast. Se ritieni che qualcuno stia utilizzando la tua opera protetta da copyright senza la tua autorizzazione, puoi seguire la procedura descritta qui https://it.player.fm/legal.
📷 Ultimamente avrete sicuramente sentito parlare di modelli generativi di immagini. Potrebbe quasi sembrare che funzionino quasi per magia, tuttavia presentano diversi problemi. Ne parliamo con Federico Bianchi, Postdoctctoral Researcher a Stanford. ⚠️ Questi modelli possono generare infinite immagini ma, considerando che possiamo scrivere infiniti prompt, è possibile che ci siano dei bias. Come possiamo individuarli ed eliminarli? Solitamente si agisce sui dati di training o sul modello? 📣 Il problema dei bias è estremamente importante, anche per le eventuali conseguenze che potrebbero verificarsi a seconda dell' uso che si può fare dei generatori di immagini. Con Federico abbiamo parlato di questo e di tanto altro, Se l'argomento vi incuriosisce non perdetevi la nostra intervista!
…
continue reading
Note della puntata
- Il paper di Federico - Easily Accessible Text-to-Image Generation Amplifies Demographic Stereotypes at Large Scale
- Multimodal datasets: misogyny, pornography, and malignant stereotypes
- Not Yet Human: Implicit Knowledge, Historical Dehumanization, and Contemporary Consequences
- Risk assessment process Open AI
I nostri contatti:
193 episodi
Tutti gli episodi
×Benvenuto su Player FM!
Player FM ricerca sul web podcast di alta qualità che tu possa goderti adesso. È la migliore app di podcast e funziona su Android, iPhone e web. Registrati per sincronizzare le iscrizioni su tutti i tuoi dispositivi.