Contenuto fornito da PyTorch, Edward Yang, and Team PyTorch. Tutti i contenuti dei podcast, inclusi episodi, grafica e descrizioni dei podcast, vengono caricati e forniti direttamente da PyTorch, Edward Yang, and Team PyTorch o dal partner della piattaforma podcast. Se ritieni che qualcuno stia utilizzando la tua opera protetta da copyright senza la tua autorizzazione, puoi seguire la procedura descritta qui https://it.player.fm/legal.
Player FM - App Podcast
Vai offline con l'app Player FM !
Vai offline con l'app Player FM !
Intro to distributed
Manage episode 296991575 series 2921809
Contenuto fornito da PyTorch, Edward Yang, and Team PyTorch. Tutti i contenuti dei podcast, inclusi episodi, grafica e descrizioni dei podcast, vengono caricati e forniti direttamente da PyTorch, Edward Yang, and Team PyTorch o dal partner della piattaforma podcast. Se ritieni che qualcuno stia utilizzando la tua opera protetta da copyright senza la tua autorizzazione, puoi seguire la procedura descritta qui https://it.player.fm/legal.
Today, Shen Li (mrshenli) joins me to talk about distributed computation in PyTorch. What is distributed? What kinds of things go into making distributed work in PyTorch? What's up with all of the optimizations people want to do here?
Further reading.
- PyTorch distributed overview https://pytorch.org/tutorials/beginner/dist_overview.html
- Distributed data parallel https://pytorch.org/docs/stable/notes/ddp.html
83 episodi
Manage episode 296991575 series 2921809
Contenuto fornito da PyTorch, Edward Yang, and Team PyTorch. Tutti i contenuti dei podcast, inclusi episodi, grafica e descrizioni dei podcast, vengono caricati e forniti direttamente da PyTorch, Edward Yang, and Team PyTorch o dal partner della piattaforma podcast. Se ritieni che qualcuno stia utilizzando la tua opera protetta da copyright senza la tua autorizzazione, puoi seguire la procedura descritta qui https://it.player.fm/legal.
Today, Shen Li (mrshenli) joins me to talk about distributed computation in PyTorch. What is distributed? What kinds of things go into making distributed work in PyTorch? What's up with all of the optimizations people want to do here?
Further reading.
- PyTorch distributed overview https://pytorch.org/tutorials/beginner/dist_overview.html
- Distributed data parallel https://pytorch.org/docs/stable/notes/ddp.html
83 episodi
All episodes
×Benvenuto su Player FM!
Player FM ricerca sul web podcast di alta qualità che tu possa goderti adesso. È la migliore app di podcast e funziona su Android, iPhone e web. Registrati per sincronizzare le iscrizioni su tutti i tuoi dispositivi.