Artwork

Contenuto fornito da Marcus Edel. Tutti i contenuti dei podcast, inclusi episodi, grafica e descrizioni dei podcast, vengono caricati e forniti direttamente da Marcus Edel o dal partner della piattaforma podcast. Se ritieni che qualcuno stia utilizzando la tua opera protetta da copyright senza la tua autorizzazione, puoi seguire la procedura descritta qui https://it.player.fm/legal.
Player FM - App Podcast
Vai offline con l'app Player FM !

July 25th, 2023 - Byte-Sized Brilliance: Decoding the Epochs of ML Evolution

12:00
 
Condividi
 

Manage episode 372191015 series 3485608
Contenuto fornito da Marcus Edel. Tutti i contenuti dei podcast, inclusi episodi, grafica e descrizioni dei podcast, vengono caricati e forniti direttamente da Marcus Edel o dal partner della piattaforma podcast. Se ritieni che qualcuno stia utilizzando la tua opera protetta da copyright senza la tua autorizzazione, puoi seguire la procedura descritta qui https://it.player.fm/legal.
  continue reading

Capitoli

1. Intro (00:00:00)

2. The case for 4-bit precision: k-bit Inference Scaling Laws (00:01:28)

3. No Train No Gain: Revisiting Efficient Training Algorithms For Transformer-based Language Models (00:04:15)

4. PUMA: Secure Inference of LLaMA-7B in Five Minutes (00:06:02)

5. Optimized Network Architectures for Large Language Model Training with Billions of Parameters (00:08:33)

6. A Real-World WebAgent with Planning, Long Context Understanding, and Program Synthesis (00:09:53)

75 episodi

Artwork
iconCondividi
 
Manage episode 372191015 series 3485608
Contenuto fornito da Marcus Edel. Tutti i contenuti dei podcast, inclusi episodi, grafica e descrizioni dei podcast, vengono caricati e forniti direttamente da Marcus Edel o dal partner della piattaforma podcast. Se ritieni che qualcuno stia utilizzando la tua opera protetta da copyright senza la tua autorizzazione, puoi seguire la procedura descritta qui https://it.player.fm/legal.
  continue reading

Capitoli

1. Intro (00:00:00)

2. The case for 4-bit precision: k-bit Inference Scaling Laws (00:01:28)

3. No Train No Gain: Revisiting Efficient Training Algorithms For Transformer-based Language Models (00:04:15)

4. PUMA: Secure Inference of LLaMA-7B in Five Minutes (00:06:02)

5. Optimized Network Architectures for Large Language Model Training with Billions of Parameters (00:08:33)

6. A Real-World WebAgent with Planning, Long Context Understanding, and Program Synthesis (00:09:53)

75 episodi

Tutti gli episodi

×
 
Loading …

Benvenuto su Player FM!

Player FM ricerca sul web podcast di alta qualità che tu possa goderti adesso. È la migliore app di podcast e funziona su Android, iPhone e web. Registrati per sincronizzare le iscrizioni su tutti i tuoi dispositivi.

 

Guida rapida