Artwork

Contenuto fornito da The Flares - Podcasts and The Flares. Tutti i contenuti dei podcast, inclusi episodi, grafica e descrizioni dei podcast, vengono caricati e forniti direttamente da The Flares - Podcasts and The Flares o dal partner della piattaforma podcast. Se ritieni che qualcuno stia utilizzando la tua opera protetta da copyright senza la tua autorizzazione, puoi seguire la procedura descritta qui https://it.player.fm/legal.
Player FM - App Podcast
Vai offline con l'app Player FM !

#39 - Alignement et risques catastrophiques liés à l’I.A. – avec Jérémy Perret | The Flares

2:12:20
 
Condividi
 

Manage episode 346846812 series 2785757
Contenuto fornito da The Flares - Podcasts and The Flares. Tutti i contenuti dei podcast, inclusi episodi, grafica e descrizioni dei podcast, vengono caricati e forniti direttamente da The Flares - Podcasts and The Flares o dal partner della piattaforma podcast. Se ritieni che qualcuno stia utilizzando la tua opera protetta da copyright senza la tua autorizzazione, puoi seguire la procedura descritta qui https://it.player.fm/legal.
0:00:00 Introduction 0:02:19 Présentation de l'invité 0:03:56 L'évolution de l'intelligence artificielle depuis 10-15 ans et les trajectoires futurs 0:16:54 L'omniprésence de l'I.A. dans le futur 0:22:28 Quelles sont les prochaines étapes à franchir ? Et l'hypothèse de la mise à l'échelle 0:28:45 Les techniques actuelles sont-elles suffisantes pour mener à des I.A. de "niveau humain" ? 0:37:23 Existe-t-il déjà des systèmes qui manifestent de la généralité dans leurs capacités ? 0:47:39 Peut-on éduquer les I.A. comme des enfants ? 0:55:57 Comment des I.A. pourraient poser des risques sans être incarnées dans le monde physique ? 1:02:26 Types de scenarios pouvant causer un risque existentiel et la perte de contrôle 1:09:47 Peut-on rendre les I.A. incertaines de leurs objectifs dans le but d'augmenter leur sécurité ? 1:15:37 Quelles sont les autres approches pour rendre les I.A. robustes et sans danger ? 1:25:38 Prognostique de Jérémy sur la date d’une I.A. générale ? 1:37:56 Est-ce que l’I.A. est le risque existentiel le plus probable ? 1:53:56 Les futurs positifs qui pourraient découler de l'alignement d'I.A. générales 2:03:49 Les ouvrages de références sur le sujet et l'altruisme efficace 2:08:06 Où en apprendre plus sur le sujet et sur Jérémy Perret ? Vous avez aimé cette vidéo ? Pensez à mettre un 👍 et à la partager. C'est un petit geste qui nous aide grandement 🥰 ⚠️ Essayez GRATUITEMENT "The Flares Premium" ⚠️ ⇒ https://the-flares.com/y/premium/ ----------------------------------------------------------------- ✍️ QUI EST DERRIÈRE CE CONTENU ? ☕ ➡ Production : The Flares - https://the-flares.com ➡ Realisation : Gaëtan Selle - https://www.the-flares.com/y/gaetan-selle/ ➡ Animateurs : Gaëtan Selle - https://www.the-flares.com/y/gaetan-selle/ ----------------------------------------------------------------- 🌎 SUIVEZ-NOUS 🌎 💬 Discord : https://the-flares.com/y/discord 💬 Communauté : https://the-flares.com/y/communaute 🐦 Twitter : https://the-flares.com/y/twitter 👨 Facebook : https://the-flares.com/y/facebook ▶️ Youtube : https://the-flares.com/y/youtube ----------------------------------------------------------------- 🔊 PODCAST AUDIO 🔊 📱 Sur votre téléphone : https://the-flares.com/y/podcast ☁ Soundcloud : https://the-flares.com/y/soundcloud 🌐 Apple Podcasts : https://the-flares.com/y/applepodcasts ----------------------------------------------------------------- 💡 SOURCES & RÉFÉRENCES 💡 ➡ Introduction à la sûreté de l'IA (court blog introductif) : https://medium.com/altruisme-efficace/introduction-%C3%A0-la-s%C3%BBret%C3%A9-de-lia-40a37bd2c621 ➡ Chaine YouTube de Jérémy Perret : https://www.youtube.com/channel/UCLMc6NQE5PYm4zCUVJEY4Pw ➡ Conférence de Thibaut Giraud à propos de Superintelligence de Nick Bostrom : https://www.youtube.com/watch?v=frG47p887BE ➡ aligned ai - stuart armstrong : https://www.aligned-ai.com/ ➡ The alignment problem - Livre : https://en.wikipedia.org/wiki/The_Alignment_Problem ➡ human compatible - Livre : https://en.wikipedia.org/wiki/Human_Compatible ➡ superintelligence - Livre : https://en.wikipedia.org/wiki/Superintelligence:_Paths,_Dangers,_Strategies ➡ La vie 3.0 - Livre : https://en.wikipedia.org/wiki/Life_3.0https://www.alignmentforum.org/ ➡ Le fabuleux chantier - Livre : https://www.amazon.com/fabuleux-chantier-lintelligence-artificielle-robustement/dp/275982361X Bienvenue dans ce nouvel épisode du podcast “la prospective” de The Flares, ici Gaëtan. Dans cet épisode, je reçois Jérémy Perret, docteur en intelligence artificielle, passionné par les trajectoires futures de la technologie et de l’humanité en général, parle d’alignement sur Suboptimal et ailleurs. Ceci est une longue conversation, vous pourriez choisir de l’écouter en accélérant la vitesse de lecture. ⬇️ Lisez la suite ici ⬇️ https://the-flares.com/y/avenir-du-monde/intelligence-artificielle/alignement-et-risques-catastrophiques-lies-a-li-a-avec-jeremy-perret/
  continue reading

103 episodi

Artwork
iconCondividi
 
Manage episode 346846812 series 2785757
Contenuto fornito da The Flares - Podcasts and The Flares. Tutti i contenuti dei podcast, inclusi episodi, grafica e descrizioni dei podcast, vengono caricati e forniti direttamente da The Flares - Podcasts and The Flares o dal partner della piattaforma podcast. Se ritieni che qualcuno stia utilizzando la tua opera protetta da copyright senza la tua autorizzazione, puoi seguire la procedura descritta qui https://it.player.fm/legal.
0:00:00 Introduction 0:02:19 Présentation de l'invité 0:03:56 L'évolution de l'intelligence artificielle depuis 10-15 ans et les trajectoires futurs 0:16:54 L'omniprésence de l'I.A. dans le futur 0:22:28 Quelles sont les prochaines étapes à franchir ? Et l'hypothèse de la mise à l'échelle 0:28:45 Les techniques actuelles sont-elles suffisantes pour mener à des I.A. de "niveau humain" ? 0:37:23 Existe-t-il déjà des systèmes qui manifestent de la généralité dans leurs capacités ? 0:47:39 Peut-on éduquer les I.A. comme des enfants ? 0:55:57 Comment des I.A. pourraient poser des risques sans être incarnées dans le monde physique ? 1:02:26 Types de scenarios pouvant causer un risque existentiel et la perte de contrôle 1:09:47 Peut-on rendre les I.A. incertaines de leurs objectifs dans le but d'augmenter leur sécurité ? 1:15:37 Quelles sont les autres approches pour rendre les I.A. robustes et sans danger ? 1:25:38 Prognostique de Jérémy sur la date d’une I.A. générale ? 1:37:56 Est-ce que l’I.A. est le risque existentiel le plus probable ? 1:53:56 Les futurs positifs qui pourraient découler de l'alignement d'I.A. générales 2:03:49 Les ouvrages de références sur le sujet et l'altruisme efficace 2:08:06 Où en apprendre plus sur le sujet et sur Jérémy Perret ? Vous avez aimé cette vidéo ? Pensez à mettre un 👍 et à la partager. C'est un petit geste qui nous aide grandement 🥰 ⚠️ Essayez GRATUITEMENT "The Flares Premium" ⚠️ ⇒ https://the-flares.com/y/premium/ ----------------------------------------------------------------- ✍️ QUI EST DERRIÈRE CE CONTENU ? ☕ ➡ Production : The Flares - https://the-flares.com ➡ Realisation : Gaëtan Selle - https://www.the-flares.com/y/gaetan-selle/ ➡ Animateurs : Gaëtan Selle - https://www.the-flares.com/y/gaetan-selle/ ----------------------------------------------------------------- 🌎 SUIVEZ-NOUS 🌎 💬 Discord : https://the-flares.com/y/discord 💬 Communauté : https://the-flares.com/y/communaute 🐦 Twitter : https://the-flares.com/y/twitter 👨 Facebook : https://the-flares.com/y/facebook ▶️ Youtube : https://the-flares.com/y/youtube ----------------------------------------------------------------- 🔊 PODCAST AUDIO 🔊 📱 Sur votre téléphone : https://the-flares.com/y/podcast ☁ Soundcloud : https://the-flares.com/y/soundcloud 🌐 Apple Podcasts : https://the-flares.com/y/applepodcasts ----------------------------------------------------------------- 💡 SOURCES & RÉFÉRENCES 💡 ➡ Introduction à la sûreté de l'IA (court blog introductif) : https://medium.com/altruisme-efficace/introduction-%C3%A0-la-s%C3%BBret%C3%A9-de-lia-40a37bd2c621 ➡ Chaine YouTube de Jérémy Perret : https://www.youtube.com/channel/UCLMc6NQE5PYm4zCUVJEY4Pw ➡ Conférence de Thibaut Giraud à propos de Superintelligence de Nick Bostrom : https://www.youtube.com/watch?v=frG47p887BE ➡ aligned ai - stuart armstrong : https://www.aligned-ai.com/ ➡ The alignment problem - Livre : https://en.wikipedia.org/wiki/The_Alignment_Problem ➡ human compatible - Livre : https://en.wikipedia.org/wiki/Human_Compatible ➡ superintelligence - Livre : https://en.wikipedia.org/wiki/Superintelligence:_Paths,_Dangers,_Strategies ➡ La vie 3.0 - Livre : https://en.wikipedia.org/wiki/Life_3.0https://www.alignmentforum.org/ ➡ Le fabuleux chantier - Livre : https://www.amazon.com/fabuleux-chantier-lintelligence-artificielle-robustement/dp/275982361X Bienvenue dans ce nouvel épisode du podcast “la prospective” de The Flares, ici Gaëtan. Dans cet épisode, je reçois Jérémy Perret, docteur en intelligence artificielle, passionné par les trajectoires futures de la technologie et de l’humanité en général, parle d’alignement sur Suboptimal et ailleurs. Ceci est une longue conversation, vous pourriez choisir de l’écouter en accélérant la vitesse de lecture. ⬇️ Lisez la suite ici ⬇️ https://the-flares.com/y/avenir-du-monde/intelligence-artificielle/alignement-et-risques-catastrophiques-lies-a-li-a-avec-jeremy-perret/
  continue reading

103 episodi

Tutti gli episodi

×
 
Loading …

Benvenuto su Player FM!

Player FM ricerca sul web podcast di alta qualità che tu possa goderti adesso. È la migliore app di podcast e funziona su Android, iPhone e web. Registrati per sincronizzare le iscrizioni su tutti i tuoi dispositivi.

 

Guida rapida