Artwork

Contenuto fornito da Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes. Tutti i contenuti dei podcast, inclusi episodi, grafica e descrizioni dei podcast, vengono caricati e forniti direttamente da Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes o dal partner della piattaforma podcast. Se ritieni che qualcuno stia utilizzando la tua opera protetta da copyright senza la tua autorizzazione, puoi seguire la procedura descritta qui https://it.player.fm/legal.
Player FM - App Podcast
Vai offline con l'app Player FM !

Quand la canicule fait tomber Twitter

3:12
 
Condividi
 

Manage episode 341231540 series 3383386
Contenuto fornito da Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes. Tutti i contenuti dei podcast, inclusi episodi, grafica e descrizioni dei podcast, vengono caricati e forniti direttamente da Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes o dal partner della piattaforma podcast. Se ritieni che qualcuno stia utilizzando la tua opera protetta da copyright senza la tua autorizzazione, puoi seguire la procedura descritta qui https://it.player.fm/legal.

Bonjour à tous et bienvenue dans le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Guillaume Serries et aujourd’hui, je vous explique pourquoi la canicule fait vaciller Twitter, et la logique de redondance.

Outre des incendies géants, la Californie affronte en ce mois de septembre une chaleur extrême. Une chaleur qui vient de priver Twitter d'un de ses principaux centres de données. De quoi fragiliser le service. Car la redondance à aussi ses limites.

Et si une autre panne se produisait à cause de la chaleur, cela pourrait entraîner une panne de Twitter mentionne une note interne de l'entreprise, obtenue par CNN.

Twitter, comme toutes les grandes plateformes de médias sociaux, s'appuie sur des centres de données, c'est à dire des fermes de serveurs et de systèmes de stockage, pour assurer un fonctionnement constant, sur l'ensemble de la planète.

Et le contrôle de la température dans ces centres est essentiel pour éviter que les serveurs ne surchauffent et ne tombent en panne. Mais les systèmes de refroidissement sont très énergivores, d'autant plus énergivores que la température extérieure grimpe.

Et parfois, ils ne suffisent tout simplement pas. Et c'est la panne.

"Le 5 septembre, Twitter a connu la perte de sa région de centre de données de Sacramento - une ville du Nord de la Californie - en raison de conditions météorologiques extrêmes" a annoncé l'entreprise, qui note que cet événement sans précédent a entraîné l'arrêt total des équipements physiques.

Alors oui, le datacenter de Sacramento est redondé. C'est à dire que les informations stockées dans ce datacenter sont aussi présentes dans un autre datacenter. Mais il ne s'agit pas d'une simple sauvegarde de données. Quand on parle de redondance, il s'agit de la capacité à prendre la relève immédiatement en cas de panne. Et cela signifie que le site de redondance est aussi un site de production.

Mais à la suite de la panne de Sacramento, Twitter se trouve désormais dans un "état de non-redondance", explique la société. Concrètement, deux autres datacenter, situés à Atlanta et à Portland sont toujours opérationnels. Mais "si nous perdons l'un de ces centres de données restants, nous risquons de ne pas être en mesure de servir le trafic à tous les utilisateurs" avertit Twitter.

Et ce fonctionnement en mode désormais dégradé a aussi une incidence sur le fonctionnement de la DSI. Car oui, il est à présent en effet interdit de déployer des mises à jour non critiques sur Twitter, et ce jusqu'à ce que l'entreprise puisse rétablir complètement les services de son centre de données de Sacramento.

Cette situation inédite met en évidence la fragilité des plates-formes numériques face à l'évolution des conditions climatiques. Et vu l'importance qu'a pris Twitter dans le monde, pour relayer paroles publiques et privées, de tels risques auraient des conséquences importantes sur la configuration actuelle de la scène médiatique.

Pour économiser sur les coûts de refroidissement, certains acteurs de la tech placent désormais leurs centres de données dans des zones aux climats plus froids. Google, par exemple, a ouvert un centre de données en Finlande en 2011, et Meta a un centre dans le nord de la Suède depuis 2013.

  continue reading

229 episodi

Artwork
iconCondividi
 
Manage episode 341231540 series 3383386
Contenuto fornito da Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes. Tutti i contenuti dei podcast, inclusi episodi, grafica e descrizioni dei podcast, vengono caricati e forniti direttamente da Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes o dal partner della piattaforma podcast. Se ritieni che qualcuno stia utilizzando la tua opera protetta da copyright senza la tua autorizzazione, puoi seguire la procedura descritta qui https://it.player.fm/legal.

Bonjour à tous et bienvenue dans le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Guillaume Serries et aujourd’hui, je vous explique pourquoi la canicule fait vaciller Twitter, et la logique de redondance.

Outre des incendies géants, la Californie affronte en ce mois de septembre une chaleur extrême. Une chaleur qui vient de priver Twitter d'un de ses principaux centres de données. De quoi fragiliser le service. Car la redondance à aussi ses limites.

Et si une autre panne se produisait à cause de la chaleur, cela pourrait entraîner une panne de Twitter mentionne une note interne de l'entreprise, obtenue par CNN.

Twitter, comme toutes les grandes plateformes de médias sociaux, s'appuie sur des centres de données, c'est à dire des fermes de serveurs et de systèmes de stockage, pour assurer un fonctionnement constant, sur l'ensemble de la planète.

Et le contrôle de la température dans ces centres est essentiel pour éviter que les serveurs ne surchauffent et ne tombent en panne. Mais les systèmes de refroidissement sont très énergivores, d'autant plus énergivores que la température extérieure grimpe.

Et parfois, ils ne suffisent tout simplement pas. Et c'est la panne.

"Le 5 septembre, Twitter a connu la perte de sa région de centre de données de Sacramento - une ville du Nord de la Californie - en raison de conditions météorologiques extrêmes" a annoncé l'entreprise, qui note que cet événement sans précédent a entraîné l'arrêt total des équipements physiques.

Alors oui, le datacenter de Sacramento est redondé. C'est à dire que les informations stockées dans ce datacenter sont aussi présentes dans un autre datacenter. Mais il ne s'agit pas d'une simple sauvegarde de données. Quand on parle de redondance, il s'agit de la capacité à prendre la relève immédiatement en cas de panne. Et cela signifie que le site de redondance est aussi un site de production.

Mais à la suite de la panne de Sacramento, Twitter se trouve désormais dans un "état de non-redondance", explique la société. Concrètement, deux autres datacenter, situés à Atlanta et à Portland sont toujours opérationnels. Mais "si nous perdons l'un de ces centres de données restants, nous risquons de ne pas être en mesure de servir le trafic à tous les utilisateurs" avertit Twitter.

Et ce fonctionnement en mode désormais dégradé a aussi une incidence sur le fonctionnement de la DSI. Car oui, il est à présent en effet interdit de déployer des mises à jour non critiques sur Twitter, et ce jusqu'à ce que l'entreprise puisse rétablir complètement les services de son centre de données de Sacramento.

Cette situation inédite met en évidence la fragilité des plates-formes numériques face à l'évolution des conditions climatiques. Et vu l'importance qu'a pris Twitter dans le monde, pour relayer paroles publiques et privées, de tels risques auraient des conséquences importantes sur la configuration actuelle de la scène médiatique.

Pour économiser sur les coûts de refroidissement, certains acteurs de la tech placent désormais leurs centres de données dans des zones aux climats plus froids. Google, par exemple, a ouvert un centre de données en Finlande en 2011, et Meta a un centre dans le nord de la Suède depuis 2013.

  continue reading

229 episodi

Tutti gli episodi

×
 
Loading …

Benvenuto su Player FM!

Player FM ricerca sul web podcast di alta qualità che tu possa goderti adesso. È la migliore app di podcast e funziona su Android, iPhone e web. Registrati per sincronizzare le iscrizioni su tutti i tuoi dispositivi.

 

Guida rapida