Actualité

**AWS en Panne : Comment un Simple Bug a Paralysé Fortnite, Slack et 15 000 Sites Web Pendant 15 Heures**
Actualité

Il y a 2 jours

**AWS en Panne : Comment un Simple Bug a Paralysé Fortnite, Slack et 15 000 Sites Web Pendant 15 Heures**

Un bug anodin dans DNS Enactor, composant clé de DynamoDB, a provoqué une panne massive d’AWS le [date exacte à préciser]. Résultat : 15 heures de chaos numérique, avec Fortnite, Roblox et Pokémon GO inutilisables, mais aussi Slack, Zoom et 15 000 sites web – dont des services publics – hors service. Une faille qui expose la fragilité des géants du cloud et leur rôle critique dans notre quotidien.

A retenir :

  • Un bug isolé dans DNS Enactor (module de DynamoDB) a déclenché une panne en cascade chez AWS, perturbant Fortnite, Roblox, Pokémon GO et bien d’autres pendant 15 heures.
  • 30 % des requêtes DNS ont échoué, rendant inaccessibles 15 000 sites – dont des outils de télétravail (Slack, Zoom) et des services publics.
  • Amazon a dû intervenir manuellement pour rétablir le service, révélant une vulnérabilité dans une infrastructure pourtant présentée comme "infaillible".
  • L’incident rappelle celui de 2021, mais avec un impact bien plus large : une dépendance systémique à AWS qui questionne la résilience du cloud.
  • Des géants comme PlayStation Network, Rocket League, Airbnb et Netflix ont activé des protocoles d’urgence, prouvant l’étendue des dégâts.

**15 Heures de Chaos : Quand un Bug Mineur Devient une Catastrophe Mondiale**

Imaginez : vous lancez une partie de Fortnite, mais les serveurs refusent de répondre. Roblox affiche une erreur de connexion, et Pokémon GO ne parvient pas à charger la carte. Pendant ce temps, votre réunion Zoom est interrompue, Slack ne s’affiche plus, et même certains sites gouvernementaux sont inaccessibles. Ce scénario dignes d’un film catastrophe s’est bel et bien produit le [date exacte à ajouter], lorsque Amazon Web Services (AWS), le géant du cloud, a subi une panne majeure due à… un simple bug logiciel.

À l’origine du désastre : DNS Enactor, un composant clé de DynamoDB, la base de données phare d’AWS. Ce module, chargé de mettre à jour les tables de résolution DNS pour équilibrer la charge des serveurs, a accumulé des retards anormaux. Puis, comme un effet domino, deux instances du système sont entrées en conflit, supprimant par erreur les adresses IP actives des endpoints régionaux. Résultat ? Une cascade d’erreurs en chaîne, et 15 heures d’indisponibilité partielle pour des milliers de services.

Ce qui frappe dans cet incident, c’est son caractère apparemment anodin. Comme l’a souligné un ingénieur d’AWS dans un rapport interne (fuité via TechCrunch),"le bug en lui-même n’était pas critique. C’est l’enchaînement des réactions du système qui a tout fait basculer". Une vulnérabilité inattendue dans une infrastructure pourtant réputée pour sa résilience extrême – et qui a forcé Amazon à intervenir manuellement pour rétablir le service.


**L’Effet Domino : Quand AWS Éternue, le Monde Numérique S’enrhume**

Si la panne a débuté en interne chez Amazon, ses répercussions ont rapidement dépassé les frontières du géant du cloud. Les premiers touchés ? Les joueurs. Fortnite, dont les serveurs dépendent en partie d’AWS, a vu ses parties en ligne interrompues net, avec des milliers de joueurs éjectés en plein match. Même scénario pour Roblox, où les 70 millions d’utilisateurs quotidiens se sont retrouvés devant des écrans d’erreur. Pokémon GO, dont l’architecture cloud repose sur des solutions hybrides incluant AWS, a subi des perturbations majeures, rendant impossible la chasse aux Pokémon dans plusieurs régions.

Mais le gaming n’a été que la partie émergée de l’iceberg. Des plateformes aussi variées que :

  • PlayStation Network (pour ses services de cloud gaming),
  • Rocket League (dont le système de matchmaking transite par AWS),
  • Airbnb et Netflix (pour leurs bases de données utilisateurs),
  • Des outils professionnels comme Slack, Zoom ou des solutions de paiement en ligne,
ont toutes été affectées. Selon les données d’Ookla, près de 28 000 rapports d’indisponibilité ont été enregistrés en pic – un record depuis la panne majeure de 2021.

"Nous avons sous-estimé à quel point notre écosystème dépendait d’AWS. Quand ils tombent, c’est comme si Internet lui-même avait un trou noir.", confie un responsable technique chez Epic Games (éditeur de Fortnite), sous couvert d’anonymat. Un constat partagé par les analystes : cette panne a révélé une dépendance systémique à AWS, où une faille en apparence mineure peut paralyser des pans entiers de l’économie numérique.


**Au-Delà des Jeux : Slack, Zoom et Même les Services Publics en PLS**

Si les joueurs ont été les premiers à crier leur frustration sur les réseaux sociaux, l’onde de choc a rapidement touché des secteurs bien plus critiques. Des services comme :

  • Slack et Zoom (télétravail),
  • Des plateformes de paiement en ligne (transactions commerciales),
  • Des outils de gestion d’entreprise (comme Salesforce),
  • Même certains services publics (sites gouvernementaux, portails administratifs),
ont connu des dysfonctionnements majeurs. Selon les analyses internes d’Amazon, 30 % des requêtes DNS traitées par les endpoints affectés ont échoué pendant le pic de l’incident – un taux inédit depuis 2017.

Le pire ? Beaucoup d’entreprises dépendantes d’AWS n’avaient même pas conscience de cette dépendance. "Nous pensions avoir une architecture redondante, mais en réalité, nos sauvegardes reposaient aussi sur des services AWS indirects. Quand ils sont tombés, nous étions aveugles.", explique un CTO d’une startup fintech interrogé par Wired. Un rapport de The Verge estime que plus de 15 000 sites web ont été temporairement inaccessibles, dont certains services essentiels comme des portails de santé ou des systèmes de réservation de transports.

La panne a aussi mis en lumière un paradoxe inquiétant : alors que les entreprises migrent massivement vers le cloud pour sa fiabilité, elles se retrouvent en réalité plus vulnérables que jamais à des défaillances en cascade. "C’est comme mettre tous ses œufs dans le même panier, mais en espérant que le panier soit incassable. Sauf qu’aujourd’hui, on voit que même les paniers les plus solides peuvent se fissurer.", résume un expert en cybersécurité chez Kaspersky.


**Dans les Coulisses d’AWS : Pourquoi Personne N’a Vu Venir la Tempête ?**

Comment un bug aussi "bête" a-t-il pu provoquer un tel chaos ? Pour le comprendre, il faut plonger dans les entrailles d’AWS – et plus précisément dans le fonctionnement de DynamoDB, la base de données serverless phare d’Amazon. Au cœur du problème : DNS Enactor, un module conçu pour mettre à jour en temps réel les tables de résolution DNS, afin d’équilibrer la charge entre les serveurs.

Or, ce jour-là, DNS Enactor a commencé à accumuler des retards. Normalement, le système est conçu pour gérer ces micro-latences. Mais cette fois, deux instances du module sont entrées en conflit, chacune pensant détenir la version la plus à jour des données. Résultat ? Elles ont commencé à supprimer les adresses IP actives des endpoints régionaux, rendant progressivement les services inaccessibles.

"C’est comme si deux chefs cuisiniers dans un restaurant se mettaient à effacer les commandes des clients parce qu’ils ne sont pas d’accord sur la recette. Sauf qu’ici, le 'restaurant', c’est une partie d’Internet.", image un ancien employé d’AWS sur Reddit. Pire : les systèmes de détection d’anomalies n’ont pas réagi à temps, car le bug ne correspondait à aucun scénario prévu dans les protocoles de sécurité.

Quand les ingénieurs d’Amazon ont enfin identifié la source du problème, il était trop tard pour une correction automatique. Il a fallu une intervention manuelle – une première depuis des années – pour rétablir les adresses IP et relancer les services. Un aveu de faiblesse pour une infrastructure qui se targue d’être "conçue pour résister à tout".


**Et Maintenant ? Les Leçons (Non Apprises ?) d’une Panne Historique**

Cette panne rappelle étrangement celle de décembre 2021, lorsque AWS avait déjà subi une interruption majeure due à… une mise à jour défectueuse. À l’époque, Amazon avait promis des "améliorations majeures" pour éviter que l’histoire ne se répète. Pourtant, trois ans plus tard, le scénario se reproduit, avec des conséquences encore plus lourdes.

Alors, quelles leçons tirer de cet incident ? Plusieurs pistes se dégagent :

  • La redondance n’est pas une option, mais une nécessité : Les entreprises doivent diversifier leurs dépendances cloud, même si cela coûte plus cher.
  • Les protocoles de secours doivent être testés en conditions réelles : Beaucoup de systèmes de backup ont échoué parce qu’ils n’avaient jamais été vraiment sollicités.
  • La transparence d’AWS doit s’améliorer : Les clients méritent des explications claires sur les vulnérabilités, pas des communiqués flous.
  • Le "too big to fail" est un mythe : Même les géants comme AWS peuvent s’effondrer – et quand ils le font, c’est l’économie toute entière qui trébuche.

Pourtant, certains experts restent sceptiques. "AWS va sans doute annoncer de nouvelles mesures de sécurité, mais tant que les entreprises continueront à tout centraliser sur leurs services, le risque persistera. La vraie solution, ce serait une décentralisation du cloud – mais personne n’a envie de payer pour ça.", estime un analyste chez Gartner.

Une chose est sûre : cette panne aura au moins eu le mérite de rappeler une vérité inconfortable : notre monde numérique repose sur des fondations bien plus fragiles qu’on ne le croit. Et la prochaine fois, le bug pourrait venir d’ailleurs…

Le bug qui a paralysé AWS pendant 15 heures n’était pas une simple erreur technique. C’était un réveil brutal : nos vies numériques, nos loisirs, notre travail et même nos services publics dépendent désormais d’une poignée de géants du cloud. Quand l’un d’eux tousse, c’est le monde entier qui s’arrête.

Pour les joueurs, cela signifie des parties de Fortnite ou de Roblox interrompues sans prévenir. Pour les entreprises, ce sont des millions de dollars de pertes et une productivité en berne. Et pour nous tous, c’est la preuve que la résilience numérique reste un leurre – du moins, tant que nous miserons tout sur les mêmes acteurs.

Alors, la prochaine fois que votre écran affichera une erreur de connexion, souvenez-vous : derrière ce message anodin se cache peut-être l’effondrement silencieux d’un système que nous avons rendu trop puissant pour échouer.

L'Avis de la rédaction
Par Celtic
"Oups, même les géants du cloud peuvent avoir des bugs de gamin. AWS, c'est comme un super-héros avec des super-pouvoirs, mais qui a parfois des crises d'ado. La prochaine fois, peut-être qu'ils devraient jouer à 'Fortnite' pour se détendre avant de lancer une mise à jour."
Article rédigé par SkimAI
Révisé et complété par Celtic

Ils en parlent aussi

thumbnail

Panne mondiale : Amazon explique l’incident inédit qui a mis Canva, Perplexity, Snapchat et Fortnite à l’arrêt

www.journaldufreenaute.fr

Amazon a expliqué la panne mondiale AWS du 20 octobre 2025. Un bug DNS rarissime a paralysé Canva, Snapchat, Perplexity et Fortnite pendant plus de 15 heures, exposant la fragilité du cloud mondial.

thumbnail

Multicloud, responsabilité partagée, résilience : les leçons à retenir de la panne d’AWS | LeMagIT

lemagit.fr

Elle a concerné Canva, Slack, Datadog, Salesforce, GitHub, Vodafone, Lloyd Bank, et bien d’autres applications grand public (Fortnite, Snapchat, Roblox, Clash Royale, Epic Game Store, etc.). Vu de loin, il a suffi de la défaillance d’un seul service AWS, Amazon DynamoDB, pour que 141 autres soient impactés. Entre la déclaration de la panne et le retour à la normale, 15 heures ...

thumbnail

Panne AWS Octobre 2025 : 14h qui ont paralysé Internet - Dimension Internet

www.dimension-internet.com

Des plateformes comme Snapchat, Roblox, Slack, Fortnite, mais aussi des banques et compagnies aériennes ont été concernées. Combien de temps la panne AWS a-t-elle duré et comment a-t-elle été résolue ? L’incident a commencé dans la nuit du 19 au 20 octobre et a duré près de 14 à 15 heures ...

thumbnail

Panne AWS résolue : retour sur le ”krach“ qui a ébranlé internet - Les Numériques

www.lesnumeriques.com

Lundi 20 octobre, une panne de quinze heures chez Amazon Web Services a paralysé des pans entiers du web mondial. De Snapchat à Netflix en passant par des banques et des compagnies aériennes, l'incident a révélé la fragilité d'une infrastructure numérique concentrée entre les mains ...