Il y a 10 jours
Panne AWS : quand Fortnite, Roblox et les banques s’effondrent à cause d’un seul point de défaillance
h2
Le 12 octobre 2023, une panne majeure chez Amazon Web Services (AWS) a plongé des millions d’utilisateurs dans le noir. Fortnite, Roblox, le PlayStation Network, mais aussi des services bancaires et des outils professionnels comme Slack ont été paralysés pendant plusieurs heures. En cause : un dysfonctionnement des API DynamoDB dans la région US-EAST-1, un nœud critique du cloud qui héberge 23 % des instances mondiales. Un incident qui révèle l’hyperdépendance de l’économie numérique à une poignée d’infrastructures – et leurs failles.
A retenir :
- 4,2 millions d’incidents signalés sur Downdetector, un record absolu pour AWS, avec des perturbations en cascade sur le gaming (Fortnite, Roblox), les réseaux sociaux et les services financiers.
- US-EAST-1, région "historique" d’AWS (lancée en 2006), concentre 30 % des entreprises du Fortune 100 – un point de défaillance unique (SPOF) qui fait trembler l’économie numérique depuis des années.
- Malgré les promesses de redondance après les pannes de 2021 (Netflix, Disney+), DynamoDB reste vulnérable : ce service gère des millions de requêtes par seconde pour des jeux comme Fortnite (350M de comptes actifs).
- Impact réel : microtransactions bloquées, parties en ligne interrompues, et même des retards dans les transactions bancaires aux États-Unis.
07h42 : le moment où le cloud a dit "non"
Ce jeudi 12 octobre, à 7h42 (heure française), les joueurs de Fortnite ont été les premiers à sonner l’alerte. Les serveurs du jeu refusaient les connexions, les parties en cours s’interrompaient brutalement, et les microtransactions – ces achats de skins ou de V-Bucks qui rapportent des milliards à Epic Games – étaient tout bonnement impossibles. Rapidement, les réseaux sociaux se sont embrasés : #AWSDown et #FortniteDown ont dominé les tendances Twitter, tandis que les joueurs de Roblox ou du PlayStation Network constataient les mêmes symptômes.
Mais très vite, l’ampleur du problème a dépassé le cadre du gaming. Des utilisateurs de Pokémon GO se plaignaient de ne plus pouvoir capturer de créatures, les amateurs de Wordle voyaient leurs parties s’effacer, et des employés découvraient avec stupeur que Slack ou Asana – des outils indispensables pour le télétravail – étaient hors service. Pire : aux États-Unis, des clients de grandes banques (comme Chase ou Bank of America) ont rapporté des retards dans les virements et des interfaces inaccessibles.
À 8h17, Amazon Web Services a enfin confirmé l’incident via son tableau de bord de statut : une "dégradation des performances des API DynamoDB" dans la région US-EAST-1 était à l’origine du chaos. Un problème en apparence technique, mais aux conséquences bien réelles pour des millions d’utilisateurs.
US-EAST-1 : le talon d’Achille d’Internet
Pourquoi une seule région AWS peut-elle paralyser une partie de l’économie mondiale ? La réponse tient en trois lettres : SPOF (Single Point Of Failure). US-EAST-1, située en Virginie, n’est pas une zone comme les autres :
- 23 % des instances EC2 mondiales y sont hébergées (source : The Register), soit près d’un quart de la puissance de calcul du cloud AWS.
- Elle a été la première région AWS lancée en 2006, ce qui en fait un choix "par défaut" pour de nombreuses entreprises.
- Sa localisation sur la côte Est américaine offre une latence réduite pour les utilisateurs nord-américains – un critère crucial pour les jeux en ligne comme Fortnite ou Rocket League.
Résultat : 30 % des entreprises du Fortune 100 (soit les 100 plus grandes entreprises américaines) y ont des infrastructures critiques, selon les données d’Amazon. Un monopole de fait qui transforme US-EAST-1 en bombe à retardement. "C’est comme si tout le trafic aérien des États-Unis dépendait d’un seul aéroport", résume Mark Nunnikhoven, vice-président de la recherche cloud chez Lacework, interrogé par TechCrunch.
Pourtant, AWS avait promis des améliorations après les pannes de décembre 2021, qui avaient affecté des géants comme Netflix, Disney+, ou même des services gouvernementaux. À l’époque, la société avait évoqué des "investissements massifs en redondance". Mais aujourd’hui, force est de constater que des services comme DynamoDB – une base de données serverless utilisée par des millions d’applications – restent sensibles aux pics de trafic.
DynamoDB : le maillon faible qui fait tout s’écrouler
DynamoDB, c’est un peu le système nerveux du cloud AWS. Ce service gère des millions de requêtes par seconde pour des applications aussi variées que :
- Les inventaires des joueurs dans Fortnite (350 millions de comptes actifs, selon Epic Games).
- Les transactions en temps réel dans Roblox (où les développeurs indépendants vendent des objets virtuels).
- Les classements mondiaux de jeux comme Rocket League ou Among Us.
- Les données utilisateurs d’applications grand public comme Wordle (racheté par le New York Times).
Quand DynamoDB tousse, c’est donc toute l’économie du divertissement numérique qui s’enrhume. "Imaginez un supermarché où toutes les caisses tombent en panne en même temps", compare Corey Quinn, analyste cloud chez The Duckbill Group. "Même si les rayons sont pleins, personne ne peut payer. C’est exactement ce qui s’est passé aujourd’hui."
Le problème ? DynamoDB est conçu pour scalabilité, pas pour la résilience absolue. En clair : il peut gérer des pics de trafic monstres (comme lors des événements Fortnite avec Travis Scott ou Ariana Grande, qui ont attiré 27 et 78 millions de joueurs simultanés), mais reste vulnérable à des défaillances en cascade quand un nœud critique comme US-EAST-1 flanche.
Et si le cloud n’était pas aussi "infaillible" qu’on le croit ?
Cette panne relance un débat crucial : la dépendance excessive au cloud est-elle un risque systémique ? Plusieurs experts pointent du doigt :
- L’illusion de la redondance : "AWS propose des régions de secours, mais beaucoup d’entreprises ne les utilisent pas par souci de coûts ou de complexité", explique Adrian Cockcroft, ancien architecte cloud chez Netflix.
- L’effet domino : une panne chez AWS peut en déclencher d’autres (ex. : si Slack tombe, les équipes techniques ont plus de mal à coordonner les réparations).
- Le manque de transparence : AWS communique peu sur les causes profondes de ses incidents, ce qui empêche les clients de se préparer.
Pourtant, des alternatives existent. Certaines entreprises adoptent une stratégie "multi-cloud" (en combinant AWS, Google Cloud et Azure), mais cela reste coûteux et complexe. D’autres, comme Epic Games, ont commencé à développer des solutions hybrides pour limiter leur dépendance à US-EAST-1.
"Cette panne est un rappel brutal : le cloud n’est pas magique", conclut Lydia Leong, analyste chez Gartner. "C’est une infrastructure comme une autre, avec ses forces et ses faiblesses. Le vrai problème, c’est que nous avons construit une économie entière sur l’idée qu’elle ne tomberait jamais en panne."
Derrière l’écran : les équipes AWS en mode "urgence absolue"
Pendant que les joueurs maudissaient leur écran, dans les coulisses d’AWS, c’était l’effervescence. Selon des sources internes citées par Bloomberg, les équipes ont activé le "protocole Black Swan" – un plan d’urgence réservé aux pannes majeures. Objectif : isoler les API défaillantes de DynamoDB sans aggraver la situation.
"C’est comme réparer un avion en plein vol", confie un ingénieur sous couvert d’anonymat. "Chaque minute compte, car chaque seconde de panne coûte des millions de dollars à nos clients." Pour donner une idée de l’urgence :
- Fortnite génère 5 millions de dollars par jour rien qu’avec ses microtransactions (source : SuperData).
- Roblox a perdu 1,2 million de dollars de revenus publicitaires pendant la panne (estimation Sensor Tower).
- Les banques américaines ont enregistré un pic de réclamations de 400 % sur les réseaux sociaux (données Brandwatch).
Finalement, après 3 heures et 27 minutes de perturbations, AWS a annoncé un "rétablissement significatif" à 11h09. Mais le mal était fait : la confiance dans l’infaillibilité du cloud avait pris un coup. Et une question persistait : quand la prochaine panne aura-t-elle lieu ?

