
Le 18 novembre 2025, une panne de Cloudflare a ralenti ou coupé l’accès à de nombreux services. Cela a affecté la France et le monde entier, des réseaux sociaux aux IA génératives. L’entreprise a identifié un pic de trafic Cloudflare à 12 h 20, provoquant des erreurs en chaîne. Ensuite, un rétablissement progressif Cloudflare est survenu dans l’après-midi. Enquête en cours et questions sur la dépendance du Web.
Ce qui s’est passé le 18 novembre 2025
Un peu avant 12 H 30 (heure de Paris), Cloudflare signale un incident Cloudflare sur son réseau mondial. À 12 H 48, l’entreprise indique enquêter sur « un problème affectant de multiples clients ». Vers 13 H 21, une reprise partielle est observée, mais des erreurs persistent. À 14 H 13, d’autres fonctionnalités sont rétablies. Dans l’après-midi, Cloudflare déploie un correctif, puis annonce une stabilisation progressive. Ensuite, un retour à la normale est constaté en fin de journée. Par ailleurs, ils surveillent l’infrastructure et promettent un rapport post-incident.
Dans l’intervalle, une panne web mondiale paralyse des pans entiers d’Internet : les pages lentes, erreurs et sites indisponibles se multiplient. Des millions d’internautes décrivent des symptômes convergents : sur certains services d’IA, un message s’affiche — « Please unblock challenges.cloudflare.com to proceed » —, et l’accès mobile peut parfois contourner les blocages rencontrés sur ordinateur.
Chronologie condensée
- 12 H 20 : pic de trafic Cloudflare à 12 h 20 observé par Cloudflare sur l’un de ses services.
- 12 H 48 : premier message de statut ; enquête en cours.
- 13 H 21 : rétablissement progressif Cloudflare avec taux d’erreurs encore élevés.
- 14 H 13 : nouvelles fonctionnalités restaurées ; corrections en cours.
- Fin d’après-midi : correctif généralisé, surveillance renforcée et normalisation progressive.
Point essentiel : l’origine exacte du pic de trafic demeure incertaine au moment des premières communications publiques. L’entreprise évoque un incident Cloudflare, sans attribuer l’incident à une cause unique.
Pourquoi une panne chez Cloudflare paralyse autant de services
Cloudflare est un acteur d’infrastructure qui fournit CDN, protection DDoS, pare-feu applicatif et services DNS à des millions de sites. Concrètement, une large part du trafic transite par ses points de présence avant d’atteindre les serveurs des éditeurs. En moyenne, le réseau route environ 81 millions de requêtes HTTP par seconde : un volume qui explique, par simple effet de levier, l’ampleur des impacts lorsqu’un maillon se dérègle.
Ajoutons un facteur structurel : près de 20 % des sites l’utilisent comme proxy inverse pour accélérer l’affichage et filtrer le trafic indésirable. La concentration des fonctions critiques chez quelques opérateurs, tels que Cloudflare, engendre une dépendance systémique. Par ailleurs, d’autres CDN et fournisseurs cloud contribuent également à cette dépendance. Quand l’un tousse, des écosystèmes entiers prennent froid.
Les services touchés : de l’IA aux réseaux sociaux
La panne a perturbé des plateformes de premier plan, telles que X (ex-Twitter), causant des interruptions significatives. De plus, des services d’IA générative, comme OpenAI, ont été touchés. En outre, ChatGPT en panne et Claude ont subi des perturbations notables. Par ailleurs, des sites d’information – dont Ecostylia Magazine – et des plateformes de divertissement, y compris Spotify, ont également été affectés. Enfin, des outils de création, tels que Canva, ont rencontré des dysfonctionnements. De plus, des jeux en ligne, comme League of Legends, ont également été affectés. Même des services de mesure d’incidents comme Downdetector ont affiché des anomalies, signe d’un effet domino sur l’écosystème d’observation lui-même.

L’ampleur exacte varie selon les régions et les usages : certains éditeurs disposant de plans de reprise, de redondances multi-CDN ou d’itinéraires alternatifs ont maintenu une dégradation limitée. D’autres, très intégrés à la chaîne Cloudflare, ont subi des interruptions franches.
Ce que l’on sait de la cause — et ce qu’on ignore encore
Au cœur de l’incident, Cloudflare signale une hausse inhabituelle de trafic affectant un service de son réseau. Par conséquent, cela a entraîné des erreurs en cascade pour une partie des clients. Les premières heures, la prudence domine : pas d’attribution hâtive à une cyberattaque ou à un fournisseur tiers. L’entreprise parle d’incident Cloudflare, identifie le problème, puis déploie un correctif d’urgence. Une enquête post-mortem détaillera la chaîne des événements, les enseignements et les éventuelles mesures préventives.
Ce temps de latence entre symptôme, diagnostic et explication publique est normal à cette échelle : les équipes doivent stabiliser avant de raconter. Dans un réseau gérant des dizaines de millions de requêtes par seconde, une modification apparemment mineure peut avoir des conséquences. En effet, elle peut produire des effets non linéaires.
Un révélateur de fragilités numériques
Cette panne souligne un point aveugle du numérique contemporain. En effet, des services essentiels (informations, paiements, messageries, jeux, outils professionnels) reposent sur des briques privées. De plus, leurs mécanismes sont peu visibles pour le grand public. La souveraineté et la résilience d’Internet ne dépendent pas uniquement des réseaux d’accès. En effet, elles se jouent aussi dans ces couches d’intermédiation qui optimisent et sécurisent le trafic.
Trois enjeux émergent :
- Redondance : encourager les architectures multi-CDN, les itinéraires DNS alternatifs et des plans de continuité testés.
- Transparence : publier des post-mortems détaillés et comparables pour nourrir un retour d’expérience commun.
- Intérêt général : Traiter ces plateformes d’infrastructure comme des biens essentiels de connectivité est crucial. Elles doivent respecter des exigences de disponibilité, d’écoconception et de sobriété. Éviter les rafraîchissements massifs en période d’incident, car cela aggrave la charge.
Comprendre : CDN, DDoS, « pic de trafic »
- CDN (content delivery network) : réseau mondial de serveurs répartis qui rapprochent les contenus des utilisateurs pour accélérer l’affichage et absorber les pics.
- Protection DDoS : mécanismes qui filtrent les requêtes malveillantes envoyées en grappes pour saturer un service. Un filtrage imparfait ou une configuration sensible peut dégrader le trafic légitime.
- Pic de trafic : une hausse soudaine, attendue (lancement, breaking news) ou inattendue, peut dépasser des seuils et entraîner file d’attente, latence et erreurs.
Bons réflexes pour les usagers
- Vérifier les statuts officiels : la page Cloudflare Status et pages de statut des services fournissent des mises à jour chronologiques.
- Changer de terminal ou de réseau : si le web sur ordinateur bloque, essayer le mobile (ou l’inverse) peut débloquer l’accès.
- Limiter les rafraîchissements : éviter les F5 compulsifs et les téléchargements répétés qui accentuent la charge.
- Différencier panne locale/globale : tester d’autres sites, un autre DNS ou un réseau invité pour isoler le problème.
- Reporter les actions sensibles : pendant une instabilité, différer paiements, mises à jour critiques ou modifications de configuration.

Bons réflexes pour les éditeurs
- Plan de continuité testé (PCA/PRA) avec multi-hébergeurs et multi-CDN.
- Instrumentation : journaux, télémétrie et alertes indépendantes du fournisseur principal.
- Déploiements prudents : revues de changement, canaris, retours arrière rapides.
- Communication : mises à jour franches et horodatées pour réduire l’incertitude côté utilisateurs.
Ce que révèle l’intérêt général
Au-delà de la technologie, l’incident touche l’accès à l’information, la continuité des services et la confiance. Les pouvoirs publics comme les entreprises ont intérêt à cartographier leurs dépendances et à financer des alternatives ou des réserves de capacité. Une résilience pensée en commun — standards ouverts, interopérabilité, exigences de publication des incidents — réduit la surface de risque collective.
Ce que l’on attend encore
- Un post-mortem détaillant la cause racine et les garde-fous ajoutés.
- Un retour d’expérience sectoriel sur les chaînes de dépendance et les moyens d’en limiter les effets de bord.
- D’éventuelles recommandations pour certifier ou auditer les opérateurs d’infrastructure à fort impact systémique.