Punkt zwrotny internetu: co ujawniła globalna awaria Amazon Web Services
22 października 2025 17:3520 października 2025 roku rano użytkownicy na całym świecie obudzili się w informacyjnej ciszy. Przestały działać popularne aplikacje, nie przechodziły płatności, a korporacyjne systemy zawieszały się jeden po drugim. Przyczyną była szeroko zakrojona awaria w infrastrukturze Amazon Web Services (AWS) — chmurowego giganta, na którym „żyje” znaczna część współczesnego internetu.
Według informacji portalu The Verge awaria rozpoczęła się o godz. 10:43 czasu kijowskiego, gdy wewnętrzny system monitoringu AWS zarejestrował gwałtowny wzrost liczby błędów w regionie US-EAST-1 — jednym z najstarszych i najbardziej obciążonych centrów danych.
Problemy dotyczyły systemu DNS resolution, czyli swoistej „książki telefonicznej internetu”, która tłumaczy nazwy domen na adresy IP. Z powodu błędu w routingu zapytania trafiały pod niewłaściwe adresy. W efekcie usługi nie mogły połączyć się ze swoimi bazami danych, a aplikacje użytkowników nie znajdowały wymaganych zasobów.
Awaria szybko objęła także Amazon DynamoDB — jedną z kluczowych baz danych obsługujących większość usług w chmurze. Jej przestój doprowadził do problemów z działaniem Elastic Load Balancers, które odpowiadają za równoważenie obciążenia. W rezultacie mikrousługi zaczęły traktować inne węzły jako „niesprawne” i automatycznie je wyłączać.
Klasyczny efekt domina: lokalny błąd uruchomił globalny kryzys infrastrukturalny. Jak podał Bloomberg, awaria trwała około 15 godzin.
Skala i konsekwencje. Kto odczuł skutki
Skala awarii stała się oczywista już w pierwszych minutach — serwis Downdetector zarejestrował setki tysięcy zgłoszeń o problemach z dostępem w różnych krajach.
Według informacji The Verge i Reutersa, w ciągu kilku godzin przestały działać lub częściowo się zatrzymały takie usługi jak Snapchat, Fortnite, Slack, Venmo, Robinhood, a nawet wewnętrzne narzędzia Amazona.
Jak zauważa The Guardian, problemy dotknęły nie tylko platform rozrywkowych i społecznościowych, ale także serwisów finansowych, sklepów internetowych, systemów inteligentnego domu, a nawet niektórych stron rządowych.
Światowa gospodarka odczuła skutki tej awarii dosłownie na własnej skórze. Dla użytkowników oznaczała ona zaledwie kilka godzin cyfrowej ciszy, ale dla biznesu — milionowe straty i poważny cios dla zaufania do infrastruktury chmurowej, którą jeszcze wczoraj uważano za niezawodną.
W Wielkiej Brytanii problemy z dostępem zgłosiły m.in. Lloyds Bank i Bank of Scotland, a w Stanach Zjednoczonych — kilka głównych platform płatniczych.
Każda minuta przestoju dla firm z branży fintech oznaczała tysiące nieudanych transakcji i utratę zaufania klientów.
The Guardian poinformował również, że niektóre systemy podatkowe i miejskie w Wielkiej Brytanii oraz Kanadzie, korzystające z infrastruktury AWS, również doświadczyły krótkotrwałych zakłóceń.
Jak doszliśmy do tej zależności od AWS
Aby zrozumieć, dlaczego awaria jednego centrum danych w Stanach Zjednoczonych może sparaliżować połowę świata, trzeba cofnąć się do początków, do roku 2006, kiedy Amazon Web Services po raz pierwszy otworzyło drzwi do „ery chmury”.
Wówczas Amazon szukał sposobu na bardziej efektywne wykorzystanie własnych serwerów, które pozostawały bezczynne w okresach poza szczytem sprzedaży. Firma stworzyła wewnętrzny system wirtualizacji zasobów, a następnie zdała sobie sprawę, że jeśli inne przedsiębiorstwa mogłyby wynajmować te moce obliczeniowe, otworzyłoby to zupełnie nowy rynek. W ten sposób powstały usługi S3 (Simple Storage Service) i EC2 (Elastic Compute Cloud) — pierwsze „cegiełki” przyszłej infrastruktury internetu.
To rozwiązanie okazało się rewolucyjne. O ile wcześniej uruchomienie start-upu wymagało setek tysięcy dolarów na zakup własnych serwerów, teraz wystarczyła karta płatnicza i konto w AWS. Jak później napisał Wired, „AWS zmieniło zasady gry”, sprawiając, że zaawansowane technologie stały się dostępne nawet dla niewielkich zespołów.
W ciągu następnej dekady AWS przekształciło się w niewidzialny kręgosłup globalnej gospodarki cyfrowej. Na jego infrastrukturze działa m.in. Netflix, który co sekundę przesyła wideo milionom użytkowników. Airbnb korzysta z AWS do przetwarzania rezerwacji w czasie rzeczywistym, Pfizer wykorzystuje chmurę obliczeniową AWS do opracowywania szczepionek, a nawet NASA przechowuje w niej ogromne zbiory danych satelitarnych.
Dla rządów AWS stał się wygodną alternatywą dla własnych centrów danych. Jest tańszy, bardziej skalowalny i szybszy. Stopniowo wszystko zaczęło przenosić się do „chmury” — od portali rządowych po rejestry medyczne.
Na początku lat 2010 Amazon rozpoczął agresywną ekspansję, otwierając nowe centra przetwarzania danych w Europie, Azji i Ameryce Łacińskiej. Każdy region składał się z kilku „stref dostępności” (availability zones) — kompleksów serwerów połączonych sieciami o bardzo dużej przepustowości.
Z roku na rok strefy te stawały się coraz gęstsze, bardziej złożone i silniej ze sobą powiązane. Na rynku szybko pojawili się konkurenci — Microsoft Azure i Google Cloud. Razem stworzyli chmurowy „triumwirat”, który obecnie kontroluje ponad 63% światowego rynku infrastrukturalnych usług chmurowych. Mimo to właśnie AWS pozostaje liderem, z udziałem około 31% globalnego rynku, według danych Visual Capitalist na dziś.
Choć te firmy konkurują ze sobą, kierują się podobną filozofią: centralizacją. Budowa ogromnych centrów danych pozwala obniżyć koszty i zwiększyć wydajność przetwarzania informacji, ale jednocześnie tworzy punkty koncentracji ryzyka.
Jednak podobna awaria miała miejsce w 2021 roku, ponownie w regionie US-EAST-1. Wówczas, z powodu błędu w systemie automatycznego skalowania urządzeń sieciowych, miliony użytkowników na całym świecie pozostały bez dostępu do usług. Ucierpiały m.in. Disney+, Netflix, Tinder, Slack, Amazon Prime Video, a także wewnętrzne systemy logistyczne samej Amazon.
Jak poinformował serwis The Verge, to właśnie przeciążenie infrastruktury sieciowej w stanie Wirginia wywołało lawinę awarii, które szybko rozprzestrzeniły się na inne usługi na całym świecie.
AWS przyznało wówczas, że nawet pojedynczy incydent w tym regionie może wpłynąć na „znaczną część globalnej bazy klientów”. Był to pierwszy publiczny sygnał, który ujawnił skalę zależności współczesnego internetu od zaledwie kilku centrów danych w Stanach Zjednoczonych.

Dlaczego firmy aktywnie i dobrowolnie stały się zależne od AWS
Powód jest prosty — wygoda i oszczędność.
Usługi chmurowe zniosły barierę wejścia do świata zaawansowanych technologii. O ile wcześniej uruchomienie start-upu wymagało setek tysięcy dolarów na zakup serwerów i zatrudnienie administratorów, to wraz z pojawieniem się AWS wystarczyła karta płatnicza i kilka kliknięć.
Dla młodych firm AWS stał się przepustką do wielkiego świata. Nie trzeba budować centrów danych, kupować sprzętu, wynajmować biura ani zatrudniać administratorów systemów, wszystko można wynająć: moc obliczeniową, przestrzeń dyskową, bazy danych czy narzędzia analityczne. W ciągu kilku minut można uruchomić infrastrukturę na światowym poziomie.
Dla korporacji oznaczało to możliwość natychmiastowego skalowania. Jeśli liczba użytkowników nagle wzrosła dziesięciokrotnie, wystarczyło po prostu dodać nowe „instancje” serwerów.
AWS, podobnie jak jego konkurenci, oferuje setki wyspecjalizowanych narzędzi, od sztucznej inteligencji i uczenia maszynowego po usługi bezpieczeństwa, zarządzanie finansami, platformy CRM czy automatyzację łańcuchów dostaw.
Z każdym rokiem katalog ten się rozszerza, a każda nowa funkcja jeszcze głębiej wbudowuje firmę w ekosystem Amazon.
Z czasem jednak przedsiębiorstwa przestały dostrzegać, że wygoda przeradza się w zależność. Rezygnacja z AWS to dziś nie tylko przeniesienie plików na inny serwer, oznacza to konieczność przepisania kodu, przebudowy architektury, zmiany procesów wewnętrznych i logiki działania całego biznesu.
Wiele firm po prostu nie może sobie na to pozwolić. Tak powstał fenomen, który analitycy określają mianem cloud lock-in — „efektu zamknięcia w chmurze”.
Ryzyka centralizacji
Centralizacja infrastruktury chmurowej przyniosła światu ogromną wygodę, ale wraz z nią także nowy poziom ryzyka. Jeden błąd techniczny może sparaliżować miliony systemów na całym świecie. Wystarczy awaria DNS lub bazy danych DynamoDB w jednym regionie, by dziesiątki tysięcy usług przestały działać. Specjaliści określają to zjawisko mianem kaskadowej podatności — sytuacji, w której awaria jednej podsystemu wywołuje reakcję łańcuchową w powiązanych komponentach.
Skutki takich incydentów nie ograniczają się wyłącznie do technologii — mają też wymierny koszt ekonomiczny. Według szacunków Gartnera, w 2021 roku godzina przestoju infrastruktury AWS kosztowała firmy ponad 336 tysięcy dolarów. Inne źródła wskazują, że dla dużych przedsiębiorstw wartość ta może obecnie przekraczać 1 milion dolarów za godzinę. Podczas poważnych awarii firmy tracą nie tylko transakcje, ale również zaufanie klientów, inwestorów i partnerów. Dla platform fintech jest to szczególnie krytyczne: nawet kilkuminutowe opóźnienie w realizacji płatności może wywołać falę paniki na rynku.
Ta techniczna i finansowa zależność ma jednak jeszcze głębszy wymiar — geopolityczny. Kiedy rządowe usługi lub systemy bankowe opierają się na prywatnej, amerykańskiej infrastrukturze, staje się to kwestią bezpieczeństwa narodowego. Właśnie dlatego Unia Europejska aktywnie promuje politykę „cyfrowej suwerenności”, czyli wymóg przechowywania krytycznych danych na terytorium państw członkowskich UE.
Jednak ryzyko nie ogranicza się wyłącznie do kwestii bezpieczeństwa, dotyczy także konkurencji. Jak wspomniano wcześniej, obecnie trójka chmurowych gigantów kontroluje ponad 63% światowego rynku. Taka koncentracja tworzy de facto oligopol, w którym nowym graczom niezwykle trudno się przebić. Innowacje koncentrują się wewnątrz zamkniętych ekosystemów, a zasady gry dyktują te same korporacje, które posiadają zarówno moc obliczeniową, dane, jak i infrastrukturę, od której zależy reszta świata.
To właśnie główny paradoks ery cyfrowej. Dążymy do zdecentralizowanego, otwartego internetu, a jednocześnie budujemy go na fundamentach kilku scentralizowanych gigantów, których awaria może na pewien czas wyłączyć świat.

Co z tym zrobić i jak tego uniknąć?
Awaria Amazon Web Services stała się kolejnym przypomnieniem, że nasza cyfrowa cywilizacja jest znacznie bardziej krucha, niż mogłoby się wydawać. Przyzwyczailiśmy się, że wszystko działa bez zakłóceń, jednak jeden błąd w centrum danych potrafi zatrzymać połowę świata. Problem nie tkwi wyłącznie w technologii, polega na tym, że zbyt ufnie oddaliśmy się wygodzie scentralizowanych systemów, nie zastanawiając się, jak bardzo są one podatne na awarie. Dlatego dziś nie chodzi już tylko o szybkie przywracanie działania po incydentach, lecz o konieczność ponownego przemyślenia tego, jak budujemy infrastrukturę cyfrową i komu powierzamy nasze dane.
Aby uniknąć podobnych kolapsów w przyszłości, eksperci, jak zauważa The Conversation, radzą zrewidować samą koncepcję „chmury”.
Jednym z najskuteczniejszych podejść jest strategia wielochmurowa (multi-cloud), w ramach której firma rozdziela swoje kluczowe usługi pomiędzy kilku dostawców. Taki model eliminuje ryzyko „jednego punktu awarii” i pozwala uniknąć sytuacji, w której przedsiębiorstwo staje się zakładnikiem jednego dostawcy ze względu na wysokie koszty oraz złożoność migracji na inną platformę.
Drugim, szybko rozwijającym się kierunkiem jest przetwarzanie brzegowe (edge computing). Technologia ta zakłada przeniesienie części procesów przechowywania i przetwarzania danych z dużych, scentralizowanych centrów danych do mniejszych, rozproszonych węzłów — na przykład na lokalne serwery lub „inteligentne” urządzenia, które firmy mogą kontrolować bezpośrednio.
Takie podejście nie tylko zwiększa szybkość i niezawodność, ale także pomaga spełniać wymogi dotyczące suwerenności cyfrowej.
Innymi słowy, przyszłość chmur nie leży w rękach jednego giganta, lecz w rozproszonej, odpornej ekosystemie, zdolnej przetrwać każdą awarię bez globalnych konsekwencji.
Jednak same rozwiązania techniczne to za mało. Dostawcy usług chmurowych to już nie tylko biznes IT, to nowe „elektrownie danych”, bez których nie mogą funkcjonować rządy, banki, szpitale ani systemy transportowe. Dlatego muszą one znajdować się pod rzeczywistym nadzorem organów regulacyjnych.
Unia Europejska już podąża w tym kierunku: polityka Digital Sovereignty oraz rozporządzenie Data Act nakładają obowiązek przejrzystości, lokalizacji krytycznych danych i raportowania incydentów. Podobne działania są potrzebne także w innych krajach, aby ograniczyć zależność od kilku amerykańskich korporacji, które w praktyce kontrolują globalny przepływ danych cyfrowych.
Wniosek z tej awarii jest oczywisty — świat cyfrowy potrzebuje nie tylko szybkości, ale przede wszystkim odporności.