Michael Jackson legt das Internet lahm

Nachdem sich Donnerstagnacht die Meldungen über den plötzlichen Tod von Michael Jackson bestätigten, schien sich die ganze Welt aufs Internet zu stürzen. Die Folge: Das Internet wurde weltweit merklich langsamer.

Nutzer von Twitter sind sich gewohnt, dass der Microblogging-Dienst bei manchen Ereignissen in die Knie geht und die Flut der Meldungen nur noch mit einer Fehlermeldung quittiert. So hat es wohl für einmal die Twitterer nicht wirklich erstaunt, dass der Tod des King of Pop den Dienst kurzzeitig ausser Gefecht setzte. Laut Twitter-Gründer Biz Stone hatte sich das Nachrichtenaufkommen in den ersten Stunden nach dem Tod von Jackson glatt verdoppelt.

Doch auch Websites, die einem grösseren Ansturm normalerweise eher gewachsen sind, bekundeten Mühe. So hiess es etwa bei AOL, bei dem unter anderem das Instant-Messaging-System ausgefallen war, dass man noch nie etwas vergleichbares gesehen hätte, es handle sich um einen Präzedenzfall in punkto Umfang und Tiefe. Amerikanische Nachrichtenseiten wie etwa ABC, die LA Times, CNN und CBS wurden merklich langsamer. Die Traffic-Überwacher Keynote Systems etwa sprach von einer Erhöhung der Seiten-Ladezeiten von durchschnittlich vier auf rund neun Sekunden. Laut dem Net Usage Index von Akamai, einem Spezialisten für Load-Balancing im Internet, lag die Spitzenbelastung des Internets denn auch kurz nach der Bestätigung der Todes von Michael Jackson bei 4,2 Millionen Besuchern pro Minute – normal sind rund zwei Millionen.

Akamai Net Usage Index

Selbst Google schien mit dem Ansturm der Jackson-Fans seine liebe Mühe zu haben und stufte die schiere Flut der Google-News-Anfragen der Nutzer erst mal als mögliche Hacker-Attacke ein. Erst wer einen Captcha-Code, eine Art Sicherheitsabfrage, eingab, erhielt die Newsartikel zur Suchphrase „Michael Jackson“ zu Gesicht.

Immer mehr datenintensive Inhalte und immer schnellere Verbindungen für private Kunden bringen das Internet in seiner heutigen Form bei speziellen Ereignissen an den Rand der Belastbarkeit. Ein Netz, das vor einigen Jahren gepriesen wurde, auch beim grössten GAU noch zu funktionieren. Grosse Verbesserungen sind allerdings nicht in Sicht. Zu schwierig ist ein koordiniertes Aufrüsten der Kapazitäten. Zwar verbessern Unternehmen immer wieder ihre Router, Switches und Leitungskapazitäten, doch die positiven Effekte sind jeweils in Kürze durch noch mehr Inhalt und noch mehr Daten wieder aufgehoben.

Könnte das Internet einem Katastrophenfall standhalten? Spürt ihr die Kapazitätsengpässe bereits beim täglichen Surfen? Braucht der Privatanwender immer schnellere Internetzugänge oder reichen die derzeit angebotenen Geschwindigkeiten? Eure Meinung ist gefragt.

Weiterempfehlen

image description

Kommentieren

9 Kommentare

image description
  1. Henning | 30.06.2009 18:01

    Keynote seine Aussagen zu dem vermeintlichen „Internetzusammenbruch“ relativiert.

    http://news.cnet.com/8301-1023_3-10274198-93.html

    Unabhängig davon hat Twitter gegenüber anderen Diensten ein erhebliches Performance Problem dessen man sich wohl aber nicht bewusst ist.

  2. Elton | 30.06.2009 17:55

    Das war wohl ne Ente. Wurde bei cnet schon dementiert. Da hat sich der messdiener wohl verhoben an bannern wie sie selber sagen

  3. Oli | 30.06.2009 12:16

    Grundsätzlich funktioniert das Network Inter Networks (O/T: woher kommt wohl unser Firmenname…?) ja tiptop.
    Gewisse einmalige Ereignisse (Michael Jackson und 9/11 gabs nur einmal, richtig grosse DDoS-Attacken sind sehr selten…) können sicherlich eine sehr hohe oder gar übermässige Belastung für das System bzw. gewisse Teile wie die News-Server hervorrufen; dies resultiert allerdings nur in zeitlich enger Begrenzung in einer signifikanten Reduktion der von den Endgeräten empfangenen Bitrate (nein, nicht Bandbreite!!! 🙂 und damit einer spürbaren Verlangsamung.
    Für ein solch grosses technisches System funktioniert das Ding aus meiner Sicht genügend gut – wobei natürlich ständiger Weiterausbau durch die Besitzer der Teilnetze Pflicht bleibt.
    Als grössere Gefahr für das Web sehe ich dabei die aktuellen Bestrebungen der USA, das Netz zukünftig vollständig kontrollieren zu wollen; aber das ist wieder O/T…

  4. Jonaman | 30.06.2009 11:52

    Ich bin überzeugt, dass es ein hin und her bleibt zwischen Infrastruktur ausbauen (gesamtes Internet aber auch grosse Anbieter wie Newsportale, Google usw.) und Ereignissen, die Teile des Internet aus- resp. überlasten. Das Internet wurde schon mehrere Male totgesagt, ist aber schneller denn je und übermittelt ein Vielfaches an Daten von dem, was man vor ein paar Jahren nicht für möglich gehalten hat.

  5. capo | 30.06.2009 11:07

    Server sind weniger das Problem.
    Eine einfache HTML abfrage kostet auf dem Server kaum Ressourcen. Bei solchen newsabfragen muss der Hoster/Application bereteiber reagieren können und die Seite statisch zur verfügung stellen.
    Die Bandbreiten werden zum Problem.
    Jeder hat zuhause mittlwerweile eine 1Mbit+ Leitung. Ich kenne diverse klein Hoster die mit solchen bandbreiten nicht umgehen können. Daily business ists ok. Aber wenn man Irgendwo promotet wird, wird die leitung schnell zum Flaschenhals.
    Da habe ich schon den einen oder anderen Marketingchef gehört: „Wir müssen werbung machen das alle auf unsere Seite gehen“ im gegenzug dann aber „Warum tut denn unsere Seite nicht mehr?“ Da sagt dann der Techniker: „Weil wir kein Budget bekommen haben um die Bandbreite auszubauen“

    Zu der Frage…
    Das Internet wird immer Funktionieren, eventuell nicht mit dem Luxus wie wir es uns gewohnt sind. Aber auch im „Kathastrophenfall“ wird man mit Informationen versorgt. Möglicherweise wird es dann hald so langsam die Kids nicht mehr World of Warcraft spielen können.

    Wir sind einfach zu verwöhnt mit unseren Bandbreiten, auf eine Webseite wartet niemand mehr länger als 5Sekunden. Davon müsste man sich dann verabschieden.

  6. Tom Bruehwiler | 30.06.2009 10:34

    @Dirk: Ein Tweet braucht natürlich nicht viele Kilobytes, allerdings müssen die Server mehr Last aushalten, wenn mehr Leute (fast) gleichzeitig twittern. Die Probleme liegen also einerseits auf der reinen Serverlast und andererseits bei den immer bandbreiten-hungrigeren Angeboten…

  7. Dirk Worring-Ramstoeck | 30.06.2009 10:22

    Das es eine Schlagzeile über den Tod eines Menschen, der reinen Unterhaltungswert in seinem Leben brachte, schafft derartige technische Deseaster zu verursachen ist an sich schon eine erstaunliche Geschichte.
    Ob die Bandbreiten der Zugänge da viel ausmachen ist allerdings fraglich. Ein tweet verbraucht ja nicht gerade viele Kilobytes. Ich persönlich habe mich in meiner neuen Wohnung für das kleine Standart Paket mit 2 Mbit entschieden. Denn wie Yves schon sagte, wer kann schon eine 30 Mbit Leitung nach hause auslasten? Wieviel downloads und Streams müsste ich gleichzeitig laufen lassen, bis der 30 Mbit „Flaschenhals“ an meinem Ende schlapp macht?

  8. Baden | 30.06.2009 09:59

    I guess we now know how many people it takes to break the internet: just one–if that person is Michael Jackson.

  9. Yves | 30.06.2009 08:48

    Ich denke bei einem lokalen Katastrophenfall könnte das Internet schon noch standhalten. Anders wird es bei Ereignissen sein, die die ganze Welt betreffen, oder besser, bei denen die ganze Welt das Gefühl hat, es könnte sie betreffen. Ob der Tod eines Pop-Stars eine globale Katastrophe ist, sei mal dahingestellt.

    Die derzeit angebotenen Geschwindigkeiten beim Surfen reichen bei weitem. Wenn ich mal beim Surfen das Gefühl habe, dass es langsam ist, wird es eher am Hosting der Seiten oder sonst an der Infrastruktur „draussen“ liegen. Z. B. habe ich vor 2 Wochen die DNS Server von Cablecom gegen Open DNS getauscht. Subjektiv laden die Seiten schneller, aber eben ob dies auch messbar ist, kann ich nicht sagen und ist eigentlich auch egal. Zu beachten sind natürlich auch immer die Erwartungshaltungen der Konsumenten. Es muss immer mehr und immer schneller sein.

Kommentar schreiben

Please copy the string utmSlr to the field below: