T-Rex: Benchmark für Webseiten

Moin,

gibt es einen Dienst, der meine Webseite nicht nur auf Schnelligkeit sondern vor allem auf Belastbarkeit prüft?
Mich würde interessieren wie viele Anfragen gleichzeitig eine Seite aushält bzw. wie schnell eine gewisse Seite ist wenn X User gleichzeitig darauf zugreifen.

Gruß
BenchT-Rex

  1. Meine Herren!

    gibt es einen Dienst, der meine Webseite nicht nur auf Schnelligkeit sondern vor allem auf Belastbarkeit prüft?

    Garnicht so lange her, da hatten wir das hier schon mal ;)

    --
    “All right, then, I'll go to hell.” – Huck Finn
    1. Danke für deine Hilfe.

      Der eine Link benutzt einen Amerikanischen Server. Der braucht schon mal 3 Sekunden um über den Teich zu hüpfen. Ein Deutscher Speedtest ergibt bei einem User ca. 1,5 - 2 Sekunden. Der Amerikanische Server braucht 4-5 Sekunden.

      Jetzt gibt es Ausreißer. Zwischendurch hat der Test ergeben das meine Seite bei 30 Clients 20 Sekunden zum laden braucht. Bei 40 Clients sind es dann wieder die 5 Sekunden vom Anfang. Ist jetzt der Server Schrott oder die Verbindung in die USA? Stand Obama vielleicht gerade auf der Leitung?

      Außerdem frage ich mich was ein Client ist. Repräsentiert ein Client einen User? Ergo testet die Seite mit maximal 50 Usern gleichzeitig? Sind das nicht etwas wenig? Wie sieht's mit 1000 aus? Naja einem geschenkten Gaul...

      Seien wir realistisch, bei 50 Usern gleichzeitig wäre mein Projekt schon ein Erfolg :).

      Gruß
      nörgelnder
      T-Rex

      1. Meine Herren!

        Danke für deine Hilfe.

        Der eine Link benutzt einen Amerikanischen Server. Der braucht schon mal 3 Sekunden um über den Teich zu hüpfen. Ein Deutscher Speedtest ergibt bei einem User ca. 1,5 - 2 Sekunden. Der Amerikanische Server braucht 4-5 Sekunden.

        Ich lehne mich jetzt mal sehr weit aus dem Fenster und behaupte, dass die Latenz keine kritische Messgröße solcher Tests ist. Eine hohe Latenz veranlasst den Webserver dazu, die Socket-Verbindung länger als üblich offen zu halten und den Ausgabe-Buffer etwas länger im Speicher zu halten. Die rechenintensive Arbeit, inbesondere die Arbeit von PHP, ist zu diesem Zeitpunkt schon erledigt.

        Jetzt gibt es Ausreißer. Zwischendurch hat der Test ergeben das meine Seite bei 30 Clients 20 Sekunden zum laden braucht. Bei 40 Clients sind es dann wieder die 5 Sekunden vom Anfang.

        Schwierig hier eine Ferndiagnose zu stellen. Eine mögliche Ursache könnten Caches unterschiedlichster Arten sein, zum Beispiel ein Ausgabe-Cache eines PHP-Frameworks.

        Ist jetzt der Server Schrott oder die Verbindung in die USA? Stand Obama vielleicht gerade auf der Leitung?

        Es muss gar nichts Schrott sein. Das kann sogar ein Zeichen dafür, dass etwas sehr gut funktioniert ;)

        Außerdem frage ich mich was ein Client ist. Repräsentiert ein Client einen User?

        Ein Client symbolisiert vermutlich eine eingehende Verbindung auf dem Server.

        Ergo testet die Seite mit maximal 50 Usern gleichzeitig?

        Bei welcher Seite bist du denn? Es gibt verschiedene Dienstleister, die solche Stresstests anbieten. Wer das nötige Kleingeld besitzt, dem bleibt vermutlich kein Wunsch offen ;)

        --
        “All right, then, I'll go to hell.” – Huck Finn
      2. Hello,

        Der eine Link benutzt einen Amerikanischen Server. Der braucht schon mal 3 Sekunden um über den Teich zu hüpfen. Ein Deutscher Speedtest ergibt bei einem User ca. 1,5 - 2 Sekunden. Der Amerikanische Server braucht 4-5 Sekunden.

        Kommt der Über Lichtleiterkabel oder kommt der über Satellit?

        Liebe Grüße aus dem schönen Oberharz

        Tom vom Berg

        --
         ☻_
        /▌
        / \ Nur selber lernen macht schlau
        Die ultimative Seite für Selbermacher
  2. Hi Rex,

    Mich würde interessieren wie viele Anfragen gleichzeitig eine Seite aushält bzw. wie schnell eine gewisse Seite ist wenn X User gleichzeitig darauf zugreifen.

    so einen Test hab ich schon mal gemacht. Dabei wollte ich den kleinen Raspi testen.
    Dazu hab ich mir eine Domain geschnappt und ein phpBB Forum installiert (ohne Spamschutz). Aus Amerika und Ostblock kamen Spambots  wie die Schmeißfliegen (Viagra & Co)
    Das Maximum war bei ca. 50 gleichzeitigen Zugriffen erreicht.
    Die Uploadgrenze war bei 2MBit/s (KD) – aber auch der interner Zugriff war bei der Auslastung extrem langsam –> Grenze erreicht.

    Eigentlich könnte ich dir die Domain ausleihen (umleiten) – die Spammer warten schon ;-)
    Viele Grüße aus LA

    --
    ralphi