Dublicate Content Checker

Um von Google nicht abgestraft zu werden, muss Dein content unique sein – er darf also kein dublicate content sein.

Manuelles Checken

Einfach aus dem Text 3-5 ganze Sätze stichprobenartig aus dem Text raussuchen und jeden einzelnen in Google suchen. Anhand der Resultate kann man erkennen, ob der Text unique ist, veröffentlichte Textbausteine verwendet oder der komplette Text ein Dublikat ist.

Checken mit Online-Tool

Ich habe schon einige ausprobiert und war noch mit keinem zufrieden. Beispielsweise habe ich einen neu gelieferten Text einer Autorin nach http://plagiarisma.net/ gepastet. Das Tool zeigte bei jeder Phrase unique an, obwohl ich schon bei manuellem Checken des ersten Satzes in Google auf der ersten Position einen alten Text von ihr gefunden habe, der exakt diese Phrase verwendete. Dieser kam in einem PDF vor.

Hier ist eine Liste von alternativen Tools, die ich mal bei Gelegenheit ausprobieren möchte: http://www.suchmaschinen-optimierung-top-ranking.de/seo-tools-duplicate-content-checker

Umgang mit Lastspitzen seitens eines WebHosters

Anhand meines WebHosters webGo, bei dem ich ein GoPaket Gold gebucht habe. Da ich zum IT Freelancer Wettbewerb zwischenzeitlich spontan hohes Trafficaufkommen erwarte, muss mein WebHosting entsprechend gerüstet sein. Leider restartet webGo und vermutlich andere Hoster auch den WebServer, wenn er eine bestimmte Lastschwelle überschreitet. Dies muss er tun, um die Performance der anderen Kunden (mit mir sind es 20/CPU) nicht zu gefährden. Die Empfehlung seitens des Supports lautet, bei erwartbaren Besucherfluten temporär auf einen Managed SSD vServer zu wechseln.

Auf meine Frage, wieviel Anfragen gleichzeitig mein aktueller WebSpace packt, antwortete mir der Support:

Um Ihnen eine ungefähre Vorstellung zu geben, haben wir eine Kurzanalyse Ihrer Internetseite XY durchgeführt. Ihre Internetseite benötigt pro Aufruf im Schnitt 18MB-RAM. Dies wird durch Ihre 256MB-RAM geteilt. Sie würden also ca. 14 Besucher gleichzeitig bedienen können.

Bedenken Sie, dass dieser Arbeitsspeicher zusätzlich auf weitere Internetseite in Ihrem Webspace aufgeteilt wird und dieser Wert nur ein Richtwert ist um die Berechnung zu verdeutlichen.

Irgendwie kann ich mir das nur schwer vorstellen, also führe ich selbst mit JMeter Lasttests durch:

https://www.digitalocean.com/community/tutorials/how-to-use-apache-jmeter-to-perform-load-testing-on-a-web-server

https://premium.wpmudev.org/blog/stress-testing-wordpress/?utm_expid=3606929-106.UePdqd0XSL687behGg-9FA.0&utm_referrer=https%3A%2F%2Fwww.google.de%2F

Selenium Grid in Amazon AWS

Beitrag von Ragavan in SeConf:

Keyfindings in Video

  • Grid Hub sollte liegen auf: c3.8xlarge ($3.39/Std.)
  • Grid Nodes sollten liegen auf: c3.xlarge (24 Firefox-Instanzen gleichzeitig) ($0.42/Std.)
    • high network bandwidth/low CPU/memory reicht aus
  • SeleniumGridScaler zum testlast-basierten AWS Autoscaling
  • kille alle browser, die länger als 10 min laufen (tests sollten generell ja bei Weitem nicht so lange dauern)