Betreiber von Webseiten sind oft mit zweierlei Aufgaben konfrontiert: die Zugriffe auf die Webseite zu messen und bei unerwünschten Crawlern (Roboter-Besucher) gegebenfalls Massnahmen wie eine Sperrung zu treffen.
Web-Analytik mit lokaler Daten-Speicherung
Viele Web-Analytik Lösungen erfordern die Übertragung von Daten an Drittparteien, was je nach Standort des Anbieters zahlreiche Implikationen hinsichtlich des Datenschutzes mit sich bringt.
Wir bieten eine Lösung, welche die Daten zu den Webseiten-Aufrufen lokal auf dem Server abspeichert, wo die Webseite liegt – sodass keine Übertragung an Drittparteien stattfindet.
Die Daten können direkt auf dem Webserver ausgewertet werden oder für weitergehende Analysen auch exportiert resp. heruntergeladen werden.
Abwehr von Web-Crawlern
Praktisch alle Webseiten werden nicht nur von menschlichen Besuchern, sondern auch von zahlreichen Crawlern resp. Robotern aufgerufen. Während einige dieser Crawler für die Betreibung der Webseite nützlich sind (bspw. durch Indexierung in Suchmaschinen), bringen andere oft keine Vorteile oder sind sogar schädlich.
Einige Crawler verwenden ohne Rücksicht auf das Urheberrecht den Inhalt Ihrer Webseite für eigene, oft kommerzielle Zwecke, oder suchen sogar gezielt nach technologischen Schwachstellen in der Webseite, um zwecks Daten-Diebstahl und/oder Daten-Vernichtung eindringen zu können.
Solche Crawler gilt es, von der Webseite auszusperren. Die Erkennung erweist sich jedoch als relativ schwierig. Deshalb bieten wir eine Lösung, welche die Aufgabe der Erkennung und Sperrung von unerwünschten Crawlern für Sie übernimmt.
Unsere Lösung grenzt Crawler von menschlichen Besuchern ab, und sperrt Crawler, welche nicht einen klar vorteilhaften Zweck (bspw. für Suchmaschinen) haben, von Ihrer Webseite aus.