WebAuditScannerBot 1.0
Technische Informationen zu unserem Crawler
Der WebAuditScannerBot prüft öffentlich erreichbare Webseiten auf technische Fehler, kritische Konfigurationen, Performance-Probleme und sicherheitsrelevante Hinweise. Hier finden Sie alle Details zum Verhalten des Bots, zu erhobenen Daten sowie zu Kontakt- und Blockiermöglichkeiten.
Zweck & Arbeitsweise
Wir konzentrieren uns ausschließlich auf technisch relevante Informationen öffentlicher Seiten. Logins, Paywalls oder andere geschützte Bereiche werden nicht automatisiert angesprochen oder umgangen. Die gewonnenen Erkenntnisse fließen in Audits und Monitoring-Reports für unsere Kundinnen und interessierte Webseitenbetreiberinnen ein.
- Erkennung typischer Fehlerquellen wie 404/500-Status, fehlerhafte Redirects oder SSL-Probleme.
- Prüfung von WordPress- und CMS-Signaturen inklusive Plugin- und Theme-Hinweisen.
- Auswertung von robots.txt, Sitemaps, strukturierten Daten und relevanten Meta-Informationen.
- Bewertung von Performance-Indikatoren (z. B. Ladezeiten und Caching-Hinweise) aus technischer Sicht.
User-Agent & Frequenz
User-Agent
WebAuditScannerBot/1.0 (+https://webauditscanner.de/bot-info; kontakt@webauditscanner.de)
Scan-Verhalten
- Moderate Anzahl an Anfragen, verteilt über den Tag.
- Keine Massenscans; automatische Pausen bei Timeouts oder Serverfehlern.
- Respektiert serverseitige Rate-Limits und blockiert bei Bedarf weitere Zugriffe.
Welche Daten werden erfasst?
Der Bot verarbeitet ausschließlich öffentlich zugängliche, technisch relevante Informationen. Es werden keinerlei personenbezogene Daten gespeichert, keine Cookies gesetzt und keine Nutzerprofile erstellt.
- HTTP-Statuscodes, Header und Redirect-Ketten
- HTML-Quelltext (Analyse zwecks Fehlererkennung, keine dauerhafte Speicherung kompletter Kopien)
- CMS-Versionen, Plugin-Signaturen, WordPress-Fehler
- Hinweise im Impressum (z. B. alte § 5 TMG-Formulierungen)
- robots.txt-, Sitemap- und Strukturhinweise
- Erreichbarkeit, SSL-Konfiguration und Security-Header
- Technische Metadaten sowie strukturierte Daten
- Indikatoren für Performance, Caching und Ausfallsicherheit
- Nur anonymisierte, aggregierte Monitoring-Werte für interne Qualitätszwecke
Bot blockieren oder erlauben
Sie möchten nicht, dass der WebAuditScannerBot Ihre Domain analysiert? Dann können Sie ihn per robots.txt oder serverseitiger Sperre jederzeit blockieren. Wir respektieren solche Sperren vollständig und entfernen Domains auf Wunsch permanent aus unseren Scans.
robots.txt
User-agent: WebAuditScannerBot Disallow: /
Apache (.htaccess)
RewriteEngine On
RewriteCond %{HTTP_USER_AGENT} WebAuditScannerBot [NC]
RewriteRule .* - [F,L]
Kontakt
Haben Sie Fragen oder möchten Ihre Domain von zukünftigen Scans ausschließen? Schreiben Sie uns – wir reagieren in der Regel innerhalb eines Werktags und bestätigen die Entfernung Ihrer Domain.
Website
webauditscanner.de