Google Hacking Erklärung – Die beste Google Dorks Liste

Google Hacking

Was ist Google Hacking?

Google hacken oder Hacken mit Google?

Dieser Guide erklärt Dir das Thema + nennt praktische Beispiele.

Beginnen wir!

Was ist Google Hacking?

Hacker verwenden eine Suchmaschine z. B. Google, um Webseiten zu finden, die anfällig gegen Standard-Angriffe sind oder vor der Öffentlichkeit verborgen bleiben sollten.

00 Google mehr als nur Suche - Google Hacking erklärt Steffen Lippke Hacking Series (2)
00 Google mehr als nur Suche

Google Hacking beschreibt nicht das Hacking von der Suchmaschine Google selbst, sondern wie sich Hacker von der Google Suchmaschinen bei einem Hack helfen lassen.

Pentests und Google

Die Penetration Tester können Google verwenden, um Informationen über das Objekt in Stufe 2 und 3 zu sammeln:

  1. Informationssammlung
  2. Aufklärung: Google kann viel über das Objekt an Informationen preisgeben, die den Hack vorbereiten.
  3. Entdecken und Scanning: Google kann helfen „verbotene“ und „geheime“ Seiten zu finden.
  4. Schwachstellen-Bewertung
  5. Schwachstellen-Ausnutzung
  6. Analyse und Bericht
  7. Umsetzung der Testergebnisse

Wie funktioniert eine Suchmaschine?

Eine Suchmaschine ist eine Webanwendung, die für Suchbegriffe andere Webseiten vorschlägt, die zu dem Suchbegriff passt. Die Suchmaschine durchsucht das Internet mit Crawlern.

03 Google Alternative - Google Hacking erklärt Steffen Lippke Hacking Series (5)
03 Google Alternative

Die Texte (HTML, PDF, TXT) und Inhalte (Bilder, Videos) einer Webseite speichert die Suchmaschine ab und rankt die Inhalte für mögliche passende Suchbegriffe.

Was ist ein Crawler?

Ein Crawler ist ein Computerprogramm, welches Webseiten im Internet automatisch besucht, abspeichert und die Links aus der Webseite extrahiert. Die Links führen zu neuen Webseiten mit neuen Inhalten. Der Crawler erstellt aus den gefundenen Webseiten eine Big-Data-Datenbank.

02 Springt von Link zu Link - Google Hacking erklärt Steffen Lippke Hacking Series (4)
02 Springt von Link zu Link

Der Crawler vermeidet gleiche Seiten nochmals zu indexieren.

Das Ranking nach Larry Page „Page-Rank“ ist ein Algorithmus, der die Reihenfolge der Webseiten für einen Suchbegriff bestimmt. Inhaltlich „gute“ Webseiten haben viele Links von anderen Domains, die auf die Domain verweisen. Je mehr Backlinks die Webseite hat, desto höher wird diese Webseite im Ranking angezeigt.

Tutorial Schwachstellen-Suche / Google Hacking

Wie können Hacker Suchmaschinen für ihre Zwecke benutzen?

Google indexiert viele Webseiten. Zu viele.

Stefen Lippke

Einige Webseitenbetreiber sind unvorsichtig und belassen Webseiten auf ihrem Server ohne einen effektiven Indexing-Schutz.

Google nutzt regelkonforme Crawler. Regelkonforme Crawler besuchen nur Webseiten, die Webseitenbetreiber nicht „ausgeschlossen“ haben.

Der große Nachteil ist, dass Google „als Standard“ davon ausgeht, dass jede Webseite indexiert sein sollte. Erst wenn, dies explizit verboten wird, dann hält sich der Crawler daran.

Google Dorks – eine paar Beispiele

Die folgenden Beispiele sollen zeigen, wie Hacker Google verwenden.

#1 Du kannst über Google z. B. PHP-Parameter gefunden werden:

https://meindomain.de/web.php?parameter=oeffentlich
https://meindomain.de/web.php?parameter=geheim
https://meindomain.de/web.php?parameter=jetztloeschen

#2 Mit einer SQL-Injection kann der Hacker ganze Tabelle extrahieren oder löschen:

https://meindomain.de/web.php?parameter=asdfa;SELECT….

#3 Suche nach

mysqldump filetype:sql

und Du erhälst eine paar nette SQL-Befehle, die viel (alles) über die Datenbank verraten.

#4 Log Dateien können für Hacker besonders interessant sein, weil sie viele Information über das Ziel verraten:

allintext:username filetype:log

#4 Finde öffentliche (Apache-)Ordner mit dem folgenden Statement, die Du über den Browser erreichen kannst:

inurl:/proc/self/cwd

#4 Lasse Dir diverse FTP-Server (Datei-Server) anzeigen:

intitle:"index of" inurl:ftp

#5 Log Dateien vom Putty-Server (SSH) können Passwörter beinhalten. Den Server kannst Du als einen DDoS-Bot oder zu Mining von Bitcoins verwenden.

filetype:log username putty

#4 Oder springe mal in einen fremden Zoom Call (Zoom Bombing):

inurl:zoom.us/j and intext:scheduled for

#5 Spähe eine geheime API aus. Die Swagger Dokumentation sollte im Idealfall nicht verfügbar sein

intitle:"Swagger UI - " + "Show/Hide"

#6 Lade eine ganze Datenbank herunter, die im Internet verfügbar ist.

site:nomedosite.com intitle:index.of "database.db"

#7 Nehme einen Google Drive unter die Lupe und schaue Dir die Videos an

site:drive.google.com /preview intext:movie inurl:flv | wmv | mp4 -pdf -edit -view

#8 Inspiziere PHP-Fehler:

intext: PHP error

Wenn Du noch mehr Inspiration brauchst, dann schaue Dir doch mal diese Sammlung an: https://gist.github.com/mehdichaouch/d702212b69f79258f245c9e444b3764a

Google Werkzeuge

Google stellt mehere Operatoren zur Verfügung:

  • site:<doaminname> listet alle Webseiten, die Google zu einer Domain indexiert hat.
  • filetype:pdf sucht nur nach PDF-Dokumenten.
  • cache:<page> suche im Google Cache. Google speichert auch nach der Löschung der Webseite durch den Administrator die Seite eine Zeit lang. Du kannst weiterhin die Webseite besuchen.
  • intitle:<searchterm> suche nach einem Suchbegriff, der im Titel der Webseite vorkommen muss
  • inurl:<searchterm> suche nach Dateinamen in URLs

Warum verbietet Google diese Funktionen nicht?


Politiker kommen schnell auf die Idee diese Tools zu verbieten …

…dann müsste die Regierung genauso Küchenmesser verbieten. Jeder kann sich im Supermarkt ein scharfes Messer mit 26 cm Klingenlänge kaufen, um damit zu kochen oder Menschen zu erstechen.

Der Beitrag „Wann Hacking legal ist“ erklärt, dass viele Software-Produkte eine Dual Use Funktion haben.

04 Ist Hacking Legal
04 Ist Hacking Legal

Auf der einen Seite kannst Du eine Suchmaschine für die Recherche für Deine Abschlussarbeit nutzen. Auf der anderen Seite kann ein Hacker das gleiche Tool missbrauchen, um sich Informationen zu einer Opfer-Webseite zu beschaffen, mit der Hacker sich in die Systeme hacken kann.

Ein Ethical Hacker verwendet Suchmaschinen wie Koche eine gutes, scharfes Messer.

Steffen Lippke

Sie helfen den Unternehmen weiter und informieren diese über Bugs, Data-Leaks oder Privatsphären-Verletzungen. Google indexiert alle nicht ausgeschlossenen Webseiten, weil die Suchmaschine die optimalen Ergebnisse zu einem Suchbegriff liefern möchte.

Die Software geht davon aus, dass die Webseitenbetreiber immer die Webseiten so schnell wie möglich in den Google Rankings auftauchen.

Schutz gegen Indexing / Google Hacking

Der beste Schutz ist keine Indexierung zu erhalten. Diese 6 Tipps helfen Dir weiter:

#1 robots.txt – Altmodisch und Standard

Die robots.txt befindet sich im Root-Verzeichnis der Webseite (neben der index.html / index.php). Sie soll den „gutartigen“ Bots weiterhelfen. Die Bots lesen die robots.txt, um zu wissen, welche Webseiten sie indexieren und welche sie überspringen sollen.

#2 Meta-Tag – Modern und einfach

Die robots.txt entspricht nicht mehr den neusten Standard. Viele Bots beachten diese, aber der meta Tag no-index besagt, dass eine Crawler dies nicht in seine Sammlung aufnehmen soll.

#3 Passwörter – Klassisch und Logisch

Jede Form von Authentifizierung verhindert, dass Crawler auf bestimmte Webseiten kommen. Legitimierte Nutzer können sich über

  • Benutzername/Passwort,
  • O-Auth
  • Baerar-Token
  • SAML

bei der Webseite anmelden.

​#4 Gekapselte Systeme – Trumpf

Server hinter einer Firewall, die nur durch VPN erreichbar sind, verhindern, dass nicht zufällig einen Bot auf die Webseite aufmerksam wird. Trenne öffentlichen Inhalte und internen Inhalte strikt durch verschiedene (Sub-)Domains und Content-Management-Systeme.

​#5 Keine LinksDein Geheimnis

Crawler können nur Webseiten besuchen, die sie kennen. Dazu sammeln sie die Links, die auf einer Sammlung an Start-Webseiten verfügbar ist. Verhindere, dass Deine Webseite / Subdomain geheim bleibt.

​#6 Spidertraps – Letzte Rettung

Neben den guten Bots gibt es noch die bösartigen Bots. Diese sind die Raudis des Webs. Sie schnüffeln auf jeder Webseite herum, die sie irgendwie finden können (Link, manuelle Eingabe). Webseitenbetreiben beschäftigten die bösartigen Bots mit Spidertraps.

Ein Pre-Prozessor kann unendlich viele Lorem-Ipsum-Webseiten erstellen. Die Bots gelangen über einen versteckten Link in die Spider-Trap und indexieren unendlich viel Quatsch-Inhalt.

Kommentare 2

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert


Jeden Monat teile ich mit Mitgliedern
4 neue praxisnahe Tutorials (je 1000+ Wörter).


Trage Deine Mail, damit Du
Deine Coding + Hacking Skills erweitern kannst!

Die Webseite nutzt nur technisch notwendige Cookies.