IT-Sicherheit Praktikum IT

Transcription

IT-Sicherheit Praktikum IT
Praktikum IT-Sicherheit
- Versuchshandbuch -
Footprinting
Footprinting stellt bei Sicherheitstests oder vor einem Angriff
die Phase der Informationsbeschaffung dar, durch die IPAdressen, Hostnamen, DNS-Einträge und vieles mehr in
Erfahrung gebracht werden sollen.
In diesem Dokument erfahren Sie, wie Sie diesen Versuch
inhaltlich vorbereiten müssen, um den Versuch erfolgreich
durchführen und das Lernziel erreichen zu können.
B.Sc. AI, WI
M.Sc. AI
M.Sc. EB
IT-Sicherheit
Vorbereitung
Footprinting
BSc. AI, WI
MSc. AI
MSc. EB
Versuchsablauf
In diesem Versuch wird mit Hilfe verschiedener Onlinequellen gezielt nach Informationen über die
IT-Infrastruktur von Unternehmen gesucht. Das Ziel ist, ein möglichst genaues Bild über die
verwendete IT des Unternehmens zu bekommen.
Ein Teil des Versuchs, der keine Internetverbindung voraussetzt, wird auf einer virtuellen LinuxMaschine (VM) im SecLab durchgeführt. Alle anderen Aufgabenteile können an einem beliebigen
internetfähigen Computer bearbeitet werden. Einzige Voraussetzung ist das Vorhandensein eines
Internetbrowsers, der standardmäßig bei den gängigsten Betriebssystemen vorinstalliert ist.
Im Folgenden wird auf die Vorbereitung des Versuchs eingegangen, die nötig ist, um diesen
erfolgreich durchzuführen.
Suchmaschinen (Google)
Informieren Sie sich über die Syntax der Suchmaschine Google, um Suchanfragen gezielter
abzusetzen. Im Folgenden wird bereits teilweise auf die Syntax von Google Bezug genommen.
Schlüsselwort
Funktion
„Ausdruck“
Die Anführungszeichen bedeuten, dass ein Ausdruck in genau dieser
Reihenfolge gesucht werden soll. Einzig auf die Groß- und Kleinschreibung wird
nicht geachtet. Die Suche mit Anführungszeichen kann insoweit noch optimiert
werden, indem * als Platzhalter verwendet werden können. Dabei gilt, dass ein
* für ein Wort angesehen werden kann.
+wort
Das direkt nach + folgende Wort muss im Suchergebnis enthalten sein.
-wort
Das direkt nach - stehende Wort wird aus den Suchergebnissen
ausgeschlossen. Das bedeutet, es werden keine Ergebnisse angezeigt, in denen
das Wort vorkommt.
allinanchor:
Das Ergebnis enthält nur die Seiten, auf die mit bestimmten nachfolgenden
Wörtern verlinkt wurde. Man bezeichnet dies auch als Backlinks.
inanchor:
Die Suche nach Backlinks kann mit diesem Befehl auf ein nachfolgendes Wort
beschränkt werden.
allintext:
Google sucht nach Seiten, die alle angegebenen Begriffe enthalten.
intext:
Auch hier wird die Suche auf das nachfolgende Wort beschränkt.
allintitle:
Ermitteln der Seiten, die alle nach diesem Parameter angegebenen Wörter im
Titel der Webseiten enthalten.
intitle:
Sucht nach Webseiten mit dem nachfolgenden Wort im Titel der Webseite.
allinurl:
Es werden Webseiten angezeigt, bei denen nachstehende Wörter in der URL
enthalten sind.
inurl:
Der nachfolgende Begriff muss sich in der URL der Webseite befinden, damit die
Webseite als Treffer angezeigt wird.
cache:
Zeigt die gesuchte Webseite an, die im Cache von Google gespeichert ist.
define:
Definitionen zum gesuchten Wort werden ausgegeben.
filetype:
Sucht nach Ergebnissen, die in einem bestimmten Format vorliegen.
info:
Informationen zur gesuchten Seite anzeigen lassen.
link:
Ermitteln von Webseiten, die auf den gesuchten, nachfolgenden Link verweisen.
site:
Suche auf angegebene Webseite beschränken.
2
Footprinting
BSc. AI, WI
MSc. AI
MSc. EB
Quelltext einer Webseite
Informieren Sie sich über den Aufbau eines HTML-Kommentars und über das Tool wget, das zum
Herunterladen einer Webseite verwendet werden kann. Im Folgenden sind einige wichtige
Parameter von wget beschrieben.
Option
Funktion
-r, --recursive
Ermöglicht das rekursive Herunterladen einer Webseite. Der Aufruf von wget
ohne Parameter erlaubt nur das Herunterladen einer Datei z.B. der Indexdatei.
Mit dieser Option werden auch alle Seiten heruntergeladen, auf die verlinkt
wird.
-l, --level
Diese Option gibt die Tiefe des rekursiven Downloads an. Das Herunterladen
einer einzigen Datei hat eine Tiefe von 1.
-e robots=off
Mit dieser Option wird die Datei robots.txt ignoriert. Diese gibt an, auf welche
Verzeichnisse die Spider von Suchmaschinen zugreifen dürfen.
Namensauflösung
Machen Sie sich mit der Webseite www.whois.net vertraut, über die sogenannte whois-Abfragen
zur Informationsgewinnung abgesetzt werden können.
Der Befehl find und reguläre Ausdrücke
Informieren Sie sich über den UNIX-Befehl find und reguläre Ausdrücke. Diese werden unter
anderem im Praktikumsskript von Prof. Dr. Groß behandelt.
Quelle: http://www2.hs-fulda.de/~gross/bs_praktikum/kap1.pdf
E-Mail Header
Informieren Sie sich über den Aufbau eines E-Mail Headers.
3