Mit wget können nicht nur einzelne Dateien gespeichert,
sondern auch ganze Seiten gespiegelt werden. Die dafür zu verwendende
Option ist -r. Damit wird bei der angegebenen Seite
rekursiv den Links gefolgt.
Die Standardeinstellung für -r folgt fünf Ebenen von
Links. Dabei wird nicht unterschieden, ob die Seiten vom gleichen Server stammen,
oder nicht.
Bei FTP-Adressen werden demensprechend fünf Unterverzeichnisebenen heruntergeladen.
Ebenen heißen an dieser Stelle einfach verschachtelte Links.
Man muss sich dies wie eine gewöhnliche Sitzung mit einem Browser
vorstellen. Jeder Link, den man anklickt, öffnet eine neue Ebene.
Ein -r bedeutet also, daß man von der Startseite
fünf tiefer gelegene Seiten aufrufen kann.
Fünf Ebenen sind eine ganze Menge, da die Link-Anzahl der gefolgt wird, in dieser
Einstellung nicht begrenzt ist. Wenn z.B. die erste Seite 20 Links enthält, diese 20
jeweils weitere 10, dann werden bereit 1 + 20 + 10 * 20 = 121 Seiten heruntergeladen.
Das wären also drei Ebenen.
Weist ein Link auf der 2. Seite zu
www.linux.org, wird auch dort
wiederum den Links gefolgt und die Dateien auf dem eigenen
Rechner abgelegt. Dabei sollte man immer bedenken, daß alle verlinkten Dokumente
geladen werden und das können schnell mehrere hundert Megabyte sein.
Die Option -l num steht für level und passt
die Tiefe von -r an. num muss durch eine beliebige
positive Zahl ersetzt werden.
user@linux ~$
wget -r -l 2 www.selflinux.org
|
Speichert alle Dateien, die über eine andere Datei verlinkt sind,
im Verzeichnis www.selflinux.org
Die gefundene Verzeichnisstruktur wird dabei übernommen. Allerdings wird
nur 2 Ebenen tief gesucht, was bei großen Kapiteln dazu führt, daß
nicht alle Dateien heruntergeladen werden.
wget ist gut um sich schnell einige Seiten zu holen. Für ein
effektives Spiegeln eines Servers sollte man sich ein anderes Tool suchen.
|