Komplette Website von Webarchive runterladen- httrack hilfe

Lilith

Neu angemeldet
Registriert
23 Feb. 2020
Beiträge
3
Hallo,

Dringende Hilfe gesucht- gibt's eine Möglichkeit eine komplette Website vom Webarchive runterzuladen, ohne langwierig jede Seite einzeln speichern zu müssen?
Ich habe mir httrack runtergeladen, nur leider komme ich damit nicht ganz klar.
ich hatte immer das Gefühl, dass ich mit meinen Einstellungen das gesamte Internet downloade.

Falls jemand die Seite nicht kennt:*

Bin über jeden Tipp dankbar.

Mfg Lilith
 
Ist die Seite geheim / privat?
Sonst schreibe doch die Seite hier, dann können dir sicher mehr Leute helfen :cool:
 
Wichtig bei HTTrack ist, dass man das Blatt Grenzwerte in den Einstellungen pflegt. Aber ohne genau zu wissen, wo es scheitert, ist eine Hilfestellung praktisch nicht möglich.

httrack.png

Was passiert denn, wenn du das Programm startest? Nichts? Dauert es zu lange? Wird der Ordner zu groß? Ist er zu klein? Werden externe Seiten nicht mitgespeichert? Nicht tief genug?
 
  • Thread Starter Thread Starter
  • #4
@drfuture
Das wäre klasse , wenn des mir hier jemand runterladen könnte.
Die site heist schreibwerkstatt.de und am besten nur die letzte kopie ( das wäre der16.Juni 2017, bin mir aber nicht sicher).

@ c1i
Habe den Download nach 8 Stunden abgebrochen, und hatte tausende falsche Websites im Ordner und nur die Startseite von schreibwerkstatt.de.

Vielen Dank für die schnellen Antworten

Mfg Lilith
 
Hi,

versuch es mal mit [kw]wget[/kw]

Das gibt es auch für Windows und ist ein winhttrack Ersatz bzw. Alternative.

Mit diesem Befehl:
[kw]wget -m -r -np -k -p https://web.archive.org/web/20170618053845/http://www.schreibwerkstatt.de/[/kw]

Das ist der Snapshot der Seite vom 18. Juni 2017.
 
Zurück
Oben