• Hallo liebe Userinnen und User,

    nach bereits längeren Planungen und Vorbereitungen sind wir nun von vBulletin auf Xenforo umgestiegen. Die Umstellung musste leider aufgrund der Serverprobleme der letzten Tage notgedrungen vorverlegt werden. Das neue Forum ist soweit voll funktionsfähig, allerdings sind noch nicht alle der gewohnten Funktionen vorhanden. Nach Möglichkeit werden wir sie in den nächsten Wochen nachrüsten. Dafür sollte es nun einige der Probleme lösen, die wir in den letzten Tagen, Wochen und Monaten hatten. Auch der Server ist nun potenter als bei unserem alten Hoster, wodurch wir nun langfristig den Tank mit Bytes vollgetankt haben.

    Anfangs mag die neue Boardsoftware etwas ungewohnt sein, aber man findet sich recht schnell ein. Wir wissen, dass ihr alle Gewohnheitstiere seid, aber gebt dem neuen Board eine Chance.
    Sollte etwas der neuen oder auch gewohnten Funktionen unklar sein, könnt ihr den "Wo issn da der Button zu"-Thread im Feedback nutzen. Bugs meldet ihr bitte im Bugtracker, es wird sicher welche geben die uns noch nicht aufgefallen sind. Ich werde das dann versuchen, halbwegs im Startbeitrag übersichtlich zu halten, was an Arbeit noch aussteht.

    Neu ist, dass die Boardsoftware deutlich besser für Mobiltelefone und diverse Endgeräte geeignet ist und nun auch im mobilen Style alle Funktionen verfügbar sind. Am Desktop findet ihr oben rechts sowohl den Umschalter zwischen hellem und dunklem Style. Am Handy ist der Hell-/Dunkelschalter am Ende der Seite. Damit sollte zukünftig jeder sein Board so konfigurieren können, wie es ihm am liebsten ist.


    Die restlichen Funktionen sollten eigentlich soweit wie gewohnt funktionieren. Einfach mal ein wenig damit spielen oder bei Unklarheiten im Thread nachfragen. Viel Spaß im ngb 2.0.

Komplette Website vom "Webarchive" downloaden

Äther

...hat kein real life!

Registriert
22 Juli 2013
Beiträge
336
Ort
Im Reagenzglas
Hallo,

kleine Frage - gibt's eine Möglichkeit eine komplette Website vom Webarchive runterzuladen, ohne langwierig jede Seite einzeln speichern zu müssen?
Falls jemand die Seite nicht kennt: http://archive.org/web/
Mfg Äther
 

Kampfmelone

süß und saftig

Registriert
22 Juli 2013
Beiträge
590
Es gibt Webspider/crawler, die den links folgen und alles nach bestimmten Regeln (linktiefe, URL..) runterladen.
 

Äther

...hat kein real life!

Registriert
22 Juli 2013
Beiträge
336
Ort
Im Reagenzglas
  • Thread Starter Thread Starter
  • #4
Kenn ich, nur leider weiß ich nicht wie man damit umgeht: ich hatte immer das Gefühl, dass ich mit meinen Einstellungen das gesamte Internet downloade :D
 

drfuture

Zeitreisender
Teammitglied

Registriert
14 Juli 2013
Beiträge
8.728
Ort
in der Zukunft
Hehehehe :D
Ja - wenns keine geheime (Private) Seite oder so ist - kannst ja die URL hier posten und jemand downloadet es für dich ;)
 

drfuture

Zeitreisender
Teammitglied

Registriert
14 Juli 2013
Beiträge
8.728
Ort
in der Zukunft
Und du willst alle Versionen der Seite die archive.org hat? Das könnte definitiv etwas größer werden so wie das aussieht *Fg*
 

keksautomat

Neu angemeldet

Registriert
15 Juli 2013
Beiträge
471
Wenn du einen Linux Server zur Verfügung hast, könntest du das ganze zB mit "wget" (Downloadprogramm unter Linux) machen:

[src=bash]wget -np -e robots=off --mirror --domains=staticweb.archive.org,web.archive.org http://web.archive.org/web/20060118024743/http://www.young-nienburg.de/[/src]

1 URL = Die Website zum Zeitpunkt X.
 
Zuletzt bearbeitet:

Äther

...hat kein real life!

Registriert
22 Juli 2013
Beiträge
336
Ort
Im Reagenzglas
  • Thread Starter Thread Starter
  • #11
Das ist wirklich nett, aber ich will Dir deine Bandbreite nicht klauen :D
 

drfuture

Zeitreisender
Teammitglied

Registriert
14 Juli 2013
Beiträge
8.728
Ort
in der Zukunft
K.a wie viel es zum Schluss wird - die Leitung ist nicht das Problem, die Seite muss analysiert werden und Rekursionen verhindert... von 20 möglichen Threads arbeitet immer nur einer im Moment da die Analyse wohl schlecht parallel laufen kann um doppelungen zu vermeiden ...
Da der PC aber nicht 24/7 läuft kann ich erst heute Abend weiter schauen....
 

drfuture

Zeitreisender
Teammitglied

Registriert
14 Juli 2013
Beiträge
8.728
Ort
in der Zukunft
Ich habs schon ausprobiert @wget - das Ergebnis fand ich irgendwie nicht so schön benutzbar - und man müsste recht viele Links generrieren um die Div. Versionen zu downloaden - daher hab ich mich dann doch lieber für httrack entschieden.
 

drfuture

Zeitreisender
Teammitglied

Registriert
14 Juli 2013
Beiträge
8.728
Ort
in der Zukunft
Tso, also ich habe nun einen Dump @TS - hat leider etwas gedauert da ich mal unterbrechen musste.. sind 30.000 Dateien und komprimiert 50mb, daher so wenig da recht viele Bilder fehlen - die sind wohl außerhalb der domainstruktur gelagert und wurden von meinem Filter leider nicht erwischt.
Um was geht es dir bei dem Backup? Reicht der Text und die Struktur oder die Bilder auch?
Dann bastle ich noch ein wenig und schaue ob ich das hin bekomme...
 

Äther

...hat kein real life!

Registriert
22 Juli 2013
Beiträge
336
Ort
Im Reagenzglas
  • Thread Starter Thread Starter
  • #17
Wow, ich dachte schon Du hätts mich vergessen, das ist echt super nett! Ne der Text und Struktur reicht mir schon :D
 
Oben