Ich muß leider feststellen, das viele Webseiten wegsterben. Nun kam mir der Gedanke, einige Tote wiederzubeleben, es kann ja nicht angehen, das man dem Mainstream das Feld komplett überläßt.
Zum Beispiel radwegparker.de
Kennt jemand den Autoren, liest er hier? Kontaktmöglichkeit?
Mal sehen, wie hoch der Aufwand für sowas ist. Auch eine regelmäßige Sicherung von noch existierenden Seiten. Oder macht jemand sowas bereits?
Webseiten wiederveröffentlichen
-
-
-
Erstens kann und wird auch so ein Archiv abgeschaltet und Zensiert. Zweitens kann es ja kein Ersatz-Internet sein. Drittens sind sie alle bei Suchmaschinen ausgeschlossen, was auch nachvollziehbar ist. Und langsam, unvollständig, und und und.
Ich sehe jedenfalls Gründe zu Wiedererweckung.
-
that's what Frankenstein said
-
Ich muß leider feststellen, das viele Webseiten wegsterben. Nun kam mir der Gedanke, einige Tote wiederzubeleben, es kann ja nicht angehen, das man dem Mainstream das Feld komplett überläßt.
Zum Beispiel radwegparker.de
Kennt jemand den Autoren, liest er hier? Kontaktmöglichkeit?
Mal sehen, wie hoch der Aufwand für sowas ist. Auch eine regelmäßige Sicherung von noch existierenden Seiten. Oder macht jemand sowas bereits?Als statisches HTML rausgeschrieben hast Du dann so was wie web.archive.org. Wenn Du Dinge wie Suchfunktion oder andere Sachen haben möchtest, wird es schwierig. Du müsstest dann die Site tatsächlich weiterbetreiben und handelst Dir den entsprechenden Pflegeaufwand ein - je nachdem womit das Ding gebaut ist auch laufende Kosten.
-
Ich habe bereits etwas gebaut. Das extrahieren aus archive.org ist besonders aufwendige Handarbeit. Für Forester brauchte ich weit über 10 Stunden, obwohl das ebenfalls statische Seiten sind. Grund: Kein Programm kommt seiner einzigen Aufgabe „Ziehe die Website auf meine Kiste“ nach, 4 Programme getestet. Doch nach dieser Handarbeit ist der Aufwand 0, jedenfalls für statische Seiten, denn sie bleiben so, wie sie sind.
Das Problem ist jetzt eher das Programm, auch bei noch existierenden Seiten. HTTrack, wget, wget2 tuns einfach immer nur unvollständig, denn mit HTTP 429 kann keines ordentlich umgehen. Cyotek WebCopy habe ich bisher nicht zu nennenswerter Geschwindigkeit antreiben können.