Ich habe bereits etwas gebaut. Das extrahieren aus archive.org ist besonders aufwendige Handarbeit. Für Forester brauchte ich weit über 10 Stunden, obwohl das ebenfalls statische Seiten sind. Grund: Kein Programm kommt seiner einzigen Aufgabe „Ziehe die Website auf meine Kiste“ nach, 4 Programme getestet. Doch nach dieser Handarbeit ist der Aufwand 0, jedenfalls für statische Seiten, denn sie bleiben so, wie sie sind.
Das Problem ist jetzt eher das Programm, auch bei noch existierenden Seiten. HTTrack, wget, wget2 tuns einfach immer nur unvollständig, denn mit HTTP 429 kann keines ordentlich umgehen. Cyotek WebCopy habe ich bisher nicht zu nennenswerter Geschwindigkeit antreiben können.
Guck mal, ob Dir Selenium, Puppeteer oder Playwright helfen können. Wenn Du Sachen aus archive.org rausholen willst, wird das aber vermutlich immer lahm sein.