Wie lade ich eine gesamte Website zum Offline-Lesen herunter?
Obwohl Wi-Fi heutzutage überall verfügbar ist, kann es vorkommen, dass Sie ohne Wi-Fi auskommen. Wenn Sie dies tun, gibt es bestimmte Websites, von denen Sie wünschen, dass Sie sie speichern und auf sie zugreifen können, wenn sie offline sind. Dies kann zu Recherchen, zur Unterhaltung oder zur Nachwelt sein.
Es ist leicht genug, einzelne Webseiten für das Offline-Lesen zu speichern, aber was ist, wenn Sie eine herunterladen möchten? gesamte Website? Nun, es ist einfacher als du denkst! Hier sind vier raffinierte Tools, mit denen Sie jede Website für das Offline-Lesen herunterladen können.
1. WebCopy
Nur für Windows verfügbar.
WebCopy by Cyotek nimmt eine Website-URL und durchsucht sie nach Links, Seiten und Medien. Während es Seiten findet, sucht es rekursiv nach weiteren Links, Seiten und Medien, bis die gesamte Website entdeckt wird. Anschließend können Sie mit den Konfigurationsoptionen entscheiden, welche Teile offline heruntergeladen werden sollen.
Das Interessante an WebCopy ist, dass Sie mehrere einrichten können “Projekte” dass jeder seine eigenen Einstellungen und Konfigurationen hat. Dies macht es einfach, viele verschiedene Websites jederzeit wieder herunterzuladen, jede auf dieselbe Weise.
Ein Projekt kann viele Websites kopieren. Verwenden Sie sie daher mit einem organisierten Plan (z. B. a “Technik” Projekt zum Kopieren von Tech-Sites).
So laden Sie eine Website mit WebCopy herunter:
- Installieren und starten Sie die App.
- Navigiere zu Datei> Neu ein neues Projekt erstellen.
- Geben Sie die URL in das Feld ein Webseite Feld.
- Ändere das Ordner speichern Feld, an dem die Site gespeichert werden soll.
- Mit herumspielen Projekt> Regeln… (erfahren Sie mehr über WebCopy-Regeln).
- Navigiere zu Datei> Speichern unter… das Projekt speichern.
- Klicken Website kopieren in der Symbolleiste, um den Prozess zu starten.
Nach dem Kopieren können Sie auf der Registerkarte Ergebnisse den Status der einzelnen Seiten und / oder Mediendateien anzeigen. Auf der Registerkarte Fehler werden möglicherweise aufgetretene Probleme angezeigt, und auf der Registerkarte Übersprungen werden Dateien angezeigt, die nicht heruntergeladen wurden.
Am wichtigsten ist jedoch die Sitemap, die die vollständige Verzeichnisstruktur der Website zeigt, die von WebCopy ermittelt wurde.
Um die Website offline anzuzeigen, öffnen Sie den Datei-Explorer und navigieren Sie zu dem von Ihnen festgelegten Speicherordner. Öffne das index.html (oder manchmal index.htm) in Ihrem Browser Ihrer Wahl, um mit dem Durchsuchen zu beginnen.
2. HTTrack
Verfügbar für Windows, Linux und Android.
HTTrack ist mehr bekannt als WebCopy und ist wohl besser, weil es Open Source ist und auf anderen Plattformen als Windows verfügbar ist. Die Benutzeroberfläche ist jedoch etwas unübersichtlich und lässt zu wünschen übrig. Es funktioniert jedoch gut, also lassen Sie sich nicht davon abbringen.
Wie bei WebCopy verwendet es einen projektbasierten Ansatz, mit dem Sie mehrere Websites kopieren und alle auf diese Weise organisieren können. Sie können Downloads anhalten und fortsetzen und kopierte Websites aktualisieren, indem Sie alte und neue Dateien erneut herunterladen.
So laden Sie eine Website mit HTTrack herunter:
- Installieren und starten Sie die App.
- Klicken Nächster um ein neues Projekt zu erstellen.
- Geben Sie dem Projekt einen Namen, eine Kategorie und einen Basispfad, und klicken Sie dann auf Nächster.
- Wählen Website (s) herunterladen Geben Sie für Action die URL jeder Website in das Feld Webadressen Box, eine URL pro Zeile. Sie können URLs auch in einer TXT-Datei speichern und importieren. Dies ist praktisch, wenn Sie dieselben Sites später erneut herunterladen möchten. Klicken Nächster.
- Passen Sie die Parameter an, wenn Sie möchten, und klicken Sie dann auf Fertig.
Sobald alles heruntergeladen ist, können Sie die Site wie gewohnt durchsuchen, indem Sie zu dem Download-Bereich gehen und die Datei öffnen index.html oder index.htm in einem Browser.
3. SiteSucker
Verfügbar für Mac und iOS.
Wenn Sie mit einem Mac arbeiten, ist die beste Option SiteSucker. Mit diesem einfachen Tool werden gesamte Websites aufgerissen, die Gesamtstruktur beibehalten und alle relevanten Mediendateien (z. B. Bilder, PDFs, Stylesheets) eingeschlossen..
Es hat eine saubere und einfach zu bedienende Benutzeroberfläche, die nicht einfacher zu bedienen wäre: Sie fügen die URL der Website ein und drücken auf Eingeben.
Eine nette Funktion ist die Möglichkeit, den Download in einer Datei zu speichern und dann mit dieser Datei dieselben Dateien und Strukturen in der Zukunft (oder auf einem anderen Computer) erneut herunterzuladen. Diese Funktion ermöglicht es SiteSucker außerdem, Downloads anzuhalten und fortzusetzen.
SiteSucker kostet 5 US-Dollar und wird nicht mit einer kostenlosen Version oder einer kostenlosen Testversion geliefert, was den größten Nachteil darstellt. Die neueste Version erfordert macOS 10.13 High Sierra oder höher. Ältere Versionen von SiteSucker sind für ältere Mac-Systeme verfügbar, einige Funktionen fehlen jedoch möglicherweise.
4. Wget
Verfügbar für Windows, Mac und Linux.
Wget ist ein Befehlszeilendienstprogramm, mit dem alle Arten von Dateien über die Protokolle HTTP und FTP abgerufen werden können. Da Websites über HTTP bereitgestellt werden und die meisten Web-Mediendateien über HTTP oder FTP verfügbar sind, ist Wget ein hervorragendes Werkzeug zum Rippen von Websites.
Wget wird normalerweise zum Herunterladen einzelner Dateien verwendet können zum rekursiven Herunterladen aller Seiten und Dateien verwendet werden, die über eine Startseite gefunden wurden:
wget -r -p //www.makeuseof.com
Einige Websites können jedoch erkennen und verhindern, was Sie versuchen, da das Rippen einer Website eine Menge Bandbreite kosten kann. Um dies zu umgehen, können Sie sich als Webbrowser mit einer Benutzeragentenzeichenfolge tarnen:
wget -r -p -U Mozilla //www.makeuseof.com
Wenn Sie höflich sein möchten, sollten Sie auch Ihre Downloadgeschwindigkeit einschränken (damit die Bandbreite des Webservers nicht beeinträchtigt wird) und zwischen jedem Download eine Pause einlegen (damit Sie den Webserver nicht mit zu vielen Anfragen überfordern):
wget -r -p -U Mozilla --wait = 10 - Grenzwert = 35K //www.makeuseof.com
Wget wird mit den meisten Unix-basierten Systemen geliefert. Auf einem Mac können Sie Wget mit einem einzigen Homebrew-Befehl installieren: brauen Sie installieren wget (So richten Sie Homebrew auf einem Mac ein So installieren Sie Mac-Apps in einem Terminal mit Homebrew) So installieren Sie Mac-Apps in einem Terminal mit Homebrew Wussten Sie, dass Sie Mac-Software in einem Terminal installieren können? So können Sie Mac-Apps mit Homebrew problemlos installieren. Lesen Sie Mehr ). Unter Windows müssen Sie stattdessen diese portierte Version verwenden.
Welche Webseiten möchten Sie herunterladen??
Nun, da Sie wissen, wie Sie eine komplette Website herunterladen, sollten Sie niemals ohne etwas zum Lesen erwischt werden, auch wenn Sie keinen Internetzugang haben.
Aber denken Sie daran: Je größer die Seite, desto größer der Download. Wir empfehlen nicht, riesige Websites wie MakeUseOf herunterzuladen, da Sie Tausende von MBs benötigen, um alle von uns verwendeten Mediendateien zu speichern.
Die besten Websites zum Herunterladen Die besten Websites im Internet Die besten Websites im Internet Eine enorme Liste der besten Websites im Internet in vierzehn praktischen Kategorien. Dies sind die Top-of-the-Line-Websites, die Ihnen das bieten, was Sie brauchen. Weitere Informationen sind solche mit viel Text und nicht vielen Bildern sowie Websites, die nicht regelmäßig neue Seiten hinzufügen oder ändern. Statische Informationsseiten, Online-E-Book-Sites und Sites, die Sie archivieren möchten, falls sie ausfallen, sind ideal.
Bildnachweis: RawPixel.com/Shutterstock
Erfahren Sie mehr über: Download-Management, Offline-Browsing.