Comment puis-je télécharger un site Web complet?
Vous ne voulez pas seulement un article ou une image individuelle, vous voulez que le entier site Internet. Quelle est la meilleure façon de siphonner tout cela??
La séance de questions et réponses d'aujourd'hui nous est offerte par SuperUser, une sous-division de Stack Exchange, un groupe de sites Web de questions-réponses dirigé par la communauté..
Image disponible en fond d'écran chez GoodFon.
La question
Le lecteur superutilisateur Joe a une requête simple:
Comment puis-je télécharger toutes les pages d'un site Web?
N'importe quelle plateforme.
Chaque page, sans exception. Joe est en mission.
La réponse
SuperUser contributor Axxmasterr offre une recommandation d'application:
http://www.httrack.com/
HTTRACK fonctionne comme un champion pour copier le contenu d'un site entier. Cet outil peut même récupérer les éléments nécessaires pour créer un site Web avec un contenu de code actif hors ligne. Je suis émerveillé par les choses qu'il peut reproduire hors ligne.
Ce programme fera tout ce dont vous avez besoin.
Bonne chasse!
Nous pouvons recommander chaleureusement HTTRACK. C'est une application mature qui fait le travail. Qu'en est-il des archivistes sur des plateformes autres que Windows? Un autre contributeur, Jonik, suggère un autre outil mature et puissant:
Wget est un outil classique en ligne de commande pour ce type de tâche. Il est fourni avec la plupart des systèmes Unix / Linux, et vous pouvez l’obtenir pour Windows (version 1.13.4 plus récente disponible ici).
Vous feriez quelque chose comme:
wget -r --no-parent http://site.com/songs/
Pour plus de détails, voir Wget Manual et ses exemples, ou consultez-les:
- http://linuxreviews.org/quicktips/wget/
- http://www.krazyworks.com/?p=591
Avez-vous quelque chose à ajouter à l'explication? Sound off dans les commentaires. Voulez-vous lire plus de réponses d'autres utilisateurs de Stack Exchange doués en technologie? Découvrez le fil de discussion complet ici.