- Ce site et tout autre site à travers le Web sont récupérables dans leur
intégralité, sans avoir à en visiter toutes les pages, une par une. Il faut
pour cela un logiciel de récupération, celui-ci en est un.
- Non seulement il est très efficace et souple, mais, en plus, il
sait ne télécharger que ce qui a été modifié depuis la précédente aspiration.
Super pour garder à disposition ses sites préférés !
|
- (existe en version française)
- Par exemple, pour récupérer le site Pressibus des Gratuiciels :
- par la commande "File - Options..." indiquez le dossier de votre disque
sous lequel vous voulez que les sites soient téléchargés.
- dans la sous-fenêtre de gauche, vous créez un dossier ("folder") que vous
appelez, par exemple, "Gratuiciels", en faisant appel au menu contextuel par
clic droit (ou la commande "Items - Add folders").
- par clic droit sur la sous-fenêtre de droite ("Add..."), vous indiquez
l'URL du site à télécharger, comme le montre cette image :
-
- les paramètres de cet onglet sont à déterminer avec attention pour savoir
ce que l'on veut télécharger (faut-il aller jusqu'aux pages d'autres sites ?
Sur quelle niveau de profondeur ?...). C'est là que l'on indique si l'on veut
seulement les modifications depuis le dernier téléchargement. Certaines
valeurs de ces paramètres peuvent ne pas être évidentes à trouver et il faut
"tatonner" (en particulier pour le fait de seulement descendre les
répertoires), afin de récuperer tout ce qui vous intéresse et pas plus.
- L'onglet "advanced" permet d'être encore plus précis dans les données à
récupérer. Vous pouvez, par exemple, demander à ne pas récupérer les pages
gb*.html du site Pressibus afin de ne pas en télécharger les pages en langue
anglaise. Quand je vous dis que c'est super...
- par un clic droit sur l'URL, un menu contextuel s'affiche, qui permet de
lancer la commande "Execute" (on peut aussi utiliser une commande demenu ou un
bouton). Le téléchargement est alors déclenché et vous en vérifiez l'exécution
dans la sous-fenêtre du bas. Une icône peut être positionnée dans la "tray
bar" pour accéder facilement au programme en cours de déroulement.
- Il est possible de télécharger plusieurs sites à la fois. Une
plannification des sites à récupérer peut être mise ne place.
- Une fois récupérées, les pages sont en double :
- sous leur vrai nom avec des liens corrigés pour être opérationnels sur
votre disque,
- sous l'extension ".primary", dans la version d'origine (afin de reconnaître
exactement, au chargement suivant ce qui est déjà présent).
- Après une ou deux manipulations, c'est un programme qui se révèle très
puissant et pratique.
- La documentation dit que "Ce programme est destiné à l'intranet",
mais je ne l'utilise que pour l'Internet et il me donne pleine satisfaction.
- Il est à signaler que ce programme peut télécharger sur un autre
site Web et qu'il sait aussi travailler avec un Proxy. J'ai aussi constaté que
de temps en temps, surtout des gros sites, il ne télécharge pas tout, mais
généralement c'est bon...
- Attention, en septembre 1998, Web Downloader a évolué et est devenu
Offline Explorer, mais... mais... ce n'est plus un gratuiciel. Comme la
version libre suffit amplement à mes besoins, je l'ai placée sur ce site en version française (209
Ko,zippé, traduction par François Elie) et en version anglaise (301 Ko,
zippé). Il est à signaler qu'il existait des versions en russe, grec,
norvégien, allemand, espagnol, tchèque...
- L'auteur, Oleg Chernavin, est Russe. Je ne sais pas si vous
trouverez Web Downloader
sur son ancien site,
très difficile d'accès. Mais vous trouverez Offline Explorer, son successeur,
sur le site
VNU,
mais, en 2002, c'est un partagiciel (shareware)... En 2003, regardez plutôt
par ici.
- Mon opinion 2001 : c'est le gratuiciel qui semble avoir le
plus de succès sur ce site, et c'est vrai que je ne lui ai pas encore trouvé
d'équivallent (même sous LInux, en mode graphique). Pourtant il y a des sites
qui ne sont pas bien téléchargés, ce qui laisse apparaître un facteur
chance...