Le Petit Journal du Linuxien Novice
© 1999-2007 César Alexanian. Hébergé officiellement chez Linux-France. Serveur principal tournant sous GNU/Linux chez NFrance Conseil
À SUIVRE...
STATS

[ Nedstat ]
Dernière mise à jour : vendredi 30 novembre 2007

L'installation d'un aspirateur web.

A propos d'un aspirateur de web, je (Georges Brun) me suis enquiquiné pendant assez de temps pour en faire profiter ceux qui en auront besoin. (Concernant l'installation sous Mandrake 7.2)

J'ai essayé d'installer wwwoffle. On trouve l'archive wwwoffle-2.5b.tar.gz à : http://www.gedanken.demon.co.uk/wwwoffle ou, sur le cd n° 3 de Mandrake 6.1, une version wwwoffle-2.4b.rpm.

La 2.5b est impossible à installer mais, en installant la 2.4b.rpm et en récupérant les fichiers en francais de la 2.5b.tar.gz, je me retrouve avec un Netscape configuré pour wwwoffle qui se lance... mais qui ne fonctionne pas trés correctement. Donc...
J'ai essayé d'installer GetWeb (on trouve l'archive sur http://www.enfin.com/GetWeb/GetWeb-2.7.5.tar.gz).
Suivre les READ mais attention GROSSE ERREUR en vue :

  1. Si message d'erreur comportant [JINX error... et la suite, c'est que vous n'avez pas installé les librairies XFree86-libs et idem-devel Xaw3d, idem-devel et gtk+
  2. Si la création d'un RPM echoue, c'est qu'il manque un répertoire :
    /usr/src/RPM/RPMS/i586 (manque de conformité entre différentes distrib').

Sinon tout est expliqué dans le fichier THE-RPM-BUILDING sauf que la francisation est en panne...
J'ai essayé de bricoler le fichier RulesMake et MakeGetWeb mais aucun résultat.

Par contre je récupère tout un site et je le lis hors ligne avec StarOffice51, c'est franchement plus confortable. Même avec Kfm c'est pas mal vu : les fontes énormes pour les miros (j'en suis :).

Voilà. C'était la prose de Georges Brun. Pour tout contact avec l'auteur : brung@club-internet.fr

Dimitri Fontaine a apporté sa pierre à l'édifice : Je n'avais encore pas lu ta FAQ, et je m'apercois que vous vous êtes galérés pour trouver et installer un 'aspirateur web' fonctionnel, alors que depuis bien longtemps maintenant existe l'outil wget, un standard de facto dans le monde unix... et qui plus est un logiciel du gnu !
Tu trouveras plus de détails sur le site http://www.gnu.org/software/wget/wget.html, mais sache qu'il suffit d'un fichier de config (en général il faut juste y préciser le proxy que tu utilises le cas échéant) puis d'une ligne de commande pour télécharger un site ou bien un fichier, avec reprises sur erreurs et même téléchargement en plusieurs fois, quel que soit le site...
Un logiciel qui va assez bien avec, et qui te sera peut-être utile, est weex pour fast WEb pages EXchanger, un outil qui lui aussi nécessite un fichier de config (des plus simples) et permet d'exporter les mises à jours d'un site web... tu travailles en local, et quand t'as fini tu tapes une seule commande du genre weex cible, et le tour est joué ! L'url ? : http://www.enjoy.ne.jp/~gm/program/weex

[ Retour ]

Remonter

Site réalisé sous Gnu-Linux en PHP mis en forme avec Quanta et mis en ligne grâce à gFTP sous la Mandrake 9.1