Avancé

L'onglet Avancé dans la zone de dialogue Paramètres de déchargement présente les options suivantes :

Vérifier tous les liens

Cochez cette case pour que SiteSucker vérifie tous les liens dans tous les fichiers HTML ramenés — y compris les liens vers des fichiers que vous ne ramenez pas — et enregistre toute erreur qui survient. Avec cette option activée, SiteSucker va rapporter beaucoup d'erreurs que normalement vous ne verriez pas. Ce paramètre est prévu comme outil d'épépinage pour les gestionnaires Web qui désirent voir si leur sites contiennent des liens incorrects.

Spprimer les petites images

Cochez cette case pour que SiteSucker supprime les petites images après leur déchargement. SiteSucker va supprimer toute image dont la largeur est inférieure à la moitié de celle de la fenêtre principale et sa hauteur inférieure à la moitié de celle de la fenêtre principale. Vous pouvez utiliser cette option pour supprimer les vignettes et autres petites images.

Supprimer les dialogues de connexion

Lorsque SiteSucker rencontre une page qui requiert authentification, il regarde d'abord pour les autorisations nécessaires dans le Trousseau d'accès. Si rien n'est trouvé dans le Trousseau d'accès, il affiche le dialogue de connexion.

Cochez cette case pour supprimer l'affichage du dialogue de connexion et sauter la déchargement de toute page qui requiert authentification. Pour plus d'information sur l'authentification, voir Sites protégés par mot de passe.

Ignorer les exclusions de robot

Cochez cette case pour que SiteSucker ignore les exclusions de robots.txt et de balise META Robots.

Attention : Ignorer les exclusions de robot n'est pas recommendé. Les exclusions de robot sont en général mises en place pour de bonnes raisons et devraient être respectées.

A priori, SiteSucker respecte les exclusions de robots.txt et les balises META Robots. Le fichier robots.txt permet aux gestionnaires de site Web de définir quelles parties d'un site sont à ignorer par des robots donnés, tels que SiteSucker. Les gestionnaires Web peuvent désactiver l'accès aux répertoires de CGI, privés et temporaires, par exemple, parce qu'ils ne désirent pas que les pages de ces zones soient ramenées. En plus du contrôle de robot pour tout le serveur avec robots.txt, les créateurs de page Web peuvent aussi utiliser la balise META Robots pour spécifier que les liens dans une page ne doivent pas être suivis par les robots.

Glisser déclenche le déchargement

Cochez cette case pour que SiteSucker démarre automatiquement le déchargement après le glisser-déposer d'un URL dans la case de texte URL Web.

Supposer que les URL ambigus sont des fichiers

Cochez cette case pour que SiteSucker traite les URL ambigus comme fichiers. Si un URL ne se termine pas par un '/' et que le dernier élément n'a pas d'extension de fichier, SiteSucker le considère comme ambigu. Lorsque cette option est désactivée, SiteSucker ajoute un '/' à la fin des URL ambigus.

Enregistrer les URL Web comme commentaires Spotlight

Cochez cette case pour que SiteSucker enregistre l'URL Web de chaque fichier ramené dans la case de commentaire Spotlight du fichier.

Essais de déchargement

Utilisez cette option pour indiquer le nombre de fois que SiteSucker doit essayer de ramener un fichier. SiteSucker ne va réessayer de ramener un fichier que si une erreur de dépassement de délai de déchargement survient.

Délai limite de déchargement

Utilisez cette option pour sélectionner le temps que SiteSucker doit attendre une réponse du serveur.

Délai de déchargement

Utilisez cette option pour indiquer le temps que SiteSucker doit attendre avant de ramener un fichier. Cette option permet de ramener des sites tout en utilisant une très petite bande passante et peut aider à éviter les gardes anti-mines employés par certains sites.

Le délai peut être fixé à Aucun ou à un intervalle donné (p.ex. 20 - 40 secondes). Si vous sélectionnez Aucun, SiteSucker ramène le site aussi vite que possible. Si vous sélectionnez un intervalle de délai, SiteSucker va ajouter un délai aléatoire (dans l'intervalle sélectionné) avant de ramener un fichier. De plus, si un délai est spécifié, SiteSucker ne va utiliser qu'une seule connexion active pour ramener les fichiers vu que le but premier des connexions multiples est de réduire le délai.

Identifiant

Utilisez cette option pour paramétriser la manière dont SiteSucker s'identifie lui-même lors d'une requête. Certains sites sont très précis quant aux navigateurs qu'ils acceptent. Vous pouvez cette option pour faire croire au site que vous utilisez un navigateur reconnu.

Pour modifier l'identifiant de SiteSucker, cliquez sur cette option et sélectionnez un des navigateurs Web repris dans la liste. (Si vous sélectionnez "Aucun", SiteSucker ne va pas pas fournir d'information lors de ses requêtes.)

Vous pouvez adapter la liste des navigateurs Web en modifiant la liste des propriétés de l'agent dans votre dossier d'utilisateur à ~/Library/Application Support/SiteSucker/UserAgent.plist.

Taille minimum de fichier

Utilisez cette option pour indiquer le plus petit fichier de données que SiteSucker va ramener. Vous pouvez utiliser cette option pour empêcher que SiteSucker de ramener des liens Web, bannières, vignettes et autres petits fichiers. Ce paramètre n'affecte pas les fichiers HTML, qui sont toujours ramenés quelle que soit leur taille.