« Un robot d'indexation (en anglais web crawler ou web spider, littéralement araignée du Web) est un logiciel qui explore automatiquement le Web. Il est généralement conçu pour collecter les ressources (pages Web, images, vidéos, documents Word, PDF ou PostScript, etc.), afin de permettre à un moteur de recherche de les indexer.

Fonctionnant sur le même principe, certains robots malveillants (spambots) sont utilisés pour archiver les ressources ou collecter des adresses électroniques auxquelles envoyer des courriels.

En français, depuis 2013, crawler est remplaçable par le mot collecteur.

Il existe aussi des collecteurs analysant finement les contenus afin de ne ramener qu'une partie de leur information. »

Source

Auteur·trice(s) de note

Création

3 juillet 2023 11:32

Modification

3 juillet 2023 11:32

Historique des modifications

Licence

Attention : une partie ou l’ensemble de ce contenu pourrait ne pas être la propriété de la, du ou des auteur·trices de la note. Au besoin, informez-vous sur les conditions de réutilisation.

note Note(s) liée(s)