什么是爬虫技术

如题所述

网络爬虫(又称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。可以自动化浏览网络中的信息,当然浏览信息的时候需要按照我们制定的规则进行,这些规则我们称之为网络爬虫算法。使用Python可以很方便地编写出爬虫程序,进行互联网信息的自动化检索。
温馨提示:答案为网友推荐,仅供参考
第1个回答  2020-11-12
爬虫技术是一个可以帮你爬取指定网站上的信息的技术,毕竟网站才是世界上最大的数据库。你也可以学习爬虫。我知道这一点信息之后很想学习爬虫,所以我就用 疯狂python讲义 这本书来学习。这本书的知识点很全面,很容易看懂而理解。书中的例子挺不错,每章后也有大量的复习题来巩固你学到的知识
第2个回答  2020-11-11
网络爬虫又称网络蜘蛛、网络蚂蚁、网络机器人等,可以自动化浏览网络中的信息,当然浏览信息的时候需要按照我们制定的规则进行,这些规则我们称之为网络爬虫算法。使用Python可以很方便地编写出爬虫程序,进行互联网信息的自动化检索。
相似回答