分布式网页抓取

为了提高网络爬虫的性能,一般会采用分布式的抓取方式,本文主要就其中的网页查重问题进行简单的讨论。

第一种:主备集中式控制的方式

由一个主控节点控制网页的抓取,主控节点负责任务的分派,将各个slave机器上抓取结果网页内的链接进行汇总,查重,再进一步分派新的任务。主控节点上网页的查重可能是比较复杂的任务。

第二种:多节点协作的方式

将所有的网页地址进行hash,每个节点负责不同的hash范围,在抓取到网页后,将提取出来的链接分发到各个负责的节点上,进行进一步的抓取。为了控制抓取的深度,需要在发送链接的时候加上当前的深度信息。

第三种:分布式文件存储的方式

各个节点将抓取的数据存储在一个分布式文件系统上,每个节点在发现已有文件的时候,则终止网页的抓取。这种方式很难解决网页的增量抓取问题。

第四种:分布式数据库的方式

各个节点将抓取到的数据存储在一个分布式数据库上,在抓取网页网页前,检查数据库中的记录,如果不存在,则将记录存储到数据库中,开始抓取,否则终止抓取进程。这种方式的问题抓取的性能可能会受很大影响。



郑重声明:本站内容如果来自互联网及其他传播媒体,其版权均属原媒体及文章作者所有。转载目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。