博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
浅谈增量式爬虫
阅读量:5862 次
发布时间:2019-06-19

本文共 3249 字,大约阅读时间需要 10 分钟。

引入

在我们爬取某些网站时会遇到一些问题?某些网站会定时在原有网页数据的基础上更新一批数据。

例如某电影网站会实时更新一批最近热门的电影。小说网站会根据作者创作的进度实时更新最新的章节数据等等。

那么遇到类似的场景,我们就可以采用增量式爬虫了

而增量式爬虫分为两个步骤:

  1. 增量爬取
  2. 爬取结果去重

增量爬取

一个站点更新也会出现下面两种情况:

1,单个页面数据更新

当出现这种情况的时候,我们对此特定页面的内容做哈希,当然要去除动态变化的那一部分,比如有的页面有验证码或者日期,程序定期执行,在执行的最开始检测此页面的哈希值跟上次抓取是否有变化,如果有变化就开始抓取。

2,新增了页面

如果是新增页面呢,我们会对页面入口内容做哈希,并且存储分页面的URL哈希值,如果页面入口哈希值发生变化,获取新增的页面url列表,在这里需要用到url的去重,和数据去重类似,采用redis集合类型处理。

redis集合类型不允许添加重复的数据,当添加重复的时候时,返回0,并且添加失败。我们将所有的url list存入redis集合,当页面入口变化时,进行页面url去重,只抓取新增的页面。

爬取结果去重

结果去重也有以下两种常用的方法:

布隆过滤器

其中布隆过滤器是通过写文件的方式,多个进程使用需要添加同步和互斥,较为繁琐,不推荐多线程/进程的时候使用,另外写文件是磁盘I/O操作,耗费时间长,可以累积到一定数量再一次写入,或者利用上下文管理器在程序结束或异常退出时一次性写入。

class Spider(object):    def __init():        # 布容过滤器初始化        self.burongname = 'test.bl'        if not os.path.isfile(self.burongname):            self.bl = BloomFilter(capacity=100000, error_rate=0.000001)        else:            with open(self.burongname, 'rb') as f:                self.bl = BloomFilter.fromfile(f)        def __enter__(self):        u"""        上下文管理器进入入口        """        return self    def __exit__(self, *args):        u"""        上下文管理器,退出出口        """        if self.conn is not None:            self.conn.close()        with open(self.burongname, 'wb') as f:            self.fingerprints.tofile(f)    def get_infos(self):        """        抓取主函数        """        # 布隆过滤器使用部分, x为抓取到得数据        x = json.dumps(i)        if x not in self.bl:            self.bl.add(x)if __name__ == '__main__':    with Spider() as MSS:        MSS.get_infos()

上下文管理器,在主函数执行之前执行 def enter ,在程序运行结束或异常退出时执行def exit, 上下文管理器还可以用来统计程序执行的时间。

redis集合

使用redis集合去重能够支持多线程多进程.

利用redis集合无重复数据的特点,在redis建立集合,往其中添加数据的sha1值,添加成功返回1,表示无重复,添加失败返回0,表示集合中已经有重复数据

使用步骤:

  1. 建立redis连接池
  2. 重复检查

下面的例子是接口,并提供example。

[Redis]server=192.168.0.100pass=123@123
import sysimport hashlibimport osimport codecsimport ConfigParserimport redis"""利用redis的集合不允许添加重复元素来进行去重"""def example():    pool, r = redis_init()    temp_str = "aaaaaaaaa"    result = check_repeate(r, temp_str, 'test:test')    if result == 0:        print ("重复")    else:        print ("不重复")    redis_close(pool)def redis_init(parasecname="Redis"):    """    初始化redis    :return: redis连接池    """    cur_script_dir = os.path.split(os.path.realpath(__file__))[0]    cfg_path = os.path.join(cur_script_dir, "db.conf")    cfg_reder = ConfigParser.ConfigParser()    secname = parasecname    cfg_reder.readfp(codecs.open(cfg_path, "r", "utf_8"))    redis_host = cfg_reder.get(secname, "server")    redis_pass = cfg_reder.get(secname, "pass")    # redis    pool = redis.ConnectionPool(host=redis_host, port=6379, db=0, password=redis_pass)    r = redis.Redis(connection_pool=pool)    return pool, rdef sha1(x):    sha1obj = hashlib.sha1()    sha1obj.update(x)    hash_value = sha1obj.hexdigest()    return hash_valuedef check_repeate(r, check_str, set_name):    """    向redis集合中添加元素,重复则返回0,不重复则添加成功,并返回1    :param r:redis连接    :param check_str:被添加的字符串    :param set_name:项目所使用的集合名称,建议如下格式:”projectname:task_remove_repeate“    """    hash_value = sha1(check_str)    result = r.sadd(set_name, hash_value)    return resultdef redis_close(pool):    """    释放redis连接池    """    pool.disconnect()if __name__ == '__main__':    example()

 

转载于:https://www.cnblogs.com/peng104/p/10428394.html

你可能感兴趣的文章
LVS原理详解及部署之一:ARP原理准备
查看>>
我的友情链接
查看>>
我的友情链接
查看>>
第二章 内存原理基础篇+FSM有限状态机
查看>>
Centos上的双网卡绑定
查看>>
Android关于黑屏
查看>>
Ubuntu下配置NFS服务
查看>>
好文不怕巷子深!
查看>>
AIX6.1登陆提示错误the DT messaging system could not be started
查看>>
DNS基础之缓存服务器、主从服务器
查看>>
开源虚拟化管理平台Ovirt简介和配置环境搭建
查看>>
linux中shell变量$#,$@,$0,$1,$2的含义解释
查看>>
解决 Unable to load native-hadoop library for your p
查看>>
我的友情链接
查看>>
NOIP2018退役记
查看>>
学以致用三十三-----django生命周期
查看>>
数据结构-冒泡排序
查看>>
Word揭秘:公式还能这么玩!
查看>>
MathType出现乱码公式怎么恢复
查看>>
Android--绑定服务调用服务的方法
查看>>