python

当前位置:中华考试网 >> python >> python爬虫 >> 文章内容

rpop方法如何在python分布式爬虫中使用?

来源:中华考试网  [2020年11月26日]  【

  我们现实中的商品流通而言,有新的商品生产,就有新的商品在市面上流通,我们的爬虫也是如此。前期获取的数据存储在消息列表,然后爬虫需要把数据从消息列表中搬走,这就是站在了消费的角度。在这个过程中我们需要使用到rpop方法,接下来小编就带大家看看其在python分布式爬虫中的使用。

  下面的代码是消费端爬虫程序的示例

  import time

  import redis

  r = redis.Redis(host='127.0.0.1', port=6379,

  password='yourpassword', db=1)

  # 爬虫程序

  def crawl(task):

  print('爬取url {task}'.format(task=task))

  time.sleep(1)

  while True:

  task = r.rpop('url_queue')

  if not task:

  time.sleep(1)

  continue

  crawl(task)

  爬虫程序要不停的使用rpop方法从redis的队列中拉取数据进行爬取,考虑到生产者随时都可能写入新的任务,因此,必须使用死循环,得不到消息时,sleep一段时间,继续获取消息。

  关于部署

  生产端的程序,消费端的程序可以随意部署,但不管如何,都要确保这些机器与redis所在的机器是网络连通的,因为他们一个要写消息到redis,一个要从redis拉取任务,至于生产端和消费端是否网络连通则没有任何必要,甚至同一端的worker之间也不必网络连通

  数据存储  消费端的worker在爬取数据以后,可以根据实际需要决定是否直接落库,如果需要对数据进行规范化处理或是其他操作,则可以写入新的消息队列中,由下一个工序的worker拉取数据进行处理

  有了类似消息列表的这个盒子,爬虫需要获取的数据就可以暂时放在其中和搬运出来,这也就是整个分布式爬虫获取数据的过程。

责编:fushihao

上一篇:python爬虫节点是什么?怎么用?

下一篇: 没有了

  • 会计考试
  • 建筑工程
  • 职业资格
  • 医药考试
  • 外语考试
  • 学历考试