国产成人精品久久免费动漫-国产成人精品天堂-国产成人精品区在线观看-国产成人精品日本-a级毛片无码免费真人-a级毛片毛片免费观看久潮喷

您的位置:首頁技術文章
文章詳情頁

python爬蟲scrapy框架之增量式爬蟲的示例代碼

瀏覽:6日期:2022-06-27 08:52:11

scrapy框架之增量式爬蟲

一 、增量式爬蟲

什么時候使用增量式爬蟲:增量式爬蟲:需求 當我們瀏覽一些網站會發現,某些網站定時的會在原有的基礎上更新一些新的數據。如一些電影網站會實時更新最近熱門的電影。那么,當我們在爬蟲的過程中遇到這些情況時,我們是不是應該定期的更新程序以爬取到更新的新數據?那么,增量式爬蟲就可以幫助我們來實現

二 、增量式爬蟲

概念:通過爬蟲程序檢測某網站數據更新的情況,這樣就能爬取到該網站更新出來的數據

如何進行增量式爬取工作:在發送請求之前判斷這個URL之前是不是爬取過在解析內容之后判斷該內容之前是否爬取過在寫入存儲介質時判斷內容是不是在該介質中

增量式的核心是 去重去重的方法:將爬取過程中產生的URL進行存儲,存入到redis中的set中,當下次再爬取的時候,對在存儲的URL中的set中進行判斷,如果URL存在則不發起請求,否則 就發起請求對爬取到的網站內容進行唯一的標識,然后將該唯一標識存儲到redis的set中,當下次再爬取數據的時候,在進行持久化存儲之前,要判斷該數據的唯一標識在不在redis中的set中,如果在,則不在進行存儲,否則就存儲該內容

三、示例

爬蟲文件

# -*- coding: utf-8 -*-import scrapyfrom scrapy.linkextractors import LinkExtractorfrom scrapy.spiders import CrawlSpider, Rulefrom redis import Redisfrom increment2_Pro.items import Increment2ProItemimport hashlibclass QiubaiSpider(CrawlSpider): name = ’qiubai’ # allowed_domains = [’www.xxx.com’] start_urls = [’https://www.qiushibaike.com/text/’] rules = ( Rule(LinkExtractor(allow=r’/text/page/d+/’), callback=’parse_item’, follow=True), ) def parse_item(self, response): div_list = response.xpath(’//div[@class='article block untagged mb15 typs_hot']’) conn = Redis(host=’127.0.0.1’,port=6379) for div in div_list: item = Increment2ProItem() item[’content’] = div.xpath(’.//div[@class='content']/span//text()’).extract() item[’content’] = ’’.join(item[’content’]) item[’author’] = div.xpath(’./div/a[2]/h2/text() | ./div[1]/span[2]/h2/text()’).extract_first() # 將當前爬取的數據做哈希唯一標識(數據指紋) sourse = item[’content’]+item[’author’] hashvalue = hashlib.sha256(sourse.encode()).hexdigest() ex = conn.sadd(’qiubai_hash’,hashvalue) if ex == 1:yield item else:print(’沒有可更新的數據可爬取’) # item = {} #item[’domain_id’] = response.xpath(’//input[@id='sid']/@value’).get() #item[’name’] = response.xpath(’//div[@id='name']’).get() #item[’description’] = response.xpath(’//div[@id='description']’).get() # return item

管道文件(管道文件也可以不用加)

from redis import Redisclass Increment2ProPipeline(object): conn = None def open_spider(self,spider): self.conn = Redis(host=’127.0.0.1’,port=6379) def process_item(self, item, spider): dic = { ’author’:item[’author’], ’content’:item[’content’] } self.conn.lpush(’qiubaiData’,dic) print(’爬取到一條數據,正在入庫......’) return item

到此這篇關于python爬蟲之scrapy框架之增量式爬蟲的示例代碼的文章就介紹到這了,更多相關scrapy增量式爬蟲內容請搜索好吧啦網以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持好吧啦網!

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 欧美日韩高清性色生活片 | 手机日韩理论片在线播放 | 亚州三级视频 | 91九色精品国产免费 | 成年网站视频在线观看 | 亚洲欧美一级视频 | 午夜限制r级噜噜片一区二区 | 欧美亚洲91 | 久久国产精品一国产精品 | 亚洲超大尺度激情啪啪人体 | 韩国欧洲一级毛片免费 | 91在线精品亚洲一区二区 | 中文字幕在线成人免费看 | 香港一级纯黄大片 | 精品国产一区二区三区国产馆 | 国产成人免费福利网站 | 免费观看a级毛片在线播放 免费观看a级网站 | 精品国产96亚洲一区二区三区 | 淫模 | 成人久久18免费网 | 欧美日韩精品一区二区三区视频在线 | 国内精品七七久久影院 | aaaaaa精品视频在线观看 | 真人一级毛片 | 免费看日韩欧美一级毛片 | 特级aa一级欧美毛片 | 亚洲成a人 | 大焦伊人| 成人黄网18免费观看的网站 | 在线欧美日韩精品一区二区 | 久久久青青久久国产精品 | 1级毛片 | 欧美一级二级毛片视频 | 高清欧美不卡一区二区三区 | 91免费视 | 一级欧美一级日韩片 | 国产毛片一级国语版 | 亚洲国产精品免费观看 | 久久久国产精品福利免费 | 毛片网站免费在线观看 | 精品视频99 |