国产成人精品久久免费动漫-国产成人精品天堂-国产成人精品区在线观看-国产成人精品日本-a级毛片无码免费真人-a级毛片毛片免费观看久潮喷

您的位置:首頁技術文章
文章詳情頁

python - scrapy url去重

瀏覽:103日期:2022-08-24 16:35:16

問題描述

請問scrapy是url自動去重的嗎?比如下面這段代碼,為什么運行時start_urls里面的重復url會重復爬取了?

class TestSpider(scrapy.Spider): name = 'test' allowed_domains = ['baidu.com'] start_urls = [’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, ’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, ’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’,] def parse(self, response):for sel in response.xpath(’//p[@class='grid-list grid-list-spot']/ul/li’): item = TestspiderItem() item[’title’] = sel.xpath(’p[@class='list']/a/text()’)[0].extract() item[’link’] = sel.xpath(’p[@class='list']/a/@href’)[0].extract() yield item

問題解答

回答1:

建一個Url管理器,就不會重復抓取了

回答2:

知道了,改成這樣就可以了。

def start_requests(self):

yield scrapy.Request(’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, self.parse)yield scrapy.Request(’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, self.parse)yield scrapy.Request(’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, self.parse)

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 三上悠亚免费一区二区在线 | 一本久久道久久爱 | 国产高清一区二区三区免费视频 | 国产一区二区三区精品久久呦 | 午夜影院福利社 | 99r8这是只有精品视频9 | 美女张开腿让男人桶爽免 | 欧美yyy| www.99在线观看 | a网站免费 | 国产日产久久高清欧美一区 | 国产最新网站 | 免费观看a毛片一区二区不卡 | 天天看片天天爽_免费播放 天天看夜夜 | 亚洲永久中文字幕在线 | 久草在线2 | 国产一区二区三区在线视频 | 亚洲免费在线视频播放 | 国产精品热久久毛片 | 日韩一级欧美一级毛片在线 | 在线免费观看一区二区三区 | 最刺激黄a大片免费观看 | 成人软件网18免费视频 | 国产一区二区三区国产精品 | 中文字幕人成乱码在线观看 | 久久精品国产亚洲网址 | 毛片在线观看视频 | 波多野结衣视频在线观看地址免费 | 男女午夜爽爽 | 欧美成人亚洲综合精品欧美激情 | 6一10周岁毛片免费 6一12呦女精品 | 欧美大片欧美毛片大片 | 成人久久18免费网 | 国产成人综合网在线观看 | 国产三级做爰在线观看 | 日本一级特黄特色大片免费视频 | 亚洲日本一区二区三区高清在线 | 亚洲jjzzjjzz在线播放 | 久久色国产 | 深夜爽爽爽福利动态图 | 久艹在线|