成人视屏在线观看-国产99精品-国产精品1区2区-欧美一级在线观看-国产一区二区日韩-色九九九

您的位置:首頁技術文章
文章詳情頁

python - 網頁更新數據之后無法再次抓取

瀏覽:119日期:2022-07-05 15:55:15

問題描述

我抓取的網頁今天更新了一條信息,然后爬蟲運行了卻沒有抓取到.

from pyspider.libs.base_handler import *from pyspider.database.mysql.mysqldb import SQLclass Handler(BaseHandler): crawl_config = { } @every(minutes=24 * 60) def on_start(self):self.crawl(’http://www.yxztb.net/yxweb/zypd/012001/012001001/’, callback=self.index_page) @config(age=10 * 24 * 60 * 60) def index_page(self, response):for each in response.doc(’.tdmoreinfosub a’).items(): self.crawl(each.attr.href, callback=self.detail_page)@config(priority=2) def detail_page(self, response):return {'address':'宜興市','url':response.url,'title':response.doc(’font span’).text(),'date' :response.doc(’#tdTitle > .webfont’).text()[8:17], }def on_result(self, result):print resultif not result or not result[’title’]: returnsql = SQL()sql.replace(’zhaobiao’,**result)

python - 網頁更新數據之后無法再次抓取

希望大佬們能講的具體點然后多交流交流

問題解答

回答1:

@config (age)參數設定直接忽略了index.page的執行

回答2:

既然 on_start 的 @every 是一天,那么self.crawl 中設置 age=12 * 60 * 60 半天是比較合適的,保證每次 every 肯定不會被 age 所限制。另外 @config(age=10 * 24 * 60 * 60),這是10天內不要再爬的意思啊。

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 精品综合在线 | 自拍视频在线观看视频精品 | 国内偷拍免费视频 | 亚洲国产系列 | 久久精品国产在爱久久 | 色多多香蕉 | 伊人久久91 | 国产精品成人亚洲 | 一级毛片一级毛片一级毛片 | 九九九免费视频 | 欧美国产在线一区 | 国产精品高清在线观看地址 | 91久久国产视频 | 久草免费在线视频 | 国产在线播放不卡 | 一个色综合久久 | 日韩区在线观看 | 99久久综合精品国产 | 特黄特黄aaaa级毛片免费看 | 性刺激免费视频观看在线观看 | 国产亚洲精品国产一区 | 久久久久久亚洲精品不卡 | 精品91自产拍在线 | 国产专区在线 | 欧美一区精品二区三区 | 国内精品九一在线播放 | 国产日本一区二区三区 | 亚洲国产精品成人久久 | 和老外3p爽粗大免费视频 | 亚洲一级毛片在线观播放 | 国产高清片 | 欧美日韩一区二区在线观看 | 国产婷婷一区二区在线观看 | 亚洲精品国产精品国自产 | 免费欧美在线视频 | 欧美大屁股精品毛片视频 | 99视频网址 | 成人免费视频国产 | 怡红院在线观看在线视频 | 99久久99久久精品免费看子伦 | 三级黄色片日韩 |