python 爬取嗶哩嗶哩up主信息和投稿視頻
https://github.com/cgDeepLearn/BilibiliCrawler
項(xiàng)目特點(diǎn) 采取了一定的反反爬策略。 Bilibili更改了用戶頁(yè)面的api, 用戶抓取解析程序需要重構(gòu)。快速開(kāi)始 拉取項(xiàng)目, git clone https://github.com/cgDeepLearn/BilibiliCrawler.git 進(jìn)入項(xiàng)目主目錄,安裝虛擬環(huán)境crawlenv(請(qǐng)參考使用說(shuō)明里的虛擬環(huán)境安裝)。 激活環(huán)境并在主目錄運(yùn)行crawl,爬取結(jié)果將保存在data目錄csv文件中。ource activate crawlenvpython initial.py file # 初始化file模式python crawl_user.py file 1 100 # file模式,1 100是開(kāi)始、結(jié)束bilibili的uid
進(jìn)入data目錄查看抓取的數(shù)據(jù),是不是很簡(jiǎn)單!
如果需要使用數(shù)據(jù)庫(kù)保存和一些其他的設(shè)置,請(qǐng)看下面的使用說(shuō)明
使用說(shuō)明1.拉取項(xiàng)目git clone https://github.com/cgDeepLearn/BilibiliCrawler.git2.進(jìn)入項(xiàng)目主目錄, 安裝虛擬環(huán)境 若已安裝anaconda
conda create -n crawlenv python=3.6source activate crawlenv # 激活虛擬環(huán)境pip install -r requirements.txt 若使用virtualenv
virtualenv crawlenvsource crawlenv/bin/activate # 激活虛擬環(huán)境,windows下不用sourcepip install -r requirements.txt # 安裝項(xiàng)目依賴(lài)3. 修改配置文件
進(jìn)入config目錄,修改config.ini配置文件(默認(rèn)使用的是postgresql數(shù)據(jù)庫(kù),如果你是使用的是postgresql,只需要將其中的參數(shù)替換成你的,下面其他的步驟可以忽略) 數(shù)據(jù)庫(kù)配置選擇其中一個(gè)你本地安裝的即可,將參數(shù)更換成你的 如果你需要更自動(dòng)化的數(shù)據(jù)庫(kù)配置,請(qǐng)移步我的DB_ORM項(xiàng)目
[db_mysql]user = testpassword = testhost = localhostport = 3306dbname = testdb[db_postgresql]user = testpassword = testhost = localhostport = 5432dbname = testdb
然后修改conf.py中獲取配置文件的函數(shù)
def get_db_args(): ''' 獲取數(shù)據(jù)庫(kù)配置信息 ''' return dict(CONFIG.items(’db_postgresql’)) # 如果安裝的是mysql,請(qǐng)將參數(shù)替換為db_mysql
進(jìn)入db目錄,修改basic.py的連接數(shù)據(jù)庫(kù)的DSN
# connect_str = 'postgresql+psycopg2://{}:{}@{}:{}/{}'.format(kwargs[’user’], kwargs[’password’], kwargs[’host’], kwargs[’port’], kwargs[’dbname’])# 若使用的是mysql,請(qǐng)將上面的connect_str替換成下面的connect_str = 'mysql+pymysql://{}:{}@{}:{}/{}?charset=utf8'.format(kwargs[’user’], kwargs[’password’], kwargs[’host’], kwargs[’port’], kwargs[’dbname’])# sqlite3,mongo等請(qǐng)移步我的DB_ORM項(xiàng)目,其他一些數(shù)據(jù)庫(kù)也將添加支持4. 運(yùn)行爬蟲(chóng) 在主目錄激活虛擬環(huán)境, 初次運(yùn)行請(qǐng)執(zhí)行
python initial.py db # db模式,file模式請(qǐng)將db換成file# file模式會(huì)將抓取結(jié)果保存在data目錄# db模式會(huì)將數(shù)據(jù)保存在設(shè)置好的數(shù)據(jù)庫(kù)中# 若再次以db模式運(yùn)行將會(huì)drop所有表后再create,初次運(yùn)行后請(qǐng)慎重再次使用!!!# 如果修改添加了表,并不想清空數(shù)據(jù),請(qǐng)運(yùn)行 python create_all.py 開(kāi)始抓取示例
python crawl_user.py db 1 10000 # crawl_user 抓取用戶數(shù)據(jù),db 保存在數(shù)據(jù)庫(kù)中, 1 10000為抓取起止idpython crawl_video_ajax.py db 1 100 # crawl_video_ajax 抓取視頻ajax信息保存到數(shù)據(jù)庫(kù)中,python crawl_user_video.py db 1 10000 #同時(shí)抓取user 和videoinfo# 示例為uid從1到100的user如果有投稿視頻則抓取其投稿視頻的信息,# 若想通過(guò)視頻id逐個(gè)抓取請(qǐng)運(yùn)行python crawl_video_by_aid.py db 1 1000 爬取速率控制
程序內(nèi)已進(jìn)行了一些抓取速率的設(shè)置,但各機(jī)器cpu、mem不同抓取速率也不同,請(qǐng)酌情修改太快太慢請(qǐng)修改各crawl中的sleepsec參數(shù),ip會(huì)被限制訪問(wèn)頻率,overspeed會(huì)導(dǎo)致爬取數(shù)據(jù)不全,之后會(huì)添加運(yùn)行參數(shù)speed(high, low),不用再手動(dòng)配置速率
日志爬取日志在logs目錄user, video分別為用戶和視頻的爬取日志storage為數(shù)據(jù)庫(kù)日志 如需更換log格式,請(qǐng)修改logger模塊
后臺(tái)運(yùn)行linux下運(yùn)行python ......前面加上nohup,例如:
nohup python crawl_user db 1 10000
程序輸出保存文件,默認(rèn)會(huì)包存在主目錄額nohup.out文件中,添加 > fielname就會(huì)保存在設(shè)置的文件中:
nohup python crawl_video_ajax.py db 1 1000 > video_ajaxup_1_1000.out # 輸出將保存在video_ajaxup_1_1000.out中 更多
程序多線程使用的生產(chǎn)者消費(fèi)者模式中產(chǎn)生了程序運(yùn)行的狀況的打印信息,類(lèi)似如下
produce 1_1consumed 1_1...
如想運(yùn)行更快,請(qǐng)?jiān)诔绦蚋黜?xiàng)設(shè)置好后注釋掉其中的打印程序
# utils/pcModels.pyprint(’[+] produce %s_%s’ % (index, pitem)) # 請(qǐng)注釋掉print(’[-] consumed %s_%sn’ % (index, data)) # 請(qǐng)注釋掉更多
項(xiàng)目是單機(jī)多線程,若想使用分布式爬取,請(qǐng)參考Crawler-Celery
以上就是python 爬取嗶哩嗶哩up主信息和投稿視頻的詳細(xì)內(nèi)容,更多關(guān)于python 爬取嗶哩嗶哩的資料請(qǐng)關(guān)注好吧啦網(wǎng)其它相關(guān)文章!
相關(guān)文章:
1. ASP常用日期格式化函數(shù) FormatDate()2. ASP新手必備的基礎(chǔ)知識(shí)3. CSS 使用Sprites技術(shù)實(shí)現(xiàn)圓角效果4. chat.asp聊天程序的編寫(xiě)方法5. 詳解瀏覽器的緩存機(jī)制6. ASP中if語(yǔ)句、select 、while循環(huán)的使用方法7. 怎樣才能用js生成xmldom對(duì)象,并且在firefox中也實(shí)現(xiàn)xml數(shù)據(jù)島?8. HTML中的XML數(shù)據(jù)島記錄編輯與添加9. SXNA RSS Blog 聚合器程序10. 推薦一個(gè)好看Table表格的css樣式代碼詳解
