国产成人精品久久免费动漫-国产成人精品天堂-国产成人精品区在线观看-国产成人精品日本-a级毛片无码免费真人-a级毛片毛片免费观看久潮喷

您的位置:首頁技術文章
文章詳情頁

Selenium結合BeautifulSoup4編寫簡單的python爬蟲

瀏覽:5日期:2022-07-06 09:40:35

在學會了抓包,接口請求(如requests庫)和Selenium的一些操作方法后,基本上就可以編寫爬蟲,爬取絕大多數(shù)網站的內容。

在爬蟲領域,Selenium永遠是最后一道防線。從本質上來說,訪問網頁實際上就是一個接口請求。請求url后,返回的是網頁的源代碼。

我們只需要解析html或者通過正則匹配提取出我們需要的數(shù)據(jù)即可。

有些網站我們可以使用requests.get(url),得到的響應文本中獲取到所有的數(shù)據(jù)。而有些網頁數(shù)據(jù)是通過JS動態(tài)加載到頁面中的。使用requests獲取不到或者只能獲取到一部分數(shù)據(jù)。此時我們就可以使用selenium打開頁面來,使用driver.page_source來獲取JS執(zhí)行完后的完整源代碼。

例如,我們要爬取,diro官網女包的名稱,價格,url,圖片等數(shù)據(jù),可以使用requests先獲取到網頁源代碼:訪問網頁,打開開發(fā)者工具,我們可以看到所有的商品都在一個

標簽里,展開這個li標簽,我們可找到商品名稱,價格,url,圖片鏈接等信息

Selenium結合BeautifulSoup4編寫簡單的python爬蟲

從html格式的源碼中提取數(shù)據(jù),有多種選擇,可以使用xml.etree等等方式,bs4是一個比較方便易用的html解析庫,配合lxml解析速度比較快。

bs4的使用方法為

from bs4 import BeautifulSoupsoup = BeautifulSoup(網頁源代碼字符串,’lxml’)soup.find(...).find(...)soup.findall()soup.select(’css selector語法’)

soup.find()可以通過節(jié)點屬性進行查找,如,soup.find(’div’, id=’節(jié)點id’)或soup.find(’li’, class_=’某個類名’)或soup.find(’標簽名’, 屬性=屬性值),當找到一個節(jié)點后,還可以使用這個節(jié)點繼續(xù)在其子節(jié)點中查找。soup.find_all()是查找多個,同樣屬性的節(jié)點,返回一個列表。soup.select()是使用css selector語法查找,返回一個列表。

以下為示例代碼:

from selenium import webdriverfrom bs4 import BeautifulSoupdriver = webdriver.Chrome()driver.get(’https://www.dior.cn/zh_cn/女士精品/皮具系列/所有手提包’)soup = BeautifulSoup(driver.page_source, ’lxml’)products = soup.select(’li.is-product’)for product in products: name = product.find(’span’, class_=’product-title’).text.strip() price = product.find(’span’, class_=’price-line’).text.replace(’¥’, ’’).replace(’,’,’’) url = ’https://www.dior.cn’ + product.find(’a’, class_=’product-link’).attrs[’href’] img = product.find(’img’).attrs[’src’] sku = img.split(’/’)[-1] print(name, sku, price)driver.quit()

運行結果,如下圖:

Selenium結合BeautifulSoup4編寫簡單的python爬蟲

注:本例中,也可以使用requests.get()獲取網頁源代碼,格式和使用selenium加載的稍有不同。

一般簡單爬蟲編寫的步驟為:

進入列表頁,打開開發(fā)者工具,刷新頁面及向下滾動,查看新產品加載,是否能抓到XHR數(shù)據(jù)接口(直接返回JSON格式所有產品數(shù)據(jù)的接口) 如果有這種接口,嘗試修改參數(shù)中的分頁值,和請求總數(shù)值,看看是否能從一個接口返回所有的商品數(shù)據(jù) 如果只有Doc類型的接口返回頁面,嘗試使用requests.get()請求頁面,分析響應文本,是否包含所有商品數(shù)據(jù) 如果requests獲取不到商品數(shù)據(jù)或數(shù)據(jù)不全可以使用selenium加載頁面,然后使用bs4解析提取,如果有多個頁面,循環(huán)逐個操作即可。

以上就是Selenium結合BeautifulSoup4編寫簡單的python爬蟲的詳細內容,更多關于python 爬蟲的資料請關注好吧啦網其它相關文章!

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 欧美a欧美| 手机免费在线看毛片 | 日本不卡免费高清一级视频 | 久艹视频在线观看 | 免费黄网大全 | 一级成人a毛片免费播放 | 亚洲一区二区三区四区五区 | 91亚洲国产成人久久精品网站 | 普通话对白国产精品一级毛片 | aaa毛片在线 | 午夜性色福利视频在线视频 | 成人小视频在线观看免费 | 国产女女视屏免费 | 久久综合久久美利坚合众国 | 亚洲高清一区二区三区久久 | 这里只有久久精品视频 | 国产婷婷一区二区在线观看 | 国产在线观看成人免费视频 | 精品日韩欧美一区二区三区 | 在线观看视频一区二区三区 | 国产日韩精品欧美一区视频 | 91精品国产91久久久久 | 美国三级网站 | 久久99国产精品久久99果冻传媒 | 久久久亚洲欧洲日产国码二区 | 毛片在线免费观看网站 | 国产成人精品综合 | 久久精品女人毛片国产 | 色熟 | 久久精品国产精品亚洲 | 黄色三级三级三级 | 久草视频中文在线 | 特黄特黄aaaa级毛片免费看 | 中文字幕二区三区 | 国产成人精品999在线观看 | 91免费看视频| 亚洲伊人久久综合影院2021 | 欧美一级视 | 成年午夜性视频免费播放 | 国产精品亚洲精品 | 手机看片1024久久精品你懂的 |