成人视屏在线观看-国产99精品-国产精品1区2区-欧美一级在线观看-国产一区二区日韩-色九九九

您的位置:首頁技術文章
文章詳情頁

python - beautifulSoup4 .select(’.bnrName’) 取不到到 text 文字

瀏覽:83日期:2022-07-25 15:24:15

問題描述

背景: Python3 下使用 bs4 的 select 去獲取 ZOZO首頁上方的 coupon 信息中店鋪名字。 (國內ip貌似看不到優惠券信息,需要翻一下才能看到,最好是島國ip)

問題: 發現自己找不到他的店鋪名字在寫在什么地方,不知道怎么取,前端 js 不懂,請教諸位解答。謝謝。

自己的代碼如下:

import requests, bs4shopName = ’BEAUTY&YOUTH’url = ’http://zozo.jp/’def getZozoCoupon(): res = requests.get(url, headers={'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.110 Safari/537.36'}) res.raise_for_status() soup = bs4.BeautifulSoup(res.text, ’html.parser’) elems = soup.select(’.bnrName’) return elems[0].text.strip()

如下截圖中是想要獲取的文字,python - beautifulSoup4 .select(’.bnrName’) 取不到到 text 文字

發現查看源碼中卻沒有文字。

<p class='couponInfo'> <p class='bnrName'>說好的文字呢。。。</p> <p class='bnrText'></p></p>

請教他的文字是在哪實現的啊,要怎么用bs4 select才出來,謝謝。

問題解答

回答1:

有可能用ajax從服務器獲取之后操作dom動態添加的吧,在瀏覽器里執行了js就文字也被添加進來。而你用爬蟲爬的時候沒有執行有關js所以也沒有添加文字。

要是真的這樣的話,你可以在瀏覽器的f12那里查看network,把獲取文字的那個http請求的url找出來,直接請求這個url獲取你需要的信息。

回答2:

我在瀏覽器中打開http://zozo.jp/查看源代碼并沒有找到你所要找的bnrNamepython - beautifulSoup4 .select(’.bnrName’) 取不到到 text 文字

回答3:

你在瀏覽器上右鍵“查看網頁源碼”看看能不能找得你那段文字,如果找不到,那網頁應該是用js或者ajax動態加載的,想要爬取這種動態頁面,兩種方法,要么是自己手動模擬請求,要么就用selenium去抓吧

回答4:

確實是js生成的,已經采用headless瀏覽器模擬抓取了,謝謝大家!

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 午夜日本一区二区三区 | 日本精品视频在线播放 | 欧美另类综合 | 欧美黑大粗硬毛片视频 | 色综合久久一本首久久 | 精品丝袜国产自在线拍亚洲 | 一级毛片无毒不卡直接观看 | 黄色三级视频在线 | 狠狠色综合久久丁香婷婷 | 国产在线观看网址你懂得 | 尤物蜜芽福利国产污在线观看 | 一本久久a久久精品亚洲 | 亚洲成人综合在线 | 免费观看呢日本天堂视频 | 亚洲精品中文字幕一区 | 一级毛片牲交大片 | 加勒比在线视频 | 三级国产精品 | 一级片免费的 | 久久国产精品久久久久久久久久 | 国产精品美女一区二区 | 日本丶国产丶欧美色综合 | 在线播放国产真实女同事 | 国产成人黄网址在线视频 | 我要看欧美精品一级毛片 | 欧美 亚洲 在线 | 国产亚洲一区二区三区在线 | 国产高清视频免费观看 | 国产精品久久久久免费 | 伊人久久综合热青草 | 国产午夜伦伦伦午夜伦 | 免费手机黄色网址 | 欧美一级片免费观看 | 久久精品国产三级不卡 | 亚洲一级高清在线中文字幕 | 亚洲天堂免费在线 | 免费看男女做好爽好硬视频 | 女人把腿劈开让男人桶的网站 | 性盈盈影院在线观看 | 亚洲三级网 | 99这里只有精品视频 |