国产成人精品久久免费动漫-国产成人精品天堂-国产成人精品区在线观看-国产成人精品日本-a级毛片无码免费真人-a级毛片毛片免费观看久潮喷

您的位置:首頁技術文章
文章詳情頁

關于python list 寫進txt中的問題

瀏覽:114日期:2022-09-01 18:50:29

問題描述

各位大神好,我爬取騰訊新聞的新聞標題加入到一個列表當中,在用file.write()寫進 新聞.txt的時候,為啥老是寫入列表的最后一個呢??

from bs4 import BeautifulSoupimport requestsurl = ’http://news.qq.com/’wb_data = requests.get(url).textsoup = BeautifulSoup(wb_data,’lxml’)news_titles = soup.select(’p.text > em.f14 > a.linkto’)for n in news_titles: title = n.get_text() link = n.get('href') file = open(’/Users/sufan/Desktop/新聞.txt’, ’w’) b = [] b.append(title + ’鏈接’ + link) file.write(str(b))

關于python list 寫進txt中的問題這個是我爬取出來的東西(print(b)的結果)

關于python list 寫進txt中的問題這個是寫入txt中的內容

問題解答

回答1:

文件操作放循環里了?這樣每次操作每次打開文件每次寫入覆蓋…

# -*- coding: utf-8 -*-import sysreload(sys)sys.setdefaultencoding(’utf-8’)from bs4 import BeautifulSoupimport requestsurl = ’http://news.qq.com/’wb_data = requests.get(url).textsoup = BeautifulSoup(wb_data,’lxml’)news_titles = soup.select(’p.text > em.f14 > a.linkto’)file = open(’新聞.txt’, ’a’)for n in news_titles: title = n.get_text() link = n.get('href') b = str(title) + ’ 鏈接: ’ + link +'n' file.write(str(b))file.close()回答2:

for n in news_titles: title = n.get_text() link = n.get('href') b = [] b.append(title + ’鏈接’ + link) with open(’/Users/sufan/Desktop/新聞.txt’, ’w’) as file: file.write(str(b))回答3:

寫的動作放錯地方了

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 宅女福利视频在线看免费网站 | 美女被免费视频的网站 | 国产v精品成人免费视频400条 | 国产精品黄在线观看免费 | 国产乱子伦视频大全 | 色www永久免费网站国产 | 国产91精选在线观看网站 | 国产成人精品午夜免费 | 久久视频免费在线观看 | 成人免费在线播放 | 国产99精品在线观看 | 久草视频资源站 | 欧美毛片性视频区 | 国产精品亚欧美一区二区三区 | 成年视频国产免费观看 | 波多野结衣在线观看一区二区三区 | 亚洲免费精品视频 | 欧美成人午夜视频免看 | 欧美一区=区三区 | 欧美在线播放成人免费 | 牛牛本精品99久久精品88m | 日韩麻豆 | 一级白嫩美女毛片免费 | 成人毛片在线播放 | 久久精品中文字幕首页 | 国产精品大全国产精品 | 国产精品久久久久久久9999 | 亚洲欧美日韩精品久久久 | 国产成人女人视频在线观看 | 亚洲欧洲日产国码二区在线 | 亚洲精品自产拍在线观看 | 欧美特黄aaaaaaaa大片 | 91视频国产精品 | 特级毛片免费观看视频 | 一级伦理电线在2019 | 国产成人a大片大片在线播放 | 日本一道免费一区二区三区 | 国产精品拍自在线观看 | 久久精品成人欧美大片免费 | 国产不卡在线观看视频 | 日本不卡免费高清视频 |