国产成人精品久久免费动漫-国产成人精品天堂-国产成人精品区在线观看-国产成人精品日本-a级毛片无码免费真人-a级毛片毛片免费观看久潮喷

您的位置:首頁技術(shù)文章
文章詳情頁

新手求教python3如何把dict循環(huán)寫入csv文件(在進(jìn)行爬蟲時遇到的問題)?

瀏覽:78日期:2022-07-20 18:46:44

問題描述

爬蟲生成dict后,想將其寫入csv文件,卻出錯使用jupyter notebook,window環(huán)境。

具體代碼如下

import requestsfrom multiprocessing.dummy import Pool as ThreadPoolfrom lxml import etreeimport sysimport timeimport randomimport csvdef spider(url): header={’Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36’ } timeout=random.choice(range(31,50)) html = requests.get(url,header,timeout=timeout) time.sleep(random.choice(range(8,16))) selector = etree.HTML(html.text) content_field = selector.xpath(’//*[@class='inner']/p[3]/p[2]/ul/li’) item ={} for each in content_field:g = each.xpath(’a/p[1]/p[1]/h3/span/text()’)go = each.xpath(’a/p[1]/p[2]/p/h3/text()’)h = each.xpath(’a/p[1]/p[2]/p/p/text()[1]’)j= each.xpath(’a/p[1]/p[1]/p/text()[2]’)ge = each.xpath(’a/p[1]/p[2]/p/p/text()[3]’)x = each.xpath(’a/p[1]/p[1]/p/text()[3]’)city = each.xpath(’a/p[1]/p[1]/p/text()[1]’)gg = each.xpath(’a/p[2]/span/text()’)item[’city’]=''.join(city)item[’hangye’]=''.join(hangye)item[’guimo’]=''.join(guimo)item[’gongsi’]=''.join(gongsi)item[’gongzi’]=''.join(gongzi)item[’jingyan’]=''.join(jingyan)item[’xueli’]=''.join(xueli)item[’gongzuoneirong’]=''.join(gongzuoneirong)fieldnames =[’city’,’hangye’,’guimo’,’gongsi’,’gongzi’,’jingyan’,’xueli’,’gongzuoneirong’]with open(’bj.csv’,’a’,newline=’’,errors=’ignore’)as f: f_csv=csv.DictWriter(f,fieldnames=fieldnames) f_csv.writeheader() f_csv.writerow(item)if __name__ == ’__main__’: pool = ThreadPool(4) f=open(’bj.csv’,’w’) page = [] for i in range(1,100):newpage = ’https://www.zhipin.com/c101010100/h_101010100/?query=%E6%95%B0%E6%8D%AE%E8%BF%90%E8%90%A5&page=’+str(i) + ’&ka=page-’ + str(i)page.append(newpage) results = pool.map(spider,page) pool.close() pool.join() f.close()

運行上面代碼,提示錯誤為

ValueError: too many values to unpack (expected 2)通過查詢原因是要將dict遍歷,需要dict.items()的形式。但在上述代碼中如何實現(xiàn),一直沒有理順,求教各位

問題解答

回答1:

不好意思哈,現(xiàn)在才有時間來回答你的問題,看到你根據(jù)我的建議把代碼改過來了,下面我把改過的代碼貼出來,我運行過,是沒問題的

import requestsfrom multiprocessing.dummy import Poolfrom lxml import etreeimport timeimport randomimport csvdef spider(url): header = {’User-Agent’: ’Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36’ } timeout = random.choice(range(31, 50)) html = requests.get(url, headers=header, timeout=timeout) time.sleep(random.choice(range(8, 16))) selector = etree.HTML(html.text) content_field = selector.xpath(’//*[@class='inner']/p[3]/p[2]/ul/li’) item = {} for each in content_field:g = each.xpath(’a/p[1]/p[1]/h3/span/text()’)go = each.xpath(’a/p[1]/p[2]/p/h3/text()’)h = each.xpath(’a/p[1]/p[2]/p/p/text()[1]’)j = each.xpath(’a/p[1]/p[1]/p/text()[2]’)ge = each.xpath(’a/p[1]/p[2]/p/p/text()[3]’)x = each.xpath(’a/p[1]/p[1]/p/text()[3]’)city = each.xpath(’a/p[1]/p[1]/p/text()[1]’)gg = each.xpath(’a/p[2]/span/text()’)item[’city’] = ''.join(city)item[’hangye’] = ''.join(g)item[’guimo’] = ''.join(go)item[’gongsi’] = ''.join(h)item[’gongzi’] = ''.join(j)item[’jingyan’] = ''.join(ge)item[’xueli’] = ''.join(x)item[’gongzuoneirong’] = ''.join(gg)fieldnames = [’city’, ’hangye’, ’guimo’, ’gongsi’, ’gongzi’, ’jingyan’, ’xueli’, ’gongzuoneirong’]with open(’bj.csv’, ’a’, newline=’’, errors=’ignore’)as f: f_csv = csv.DictWriter(f, fieldnames=fieldnames) f_csv.writeheader() f_csv.writerow(item)if __name__ == ’__main__’: f = open(’bj.csv’, ’w’) page = [] for i in range(1, 100):newpage = ’https://www.zhipin.com/c101010100/h_101010100/?query=%E6%95%B0%E6%8D%AE%E8%BF%90%E8%90%A5&page=’ + str( i) + ’&ka=page-’ + str(i)page.append(newpage) print(page) pool = Pool(4) results = pool.map(spider, page) pool.close() pool.join() f.close()

這里主要是header,你原來是set類型,我修改后是dict類型

這里還需要給你一些建議

你的代碼是放到ide還是文本編輯器中運行的?有的東西在ide下明顯會報錯啊

建議新手從開始學(xué)的時候就遵守PEP8規(guī)范,別養(yǎng)成了壞習(xí)慣,你看看你的命名

回答2:

item = {’a’:1, ’b’:2}fieldnames = [’a’, ’b’]with open(’test.csv’, ’a’) as f: f_csv = DictWriter(f, fieldnames=fieldnames) f_csv.writeheader() f_csv.writerow(item)

我這樣寫并沒報錯喔

writerow就是直接接收dict的吧,你這個問題,我感覺是因為item的key與你表頭不對應(yīng)

回答3:

因為在 fields 中指定的某些列名在 item 中不存在

標(biāo)簽: Python 編程
相關(guān)文章:
主站蜘蛛池模板: 久久精品国产6699国产精 | 欧美日韩精品一区二区三区 | 久久久久久国产精品免费免费 | 蕾丝视频永久在线入口香蕉 | 一及毛片 | 国产成人精品亚洲日本在线观看 | 日韩欧美一区二区三区在线观看 | 美女操男人 | 狼人激情网 | 亚洲 欧美 激情 另类 校园 | 日韩久久影院 | 一区二区在线看 | 国产精品国产三级国产专 | 国产精品18久久久久网站 | 日本一本黄 | 精品国产不卡一区二区三区 | 国产精品久久久久久小说 | 欧美精品亚洲人成在线观看 | 国产男女在线观看 | 中国一级性生活片 | 国产成人精品高清不卡在线 | 草草影音 | 欧美a级在线观看 | 99精品视频在线在线视频观看 | 免费一级毛片在线播放 | 美女视频黄色在线观看 | 香蕉久久夜色精品国产尤物 | 114一级毛片免费观看 | 99亚洲精品视频 | 加勒比色综合久久久久久久久 | 国产成人a一区二区 | 久久国产一区二区三区 | 欧美一级做一a做片性视频 欧美一级做一级爱a做片性 | 欧美精品午夜久久久伊人 | 免费观看a毛片一区二区不卡 | 香蕉毛片 | 日韩欧美一级毛片视频免费 | 欧美激情视频在线观看一区二区三区 | 久久精品视频7 | 伊人久久大香线焦在观看 | 久久久久香蕉视频 |