无码av一区二区三区无码,在线观看老湿视频福利,日韩经典三级片,成 人色 网 站 欧美大片在线观看

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊(cè)

黑馬程序員Python爬蟲(chóng)基礎(chǔ),快速入門Scrapy爬蟲(chóng)框架

2023-08-26 15:40 作者:明明ai小明  | 我要投稿
#拿到頁(yè)面原地阿瑪
#拿到所有ul上面得a標(biāo)簽

from lxml import etree
import re
import requests
import json
domain = 'https://desk.zol.com.cn'
url = 'https://desk.zol.com.cn/'
resp = requests.get(url)
resp.encoding = 'gbk'
# print(resp.text)
et = etree.HTML(resp.text)
result = et.xpath('//ul[@class="pic-list2 clearfix"]/li/a/@href')
# print(result)

for item in result:
    url = domain + item
    print(url)
    # url = 'https://desk.zol.com.cn/bizhi/10055_120350_2.html'
    resp = requests.get(url)
    # print(resp.text)
    obj = re.compile(r'var deskPicArr.*?=(?P<deskPicArr>.*?);',re.S)
    result = obj.search(resp.text)
    deskPicArr = result.group('deskPicArr')
    # print(deskPicArr)
    dic = json.loads(deskPicArr)
    # print(dic)
    for item in dic['list']:
        oriSize = item.get('oriSize')
        imgsrc = item.get('imgsrc')
        # print(oriSize,imgsrc)
        imgsrc = imgsrc.replace('##SIZE##',oriSize)
        print(imgsrc)
        #發(fā)送網(wǎng)絡(luò)請(qǐng)求
        name = imgsrc.split('/')[-1]
        resp_img = requests.get(imgsrc)
        #此時(shí)拿到的不是resp.text, resp.content拿到的是字節(jié)
        with open(f"img/{name}",mode="wb") as f:
            f.write(resp_img.content)
            # print(f)


黑馬程序員Python爬蟲(chóng)基礎(chǔ),快速入門Scrapy爬蟲(chóng)框架的評(píng)論 (共 條)

分享到微博請(qǐng)遵守國(guó)家法律
阳西县| 班玛县| 安宁市| 闽清县| 新蔡县| 浙江省| 兴安县| 萍乡市| 江门市| 汕尾市| 赫章县| 元谋县| 江口县| 丹寨县| 玉溪市| 渝中区| 修文县| 洛隆县| 昆明市| 宁都县| 利辛县| 浦东新区| 淮安市| 伊金霍洛旗| 新丰县| 古田县| 吉林省| 哈密市| 绵阳市| 福鼎市| 宜君县| 咸宁市| 鄂托克前旗| 黄龙县| 保靖县| 辽宁省| 德江县| 中卫市| 宁河县| 西平县| 台山市|