前言
嗨喽,大家好呀~这里是爱看美女的茜茜呐
又到了学Python时刻~
你还在为一个一个下载壁纸而烦恼吗,那有没有更加简单的方法呢?
跟着我,一起来看看我是如何批量下载的吧
环境使用:
- python3.8 | Anaconda
- pycharm
相关模块:
- requests >>> pip install requests
- parsel
模块安装方法:win + R 输入 cmd 点击确定, 输入安装命令 pip install 模块名, 回车
插 件:
xpath helper扩展工具包
安装步骤:先获取xpath helper扩展工具包(注意:不要解压)
》》 打开Google浏览器 --> 更多工具 --> 扩展程序 --> 打开开发者模式 --> 把xpath helper扩展工具包直接拖入 --> 刷新
使用方法:快捷键 ctrl+shift+X
基本思路
1.网页的图片怎么来的?
写代码(爬虫): 网页源代码 浏览器 --> 解析数据
第一页 --> 41页
代码
- import requests # 需要下载 知道 1 不知道 2 pip install requests win+R --> cmd
- import re # 正则 不需要下载
- import parsel #数据解析 需要下载
复制代码
- # 伪装
- headers = {
- # 用户代理 浏览器基本的身份信息
- 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.0.0 Safari/537.36'
- }
- # 发送请求 response数据请求状态
- response = requests.get(url,headers)
- # print 打印输出 <Response [200]> 响应对象 200 状态码 成功
- print(response)
- """
- 2.响应数据 网页源代码
- """
- # print(response.text)
- """
- 3.解析数据 图片 re
- """
- # .*? 精准查找
- re_data = re.findall('<a href="https://www.cnblogs.com/(.*?)" target="_blank"rel="bookmark">(.*?)</a>',response.text)
- print(re_data)
- # for循环
- for link,title in re_data:
- # print(link)
- response_1 = requests.get(link, headers).text
- # print(response_1)
- # 解析数据 标签详情页
- selector = parsel.Selector(response_1)
- # css:定位 img_url 图片链接
- img_url = selector.css('.entry-content img::attr(src)').getall()
- # print(img_url)
- for img in img_url:
- print(img)
- img_name = img.split('/')[-1]
- # content 二进制
- content = requests.get(img,headers).content
- """
- 4.保存数据
- """
- with open('img\\'+ img_name, mode='wb') as file:
- file.write(content)
复制代码







文章看不懂,我专门录了对应的视频讲解,本文只是大致展示,完整代码和视频教程点击下方蓝字
==点击 蓝色字体 自取,我都放在这里了。==
尾语
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |