ToB企服应用市场:ToB评测及商务社交产业平台
标题:
Python爬虫项目--批量下载小姐姐壁纸
[打印本页]
作者:
风雨同行
时间:
2022-9-17 08:38
标题:
Python爬虫项目--批量下载小姐姐壁纸
前言
嗨喽,大家好呀~这里是爱看美女的茜茜呐
又到了学Python时刻~
你还在为一个一个下载壁纸而烦恼吗,那有没有更加简单的方法呢?
跟着我,一起来看看我是如何批量下载的吧
环境使用:
python3.8 | Anaconda
pycharm
相关模块:
requests >>> pip install requests
parsel
模块安装方法:win + R 输入 cmd 点击确定, 输入安装命令 pip install 模块名, 回车
插 件:
xpath helper扩展工具包
安装步骤:先获取xpath helper扩展工具包(注意:不要解压)
》》 打开Google浏览器 --> 更多工具 --> 扩展程序 --> 打开开发者模式 --> 把xpath helper扩展工具包直接拖入 --> 刷新
使用方法:快捷键 ctrl+shift+X
基本思路
1.网页的图片怎么来的?
写代码(爬虫): 网页源代码 浏览器 --> 解析数据
第一页 --> 41页
发送请求
响应数据
解析数据 图片
保存数据
代码
import requests # 需要下载 知道 1 不知道 2 pip install requests win+R --> cmd
import re # 正则 不需要下载
import parsel #数据解析 需要下载
复制代码
# 伪装
headers = {
# 用户代理 浏览器基本的身份信息
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.0.0 Safari/537.36'
}
# 发送请求 response数据请求状态
response = requests.get(url,headers)
# print 打印输出 <Response [200]> 响应对象 200 状态码 成功
print(response)
"""
2.响应数据 网页源代码
"""
# print(response.text)
"""
3.解析数据 图片 re
"""
# .*? 精准查找
re_data = re.findall('<a href="https://www.cnblogs.com/(.*?)" target="_blank"rel="bookmark">(.*?)</a>',response.text)
print(re_data)
# for循环
for link,title in re_data:
# print(link)
response_1 = requests.get(link, headers).text
# print(response_1)
# 解析数据 标签详情页
selector = parsel.Selector(response_1)
# css:定位 img_url 图片链接
img_url = selector.css('.entry-content img::attr(src)').getall()
# print(img_url)
for img in img_url:
print(img)
img_name = img.split('/')[-1]
# content 二进制
content = requests.get(img,headers).content
"""
4.保存数据
"""
with open('img\\'+ img_name, mode='wb') as file:
file.write(content)
复制代码
文章看不懂,我专门录了对应的视频讲解,本文只是大致展示,完整代码和视频教程点击下方蓝字
==点击
蓝色字体
自取,我都放在这里了。==
尾语
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
欢迎光临 ToB企服应用市场:ToB评测及商务社交产业平台 (https://dis.qidao123.com/)
Powered by Discuz! X3.4