前言
今天给大家介绍的是Python爬虫批量下载音乐飙升榜并保存本地,在这里给需要的小伙伴们代码,并且给出一点小心得。
首先是爬取之前应该尽可能伪装成浏览器而不被识别出来是爬虫,基本的是加请求头,但是这样的纯文本数据爬取的人会很多,所以我们需要考虑更换代理IP和随机更换请求头的方式来对音乐飙升榜进行爬取。
在每次进行爬虫代码的编写之前,我们的第一步也是最重要的一步就是分析我们的网页。
通过分析我们发现在爬取过程中速度比较慢,所以我们还可以通过禁用谷歌浏览器图片、JavaScript等方式提升爬虫爬取速度。
开发工具
Python版本: 3.6
相关模块:
requests模块
time模块
parsel模块
re模块
time模块
环境搭建
安装Python并添加到环境变量,pip安装需要的相关模块即可。
文中完整代码及文件,评论留言获取
数据来源查询分析
浏览器中打开我们要爬取的页面
按F12进入开发者工具,查看我们想要的音乐飙升榜在哪里
这里我们需要页面数据就可以了
代码实现
- url = 'https://www.kugou.com/yy/html/rank.html'
- # 请求头: 把python代码伪装成浏览器对服务器发送请求, 服务接收到请求,确认无误 会返回一个响应体数据 (response)
- # user-agent : 浏览器基本信息
- headers = {
- 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.114 Safari/537.36'
- 'Cookie': '你的Cookie'
- }
- response = requests.get(url=url, headers=headers)
- # 获取响应体文本数据 response.text
- # print(response.text)
- # 返回是字符串
- # 解析数据 提取每个榜单url地址 css选择器 主要根据标签的属性内容提取数据
- # 需要把获取到 response.tex 文本数据 转换成 selector 解析对象
- selector = parsel.Selector(response.text)
- # attr() 属性选择器 选择a标签里面的href属性
- # getall() 获取所有A标签里面的内容 返回的是列表
- # get() 获取一个a标签里面的内容 返回的是字符串
- # 直接取标签文本数据 text
- href = selector.css('.pc_rank_sidebar li a::attr(href)').getall()
- href = href[15:] # 列表切片
- for index in href:
- response_2 = requests.get(url=index, headers=headers)
- # 正则表达式里面 () 精确匹配 提取的内容
- # .*? 通配符 可以匹配任意字符返回是列表
- # \d 匹配一个数字 \d+ 匹配多个数字
- Hash_list = re.findall('"Hash":"(.*?)"', response_2.text)
- id_list = re.findall('"album_id":(\d+),', response_2.text)
- zip_data = zip(Hash_list, id_list)
- for link in zip_data:
- time.sleep(1)
- now_time = int(time.time() *1000)
- hash = link[0]
- music_id = link[1]
- link_url = 'https://wwwapi.kugou.com/yy/index.php'
- # get请求的url 问号后面的参数 都是属于 请求参数
- # params 请求参数
- # ? 非贪婪匹配 贪婪匹配 . 匹配任意一个字符(除了\n) * 匹配前字符 一个或者多个
- params = {
- 'r': 'play/getdata',
- # 'callback': 'jQuery1910035165171305796106_1624450739070',
- 'hash': hash,
- 'dfid': '4WPBq03cK0E03W1gW53TM7Vs',
- 'mid': '562939428ef6d5d8272814a5058a411b',
- 'platid': '4',
- 'album_id': music_id,
- '_': now_time,
- }
- response_3 = requests.get(url=link_url, params=params, headers=headers)
复制代码 获取Cookie
效果展示
最后
今天的分享到这里就结束了 ,感兴趣的朋友也可以去试试哈
对文章有问题的,或者有其他关于python的问题,可以在评论区留言或者私信我哦
觉得我分享的文章不错的话,可以关注一下我,或者给文章点赞(/≧▽≦)/
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |