【python爬虫案例】利用python爬取豆瓣音乐评分TOP250的排行数据!
一、爬取案例-豆瓣音乐TOP250之前给大家分享了2个豆瓣的python爬虫案例:
【python爬虫案例】利用python爬虫爬取豆瓣电影评分TOP250排行数据!
【python爬虫案例】利用python爬虫爬取豆瓣读书评分TOP250的排行数据!
今天再给大家分享一下:豆瓣音乐排行榜TOP250的python爬虫案例!
爬虫的流程和逻辑上都和之前分享过的2篇文章差不多
这次爬取的目标网址是:https://music.douban.com/top250
https://cdn.nlark.com/yuque/0/2024/png/27571985/1725434638420-235c1c2f-663c-41da-9a42-82c6a16d310b.png
老例子!咱们以目标为驱动,先来看下爬虫爬取乐成后得到的csv文档数据
https://cdn.nlark.com/yuque/0/2024/png/27571985/1725434879973-8a73e2b7-3187-46b0-a518-bb5b03b3333b.png
那代码是如何实现豆瓣音乐TOP250数据爬取的了?下面逐一讲解一下python实现。
二、豆瓣音乐TOP250网站分析
通过浏览器F12查看全部哀求,发现他并没有发送ajax哀求,那阐明我们要的TOP250的排行榜数据大概率是在html页面内容上。
https://cdn.nlark.com/yuque/0/2024/png/27571985/1725435062207-9bcc13a6-caff-466a-b00b-83b9ba3442cb.png
于是我们 点击右键->查看网页源代码 ,发现我们必要的豆瓣音乐评分的排行榜数据都在html页面里
https://cdn.nlark.com/yuque/0/2024/png/27571985/1725435106810-04e18a45-f6c2-45ed-bdeb-ba3ead002dea.png
这就简单了,我们直接往下看,上代码。
三、python爬虫代码详解
起首,导入我们必要用到的库
import requests # 发请求
from lxml import etree# 解析html
import pandas as pd# 存取csv然后,向豆瓣音乐TOP250的网页发起哀求,得到html页面内容
page_source = requests.get(page_url, headers=headers).text用lxml库解析html页面
tree = etree.HTML(page_source)使用xpath来提取我们必要的音乐排行榜数据内容
# 获得数据所在的标签
tables = tree.xpath("//div[@class='indent']/table")
# 循环标签获得音乐信息
for table in tables:
pl2 = table.xpath(".//div[@class='pl2']")
# 抓取数据
url = extract_first(pl2.xpath("./a/@href")) # 专辑链接
music_name = extract_first(pl2.xpath("./a/text()")) # 专辑名称
score = extract_first(pl2.xpath(".//span[@class='rating_nums']/text()")) # 评分
score_people_num = extract_first(pl2.xpath(".//span[@class='pl']/text()"))
score_people_num = re.search("\d+", score_people_num).group() # 评分人数
info_text = extract_first(pl2.xpath("//p[@class='pl']/text()"))
infos = info_text.split("/")
singer = infos.strip()# 歌手
publish_date = infos.strip() # 发行日期
type = infos.strip() # 类型
media = infos.strip() # 介质
style = infos.strip() # 曲风最后,我们将爬虫爬取的数据保存到csv文档里
def save_to_csv(csv_name):
"""
数据保存到csv
@param csv_name: csv文件名字
@return:
"""
df = pd.DataFrame()# 初始化一个DataFrame对象
df['专辑名称'] = music_names
df['专辑链接'] = urls
df['歌手'] = singers
df['评分'] = scores
df['评分人数'] = score_people_nums
df['发行日期'] = publish_dates
df['类型'] = types
df['介质'] = medias
df['曲风'] = styles
df.to_csv(csv_name, encoding='utf8', index=False)# 将数据保存到csv文件上面的music_names、urls等变量都是使用的list来进行存储的,如许才能符合pandas导出数据时的必要,然后调用to_csv()方法保存即可。
如许,爬取的豆瓣音乐排行榜数据就持久化保存到我们的文档里了。
必要注意的是!豆瓣页面上第4、5、6页只有24首(不是25首)音乐,所以总数量是247,不是250。
不是爬虫代码有标题,是豆瓣页面上就只有247条数据。
四、python爬虫源代码获取
我是@王哪跑,持续分享python干货,各类副业技巧及软件!
附完备python源码及csv表格数据:【python爬虫案例】利用python爬取豆瓣音乐评分TOP250的排行数据!
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页:
[1]