python 爬取王者荣耀图片

打印 上一主题 下一主题

主题 1031|帖子 1031|积分 3093

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?立即注册

x
最近手痒了,想使用python爬取美女图片,不过找不到合适网站,没办法,只好找老王了,最主要是很久没使用python了,带这复习目的。
  1. '''
  2. 王者荣耀官方 英雄壁纸爬取
  3. '''
  4. import os
  5. from fake_useragent import UserAgent
  6. from bs4 import BeautifulSoup
  7. import requests
  8. import time
  9. import random
  10. import re
  11. def get_fake_userAgent():
  12.     try:
  13.         return {
  14.             'User-Agent':UserAgent().random
  15.         }
  16.     except:
  17.          return {
  18.             'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/105.0.0.0 Safari/537.36 Edg/105.0.1343.50'
  19.         }
  20. def get_response(url):
  21.     time.sleep(random.choice([1,2,3,4,5]))
  22.     try:
  23.         response = requests.get(url=url,headers=get_fake_userAgent())
  24.         if response and response.status_code==200:
  25.             return response.content
  26.         else:
  27.             return None
  28.     except Exception as e:
  29.         print(f"响应失败{url}",e)
  30.         return None
  31.    
  32. def parse_single_hero_data(url):
  33.     res = get_response(url).decode('gbk')
  34.     # 获取英雄id
  35.     hero_id = re.search(r'/\d+\.shtml',url,re.I)[0].replace('/','').replace('.shtml','')
  36.     if res:
  37.         soup = BeautifulSoup(res,'lxml')
  38.         # 英雄名称
  39.         hero_name = soup.select_one('div.cover h2.cover-name').get_text()
  40.         hero_skin_name_list = soup.select('ul.pic-pf-list.pic-pf-list3')[0]['data-imgname']
  41.         hero_skin_name_list = re.sub(r'(&\d+)','',hero_skin_name_list,re.M).split('|')
  42.         # 皮肤遍历下载
  43.         # 创建文件夹
  44.         save_hero_skin(hero_id,hero_name,hero_skin_name_list)
  45.    
  46.       
  47. def save_hero_skin(hero_id,hero_name,hero_skin_link_list):
  48.     path = os.getcwd()+'\\img\\'+hero_name
  49.     if not os.path.exists(path):
  50.         os.makedirs(path)
  51.     for i,skin_name in enumerate(hero_skin_link_list):
  52.         try:
  53.             link = skin_skin_link.format(hero_id,hero_id,i+1)
  54.             content = get_response(link)
  55.             if content:
  56.                 with open(f'{path}//{skin_name}.jpg',mode='wb') as file:
  57.                     file.write(content)
  58.             print(hero_name + skin_name ,'下载成功')
  59.         except Exception as e:
  60.             print(hero_name + skin_name ,'下载失败!',e)
  61.         
  62. def get_hero_list(url):
  63.     data = get_response(url).decode('gbk')
  64.     if data:
  65.         soup = BeautifulSoup(data,'lxml')
  66.         hero_link_list = soup.select('ul.herolist.clearfix li a')
  67.         for index,hero_link in enumerate(hero_link_list):
  68.             # 地址拼接替换
  69.             hero_link_list[index] = root_url + hero_link['href']
  70.         return hero_link_list
  71.     else:
  72.         return []
  73. def start():
  74.     # 执行初始地址
  75.     hero_link_list = get_hero_list(init_url)
  76.     # 遍历查找
  77.     for link in hero_link_list:
  78.         parse_single_hero_data(link)
  79. if __name__ == '__main__':
  80.     # 英雄列表地址
  81.     init_url = 'https://pvp.qq.com/web201605/herolist.shtml'
  82.     skin_skin_link = 'https://game.gtimg.cn/images/yxzj/img201606/skin/hero-info/{}/{}-bigskin-{}.jpg'
  83.     # 单张下载
  84.     parse_single_hero_data('https://pvp.qq.com/web201605/herodetail/162.shtml')
  85.     # 全部英雄下载
  86.     # start()
复制代码
经过测试,能够全部下载,如果需要下载全部,请将上述 start() 取消注释!
源代码地址 : https://gitee.com/wuxin0011/python-demo/blob/master/01-wzry/index.py

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

道家人

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表