【机器学习】数据准备--python爬虫

打印 上一主题 下一主题

主题 918|帖子 918|积分 2754

前言

我们在学习机器学习相关内容时,一般是不需要我们自己去爬取数据的,因为很多的算法学习很友好的帮助我们打包好了相关数据,但是这并不代表我们不需要进行学习和了解相关知识。在这里我们了解三种数据的爬取:鲜花/明星图像的爬取、中国艺人图像的爬取、股票数据的爬取。分别对着三种爬虫进行学习和使用。

  • 体会
    个人感觉爬虫的难点就是URL的获取,URL的获取与自身的经验有关,这点我也很难把握,一般URL获取是通过访问该网站通过抓包进行分析获取的。一般也不一定需要抓包工具,通过浏览器的开发者工具(F12/Fn+F12)即可进行获取。
鲜花/明星图像爬取

URL获取


  • 百度搜索鲜花关键词,并打开开发者工具,点击NrtWork


  • 找到数据包进行分析,分析重要参数


    • pn 表示第几张图片加载
    • rn 表示加载多少图片

  • 查看返回值进行分析,可以看到图片体制在ThumbURL中

下载过程

代码
  1. import requests
  2. import os
  3. import urllib
  4. class GetImage():
  5.     def __init__(self,keyword='鲜花',paginator=1):
  6.         self.url = 'http://image.baidu.com/search/acjson?'
  7.         self.headers = {
  8.             'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/102.0.0.0 Safari/537.36'
  9.         }
  10.         self.keyword = keyword
  11.         self.paginator = paginator
  12.     def get_param(self):
  13.         keyword = urllib.parse.quote(self.keyword)
  14.         params = []
  15.         for i in range(1,self.paginator+1):
  16.             params.append(
  17.                'tn=resultjson_com&logid=10338332981203604364&ipn=rj&ct=201326592&is=&fp=result&fr=&word={}&queryWord={}&cl=2&lm=-1&ie=utf-8&oe=utf-8&adpicid=&st=&z=&ic=&hd=&latest=&copyright=&s=&se=&tab=&width=&height=&face=&istype=&qc=&nc=1&expermode=&nojc=&isAsync=&pn={}&rn=30&gsm=78&1650241802208='.format(keyword,keyword,30*i)
  18.             )
  19.         return params
  20.     def get_urls(self,params):
  21.         urls = []
  22.         for param in params:
  23.             urls.append(self.url+param)
  24.         return urls
  25.     def get_image_url(self,urls):
  26.         image_url = []
  27.         for url in urls:
  28.             json_data = requests.get(url,headers = self.headers).json()
  29.             json_data = json_data.get('data')
  30.             for i in json_data:
  31.                 if i:
  32.                     image_url.append(i.get('thumbURL'))
  33.         return image_url
  34.     def get_image(self,image_url):
  35.         ##根据图片url,存入图片
  36.         file_name = os.path.join("", self.keyword)
  37.         #print(file_name)
  38.         if not os.path.exists(file_name):
  39.             os.makedirs(file_name)
  40.         for index,url in enumerate(image_url,start=1):
  41.             with open(file_name+'/{}.jpg'.format(index),'wb') as f:
  42.                 f.write(requests.get(url,headers=self.headers).content)
  43.             if index != 0 and index%30 == 0:
  44.                 print("第{}页下载完成".format(index/30))
  45.     def __call__(self, *args, **kwargs):
  46.         params = self.get_param()
  47.         urls = self.get_urls(params)
  48.         image_url = self.get_image_url(urls)
  49.         self.get_image(image_url=image_url)
  50. if __name__ == '__main__':
  51.     spider = GetImage('鲜花',3)
  52.     spider()
复制代码
明星图像爬取


  • 只需要把main函数里的关键字换一下就可以了,换成明星即可
  1. if __name__ == '__main__':
  2.     spider = GetImage('明星',3)
  3.     spider()
复制代码
其他主题


  • 同理的我们需要其他图片也可以换
  1. if __name__ == '__main__':
  2.     spider = GetImage('动漫',3)
  3.     spider()
复制代码
艺人图像爬取

方法一


  • 我们可以使用上面的爬取图片的方式,把关键词换为中国艺人也可以爬取图片
方法二


  • 显然上面的方式可以满足我们部分需求,我们如果需要爬取不同艺人那么上面的方式就不是那么好了。
  • 我们下载10个不同艺人的图片,然后用他们的名字命名图片名,再把他们存入picture文件内
代码
  1. import requests
  2. import json
  3. import os
  4. import urllib
  5. def getPicinfo(url):
  6.     headers = {
  7.        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:101.0) Gecko/20100101 Firefox/101.0',
  8.     }
  9.     response = requests.get(url,headers)
  10.     if response.status_code == 200:
  11.         return response.text
  12.     return None
  13. Download_dir = 'picture'
  14. if os.path.exists(Download_dir) == False:
  15.     os.mkdir(Download_dir)
  16. pn_num = 1
  17. rn_num = 10
  18. for k in range(pn_num):
  19.     url = "https://sp0.baidu.com/8aQDcjqpAAV3otqbppnN2DJv/api.php?resource_id=28266&from_mid=500&format=json&ie=utf-8&oe=utf-8&query=%E4%B8%AD%E5%9B%BD%E8%89%BA%E4%BA%BA&sort_key=&sort_type=1&stat0=&stat1=&stat2=&stat3=&pn="+str(pn_num)+"&rn="+str(rn_num)+"&_=1580457480665"
  20.     res = getPicinfo(url)
  21.     json_str = json.loads(res)
  22.     figs = json_str['data'][0]['result']
  23.     for i in figs:
  24.         name = i['ename']
  25.         img_url = i['pic_4n_78']
  26.         img_res = requests.get(img_url)
  27.         if img_res.status_code == 200:
  28.             ext_str_splits = img_res.headers['Content-Type'].split('/')
  29.             ext = ext_str_splits[-1]
  30.             fname = name+'.'+ext
  31.             open(os.path.join(Download_dir,fname),'wb').write(img_res.content)
  32.             print(name,img_url,'saved')
复制代码
股票数据爬取

我们对http://quote.eastmoney.com/center/gridlist.html 内的股票数据进行爬取,并且把数据储存下来
爬取代码
  1. # http://quote.eastmoney.com/center/gridlist.html
  2. import requests
  3. from fake_useragent import UserAgent
  4. import json
  5. import csv
  6. import  urllib.request as r
  7. import threading
  8. def getHtml(url):
  9.     r = requests.get(url, headers={
  10.         'User-Agent': UserAgent().random,
  11.     })
  12.     r.encoding = r.apparent_encoding
  13.     return r.text
  14. # 爬取多少
  15. num = 20
  16. stockUrl = 'http://52.push2.eastmoney.com/api/qt/clist/get?cb=jQuery112409623798991171317_1654957180928&pn=1&pz=20&po=1&np=1&ut=bd1d9ddb04089700cf9c27f6f7426281&fltt=2&invt=2&wbp2u=|0|0|0|web&fid=f3&fs=m:0+t:80&fields=f1,f2,f3,f4,f5,f6,f7,f8,f9,f10,f12,f13,f14,f15,f16,f17,f18,f20,f21,f23,f24,f25,f22,f11,f62,f128,f136,f115,f152&_=1654957180938'
  17. if __name__ == '__main__':
  18.     responseText = getHtml(stockUrl)
  19.     jsonText = responseText.split("(")[1].split(")")[0];
  20.     resJson = json.loads(jsonText)
  21.     datas = resJson['data']['diff']
  22.     dataList = []
  23.     for data in datas:
  24.         row = [data['f12'],data['f14']]
  25.         dataList.append(row)
  26.     print(dataList)
  27.     f = open('stock.csv', 'w+', encoding='utf-8', newline="")
  28.     writer = csv.writer(f)
  29.     writer.writerow(("代码","名称"))
  30.     for data in dataList:
  31.         writer.writerow((data[0]+"\t",data[1]+"\t"))
  32.     f.close()
  33. def getStockList():
  34.     stockList = []
  35.     f = open('stock.csv', 'r', encoding='utf-8')
  36.     f.seek(0)
  37.     reader = csv.reader(f)
  38.     for item in reader:
  39.         stockList.append(item)
  40.     f.close()
  41.     return stockList
  42. def downloadFile(url,filepath):
  43.     try:
  44.         r.urlretrieve(url,filepath)
  45.     except Exception as e:
  46.         print(e)
  47.     print(filepath,"is downLoaded")
  48.     pass
  49. sem = threading.Semaphore(1)
  50. def dowmloadFileSem(url,filepath):
  51.     with sem:
  52.         downloadFile(url,filepath)
  53. urlStart = 'http://quotes.money.163.com/service/chddata.html?code='
  54. urlEnd = '&end=20210221&fields=TCLOSW;HIGH;TOPEN;LCLOSE;CHG;PCHG;VOTURNOVER;VATURNOVER'
  55. if __name__ == '__main__':
  56.     stockList = getStockList()
  57.     stockList.pop(0)
  58.     print(stockList)
  59.     for s in stockList:
  60.         scode = str(s[0].split("\t")[0])
  61.         url = urlStart+("0" if scode.startswith('6') else '1')+ scode + urlEnd
  62.         print(url)
  63.         filepath = (str(s[1].split("\t")[0])+"_"+scode)+".csv"
  64.         threading.Thread(target=dowmloadFileSem,args=(url,filepath)).start()
复制代码
数据处理代码

有可能当时爬取的数据是脏数据,运行下面代码不一定能跑通,需要你自己处理数据还是其他方法
  1. ## 主要利用matplotlib进行图像绘制
  2. import pandas as pd
  3. import matplotlib.pyplot as plt
  4. import csv
  5. import 股票数据爬取 as gp
  6. plt.rcParams['font.sans-serif'] = ['simhei'] #指定字体
  7. plt.rcParams['axes.unicode_minus'] = False #显示-号
  8. plt.rcParams['figure.dpi'] = 100 #每英寸点数
  9. files = []
  10. def read_file(file_name):
  11.     data = pd.read_csv(file_name,encoding='gbk')
  12.     col_name = data.columns.values
  13.     return data,col_name
  14. def get_file_path():
  15.     stock_list = gp.getStockList()
  16.     paths = []
  17.     for stock in stock_list[1:]:
  18.         p = stock[1].strip()+"_"+stock[0].strip()+".csv"
  19.         print(p)
  20.         data,_=read_file(p)
  21.         if len(data)>1:
  22.             files.append(p)
  23.             print(p)
  24. get_file_path()
  25. print(files)
  26. def get_diff(file_name):
  27.     data,col_name = read_file(file_name)
  28.     index = len(data['日期'])-1
  29.     sep = index//15
  30.     plt.figure(figsize=(15,17))
  31.     x = data['日期'].values.tolist()
  32.     x.reverse()
  33.     xticks = list(range(0,len(x),sep))
  34.     xlabels = [x[i] for i in xticks]
  35.     xticks.append(len(x))
  36.     y1 = [float(c) if c!='None' else 0 for c in data['涨跌额'].values.tolist()]
  37.     y2 = [float(c) if c != 'None' else 0 for c in data['涨跌幅'].values.tolist()]
  38.     y1.reverse()
  39.     y2.reverse()
  40.     ax1 = plt.subplot(211)
  41.     plt.plot(range(1,len(x)+1),y1,c='r')
  42.     plt.title('{}-涨跌额/涨跌幅'.format(file_name.split('_')[0]),fontsize = 20)
  43.     ax1.set_xticks(xticks)
  44.     ax1.set_xticklabels(xlabels,rotation = 40)
  45.     plt.ylabel('涨跌额')
  46.     ax2 = plt.subplot(212)
  47.     plt.plot(range(1, len(x) + 1), y1, c='g')
  48.     #plt.title('{}-涨跌额/涨跌幅'.format(file_name.splir('_')[0]), fontsize=20)
  49.     ax2.set_xticks(xticks)
  50.     ax2.set_xticklabels(xlabels, rotation=40)
  51.     plt.xlabel('日期')
  52.     plt.ylabel('涨跌额')
  53.     plt.show()
  54. print(len(files))
  55. for file in files:
  56.     get_diff(file)
复制代码
总结

上文描述了三个数据爬取的案例,不同的数据爬取需要我们对不同的URL进行获取,不同参数进行输入,URL如何组合、如何获取、这是数据爬取的难点,需要有一定的经验和基础。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

正序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

去皮卡多

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表