结果:抓取某个学校网站的传授名录,并获取研究方向。
由于网站使用的都是明文,所以抓起来没什么难度,且寻常访问量小,很值得用来训练。
代码如下,解释请见解释
- import time
- import requests
- from bs4 import BeautifulSoup
- # 创建一个包含浏览器头部信息的字典,模拟浏览器,可以骗过一些简单的反爬虫网站
- headers = {
- 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.45 Safari/537.36',
- # 可以根据需要添加更多的头部信息,比如:
- # 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
- # 'Accept-Language': 'en-US,en;q=0.5',
- # 'Accept-Encoding': 'gzip, deflate, br',
- # 'DNT': '1', # Do Not Track 请求头表明用户不希望被追踪
- # 'Connection': 'keep-alive',
- # 'Upgrade-Insecure-Requests': '1',
- # 如果需要处理cookies,也可以在这里设置'Cookie'字段
- # 'Cookie': 'your_cookie_here',
- }
- # 获取教师信息
- def request_teacher_info(url):
- # 发送GET请求,并带上headers
- response = requests.get(url, headers=headers)
- content = response.content.decode('utf-8')
- # 确保请求成功
- if response.status_code == 200:
- soup = BeautifulSoup(content, 'html.parser')
- # 抓取div标签下,class为infobox的标签
- infobox_div = soup.find('div', class_='infobox')
- # 抓取span标签,class为'h_info',并且包含"姓名"字样
- name_span = infobox_div.find('span', class_='h_info', string='姓名:')
- # 抓取"姓名"字样后一个字样,即实际姓名
- name = name_span.find_next_sibling('span').get_text(strip=True)
- # 同样的方法抓研究方向,想继续抓,还有邮箱,发表论文这些,都是一样的套路
- research_direction_span = infobox_div.find('span', class_='h_info', string='研究方向:')
- research_direction = research_direction_span.find_next_sibling('span').get_text(strip=True)
- print(f"{name} 研究方向:{research_direction}")
- else:
- print(f"请求失败,状态码为:{response.status_code}")
- # 获取教师列表
- def request_teacher_list(url):
- # 发送GET请求,并带上headers
- response = requests.get(url, headers=headers)
- content = response.content.decode('utf-8')
- link_list = []
- # 确保请求成功
- if response.status_code == 200:
- # 使用BeautifulSoup解析HTML内容
- soup = BeautifulSoup(content, 'html.parser')
- right_list_r = soup.find('div', class_='right-list r')
- # 教师列表
- teacher_lists = right_list_r.find_all('div', class_='teacher-list')
- for teacher_list in teacher_lists:
- job_type = teacher_list.find("h2", class_="title l")
- # 这些打印信息可以忽略,重要信息已在request_teacher_info()中展示
- print(job_type.get_text(strip=True))
- professor_ul = teacher_list.find_all('ul')[0]
- a_list = professor_ul.find_all('a', href=True)
- for a in a_list:
- link = a['href']
- link_list.append(link)
- print(link)
- print("=" * 50)
- return link_list
- link_list1 = request_teacher_list("https://example.com")
- for link in link_list1:
- request_teacher_info(link)
- # time.sleep(0.5)
复制代码 免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |