python爬虫获取数据后的数据提取

打印 上一主题 下一主题

主题 845|帖子 845|积分 2535

python爬虫中的数据提取

   当我们利用python爬虫模仿欣赏器发送哀求获取数据时,返回有用的数据通常有两种情势,一种是json格式的数据,一种是html情势的数据。
  1.Json格式数据的数据提取

   如今的网站不同于从前了. 习惯性用json来传递数据. 以是, 我们必须要知道json是啥, 以及python怎样处理json.
  json是一种类似字典一样的东西. 对于python而言, json是字符串.
  1. s = '{"name": "jay", "age": 18}'
复制代码
你看. 这破玩意就是json
   当我们获取json字符串时,就可以将其转换为字典来举行处理,想获取数据就像字典那样取就行了。
  json字符串 => python字典
  1. import jsons = '{"name": "jay", "age": 18}'
  2. dic = json.loads(s)print(type(dic))
复制代码
python字典 => json字符串
  1. import json
  2. dic = {"name": "jay", "age": 18}
  3. s = json.dumps(dic)
  4. print(type(s))
复制代码
  json获取数据就是转换为字典举行获取数据,固然也还可以利用正则,接下来我们了解正则。
  2.Html格式数据提取之bs4

   简单来说,Beautiful Soup是python的一个库,最主要的功能是从网页抓取数据。官方表明如下:
  Beautiful Soup提供一些简单的、python式的函数用来处理导航、搜索、修改分析树等功能。
它是一个工具箱,通过解析文档为用户提供需要抓取的数据,由于简单,以是不需要多少代码就可以写出一个完整的应用程序。
  

  • 安装
  1. pip install beautifulsoup4
复制代码
解析器

Beautiful Soup支持Python标准库中的HTML解析器,还支持一些第三方的解析器,如果我们不安装它,则 Python 会利用 Python默认的解析器,lxml 解析器更加强大,速度更快,推荐安装。
  1. pip install lxml
复制代码
怎样利用

将一段文档传入BeautifulSoup 的构造方法,就能得到一个文档的对象, 可以传入一段字符串或一个文件句柄.
  1. from bs4 import BeautifulSoup
  2. soup = BeautifulSoup(open("index.html"), 'lxml')
  3. soup = BeautifulSoup("<html>data</html>", 'lxml')
复制代码
然后,Beautiful Soup选择最合适的解析器来解析这段文档,如果手动指定解析器那么Beautiful Soup会选择指定的解析器来解析文档。
快速利用

  
  1. html_doc = """
  2. <html><head><title>The Dormouse's story</title></head>
  3. <body>
  4. <p class="title"><b>The Dormouse's story</b></p>
  5. <p class="story">Once upon a time there were three little sisters; and their names were
  6. <a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>,
  7. <a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
  8. <a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
  9. and they lived at the bottom of a well.</p>
  10. <p class="story">...</p>
  11. """
复制代码
利用BeautifulSoup解析这段代码,可以大概得到一个 BeautifulSoup 的对象,并能按照标准的缩进格式的布局输出:
  1. from bs4 import BeautifulSoup
  2. soup = BeautifulSoup(html_doc, 'lxml')
  3. # html进行美化
  4. print(soup.prettify())
复制代码
匹配代码
  1. <html>
  2. <head>
  3.   <title>
  4.    The Dormouse's story
  5.   </title>
  6. </head>
  7. <body>
  8.   <p class="title">
  9.    <b>
  10.     The Dormouse's story
  11.    </b>
  12.   </p>
  13.   <p class="story">
  14.    Once upon a time there were three little sisters; and their names were
  15.    <a class="sister" href="http://example.com/elsie" id="link1">
  16.     Elsie
  17.    </a>
  18.    ,
  19.    <a class="sister" href="http://example.com/lacie" id="link2">
  20.     Lacie
  21.    </a>
  22.    and
  23.    <a class="sister" href="http://example.com/tillie" id="link3">
  24.     Tillie
  25.    </a>
  26.    ;
  27. and they lived at the bottom of a well.
  28.   </p>
  29.   <p class="story">
  30.    ...
  31.   </p>
  32. </body>
  33. </html>
复制代码
几个简单的欣赏布局化数据的方法:
  1. soup.title  # 获取标签title
  2. # <title>The Dormouse's story</title>
  3. soup.title.name   # 获取标签名称
  4. # 'title'
  5. soup.title.string   # 获取标签title内的内容
  6. # 'The Dormouse's story'
  7. soup.title.parent  # 获取父级标签
  8. soup.title.parent.name  # 获取父级标签名称
  9. # 'head'
  10. soup.p
  11. # <p class="title"><b>The Dormouse's story</b></p>
  12. soup.p['class']  # 获取p的class属性值
  13. # 'title'
  14. soup.a
  15. # <a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>
  16. soup.find_all('a')
  17. # [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>,
  18. #  <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>,
  19. #  <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>]
  20. soup.find(id="link3")  # 获取id为link3的标签
  21. # <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>
复制代码
从文档中找到全部\<a>标签的链接:
  1. for link in soup.find_all('a'):
  2.     print(link.get('href'))
  3.     # http://example.com/elsie
  4.     # http://example.com/lacie
  5.     # http://example.com/tillie
复制代码
从文档中获取全部笔墨内容:
  1. print(soup.get_text())
复制代码
对象的种类

   Beautiful Soup将复杂HTML文档转换成一个复杂的树形布局,每个节点都是Python对象,全部对象可以归纳为种
  Tag , NavigableString , BeautifulSoup , Comment .
  Tag

   普通点讲就是 HTML 中的一个个标签,Tag 对象与XML或HTML原生文档中的tag雷同:
  1. soup = BeautifulSoup('<b class="boldest">Extremely bold</b>')
  2. tag = soup.b
  3. type(tag)
  4. # <class 'bs4.element.Tag'>
复制代码
如果想获取 标签,只要用 soup.head :
  1. soup.head
  2. # <head><title>The Dormouse's story</title></head>
  3. soup.title
  4. # <title>The Dormouse's story</title>
复制代码
这是个获取tag的小法门,可以在文档树的tag中多次调用这个方法.下面的代码可以获取<body>标签中的第一个<b>标签:
  1. soup.body.b
  2. # <b>The Dormouse's story</b>
复制代码
通过点取属性的方式只能获得当前名字的第一个tag:
  1. soup.a
  2. # <a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>
复制代码
如果想要得到全部的<a>标签,或是通过名字得到比一个tag更多的内容的时间,就需要用到 Searching the tree 中描述的方法,比如: find_all()
  1. soup.find_all('a')
  2. # [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>,
  3. #  <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>,
  4. #  <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>]
复制代码
我们可以利用 soup加标签名轻松地获取这些标签的内容,注意,它查找的是在全部内容中的第一个符合要求的标签。
     name和attributes属性

   Tag有许多方法和属性,如今先容一下tag中最重要的属性: name和attributes
   每个tag都有自己的名字,通过 .name 来获取:
  
  1. tag.name
  2. # 'b'
  3. tag['class']
  4. # 'boldest'
  5. tag.attrs
  6. # {'class': 'boldest'}
复制代码
  tag的属性可以被添加,删除或修改. 再说一次, tag的属性操作方法与字典一样(了解)
  
  1. tag['class'] = 'verybold'
  2. tag['id'] = 1
  3. tag
  4. # <blockquote class="verybold" id="1">Extremely bold</blockquote>
  5. del tag['class']
  6. del tag['id']
  7. tag
  8. # <blockquote>Extremely bold</blockquote>
  9. tag['class']
  10. # KeyError: 'class'
  11. print(tag.get('class'))
  12. # None
复制代码
   NavigableString(字符串)

   既然我们已经得到了标签的内容,那么题目来了,我们要想获取标签内部的笔墨怎么办呢?很简单,用 .string 即可.
  字符串常被包罗在tag内.Beautiful Soup用 NavigableString 类来包装tag中的字符串
  1. tag.string
  2. # 'Extremely bold'
  3. type(tag.string)
  4. # <class 'bs4.element.NavigableString'>
复制代码
BeautifulSoup

BeautifulSoup 对象表示的是一个文档的全部内容.大部分时间,可以把它看成 Tag 对象,是一个特殊的 Tag,我们可以分别获取它的类型,名称,以及属性。
  1. print(type(soup.name))
  2. # <class 'str'>
  3. print(soup.name)
  4. # [document]
  5. print(soup.attrs)
  6. # {} 空字典
复制代码
Comment

   如果字符串内容为注释 则为Comment
  1. html_doc='<a href="http://example.com/elsie" class="sister" id="link1"><!-- Elsie --></a>'
  2. soup = BeautifulSoup(html_doc, 'html.parser')
  3. print(soup.a.string)   # Elsie
  4. print(type(soup.a.string))  #  <class 'bs4.element.Comment'>
复制代码
a 标签里的内容现实上是注释,但是如果我们利用 .string 来输出它的内容,我们发现它已经把注释符号去掉了,以是这大概会给我们带来不须要的贫苦。
  子节点

一个Tag大概包罗多个字符串或其它的Tag,这些都是这个Tag的子节点.Beautiful Soup提供了许多操作和遍历子节点的属性.
注意: Beautiful Soup中字符串节点不支持这些属性,由于字符串没有子节点。
.contents

   tag的 .contents 属性可以将tag的子节点以列表的方式输出:
  1. head_tag = soup.head
  2. head_tag
  3. # <head><title>The Dormouse's story</title></head>
  4. head_tag.contents
  5. [<title>The Dormouse's story</title>]
  6. title_tag = head_tag.contents[0]
  7. title_tag
  8. # <title>The Dormouse's story</title>
  9. title_tag.contents
  10. # [u'The Dormouse's story']
复制代码
字符串没有 .contents 属性,由于字符串没有子节点:
  1. text = title_tag.contents[0]
  2. text.contents
  3. # AttributeError: 'NavigableString' object has no attribute 'contents'
复制代码
.children

   .children它返回的不是一个 list,不外我们可以通过遍历获取全部子节点。我们打印输出 .children 看一下,可以发现它是一个 list 天生器对象
  通过tag的 .children 天生器,可以对tag的子节点举行循环:
  1. print(title_tag.children)       # <list_iterator object at 0x101b78860>
  2. print(type(title_tag.children)) # <class 'list_iterator'>
  3. for child in title_tag.children:
  4.     print(child)
  5.     # The Dormouse's story
复制代码
.descendants

   .contents 和 .children 属性仅包罗tag的直接子节点.例如,<head>标签只有一个直接子节点<title>
  1. head_tag.contents
  2. # [<title>The Dormouse's story</title>]
复制代码
但是<title>标签也包罗一个子节点:字符串 “The Dormouse’s story”,这种环境下字符串 “The Dormouse’s story”也属于<head>标签的子孙节点.
  .descendants 属性可以对全部tag的子孙节点举行递归循环 。
  1. for child in head_tag.descendants:
  2.     print(child)
  3.     # <title>The Dormouse's story</title>
  4.     # The Dormouse's story
复制代码
上面的例子中, <head>标签只有一个子节点,但是有2个子孙节点:<head>节点和<head>的子节点, BeautifulSoup 有一个直接子节点(<html>节点),却有许多子孙节点:
  1. len(list(soup.children))
  2. # 1
  3. len(list(soup.descendants))
  4. # 25
复制代码
父节点

.parent

   通过 .parent 属性来获取某个元素的父节点.在例子“爱丽丝”的文档中,<head>标签是<title>标签的父节点:
  1. title_tag = soup.title
  2. title_tag
  3. # <title>The Dormouse's story</title>
  4. title_tag.parent
  5. # <head><title>The Dormouse's story</title></head>
复制代码
文档的顶层节点比如<html>的父节点是 BeautifulSoup 对象:
  1. html_tag = soup.html
  2. type(html_tag.parent)
  3. # <class 'bs4.BeautifulSoup'>
复制代码
.parents

   通过元素的 .parents 属性可以递归得到元素的全部父辈节点,下面的例子利用了 .parents 方法遍历了<a>标签到根节点的全部节点.
  1. link = soup.a
  2. link
  3. # <a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>
  4. for parent in link.parents:
  5.     if parent is None:
  6.         print(parent)
  7.     else:
  8.         print(parent.name)
  9. # p
  10. # body
  11. # html
  12. # [document]
  13. # None
复制代码
节点内容

.string

   如果tag只有一个 NavigableString 类型子节点,那么这个tag可以利用 .string 得到子节点。如果一个tag仅有一个子节点,那么这个tag也可以利用 .string 方法,输出结果与当前唯一子节点的 .string 结果雷同。
  普通点说就是:如果一个标签里面没有标签了,那么 .string 就会返回标签里面的内容。如果标签里面只有唯一的一个标签了,那么 .string 也会返回最里面的内容。例如:
  1. print (soup.head.string)
  2. #The Dormouse's story
  3. # <title><b>The Dormouse's story</b></title>
  4. print (soup.title.string)
  5. #The Dormouse's story
复制代码
如果tag包罗了多个子节点,tag就无法确定,string 方法应该调用哪个子节点的内容, .string 的输出结果是 None
  1. print (soup.html.string)
  2. #None
复制代码
.strings

   获取多个内容,不外需要遍历获取,比如下面的例子:
  1. for string in soup.strings:
  2.     print(repr(string))
  3.    
  4.    
  5. '''
  6.   '\n'
  7. "The Dormouse's story"
  8. '\n'
  9. '\n'
  10. "The Dormouse's story"
  11. '\n'
  12. 'Once upon a time there were three little sisters; and their names were\n'
  13. 'Elsie'
  14. ',\n'
  15. 'Lacie'
  16. ' and\n'
  17. 'Tillie'
  18. ';\nand they lived at the bottom of a well.'
  19. '\n'
  20. '...'
  21. '\n'  
  22.    
  23. '''   
复制代码
.stripped_strings

   输出的字符串中大概包罗了许多空格或空行,利用 .stripped_strings 可以去除多余空白内容
  1. for string in soup.stripped_strings:
  2.     print(repr(string))
  3. '''
  4. "The Dormouse's story"
  5. "The Dormouse's story"
  6. 'Once upon a time there were three little sisters; and their names were'
  7. 'Elsie'
  8. ','
  9. 'Lacie'
  10. 'and'
  11. 'Tillie'
  12. ';\nand they lived at the bottom of a well.'
  13. '...'
  14. '''
复制代码
.text

如果tag包罗了多个子节点, text则会返回内部全部文本内容
  1. print (soup.html.text)
复制代码
注意:
strings和text都可以返回全部文本内容
区别:text返回内容为字符串类型 strings为天生器generator
find_all函数

  1. find_all( name , attrs , recursive , string , **kwargs )
复制代码


  • name 参数

    • name 参数可以查找全部名字为 name 的tag,字符串对象会被自动忽略掉.
    •            简单的用法如下:
           
      1. soup.find_all("title")
      2. # [<title>The Dormouse's story</title>]
      复制代码
           搜索 name 参数的值可以使任一类型的 过滤器 ,字符串,正则表达式,列表,方法或是 True .
    • 传字符串
    •          
      1. soup.find_all('b')
      2. # [<b>The Dormouse's story</b>]
      复制代码
    • 传正则表达式
    •          
      1. import re
      2. for tag in soup.find_all(re.compile("^b")):
      3.     print(tag.name)
      4. # body
      5. # b
      复制代码
    • 传列表

      •               
        1. soup.find_all(["a", "b"])
        2. # [<b>The Dormouse's story</b>,
        3. #  <a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>,
        4. #  <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>,
        5. #  <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>]
        复制代码

    • keyword 参数
    •            如果一个指定名字的参数不是搜索内置的参数名,搜索时会把该参数看成指定名字tag的属性来搜索,如果包罗一个名字为 id 的参数,Beautiful Soup会搜索每个tag的”id”属性.
           
      1. soup.find_all(id='link2')
      2. # [<a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>]
      3. import re
      4. # 超链接包含elsie标签
      5. print(soup.find_all(href=re.compile("elsie")))
      6. # [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>]
      7. # 以The作为开头的字符串
      8. print(soup.find_all(text=re.compile("^The")))
      9. # ["The Dormouse's story", "The Dormouse's story"]
      10. # class选择器包含st的节点
      11. print(soup.find_all(class_=re.compile("st")))
      复制代码
           搜索指定名字的属性时可以利用的参数值包括 字符串 , 正则表达式 , 列表, True .
            下面的例子在文档树中查找全部包罗 id 属性的tag,无论 id 的值是什么:
           
      1. soup.find_all(id=True)
      2. # [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>,
      3. #  <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>,
      4. #  <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>]
      复制代码
           利用多个指定名字的参数可以同时过滤tag的多个属性:
           
      1. soup.find_all(href=re.compile("elsie"), id='link1')
      2. # [<a class="sister" href="http://example.com/elsie" id="link1">three</a>]
      复制代码
           在这里我们想用 class 过滤,不外 class 是 python 的关键词,这怎么办?加个下划线就可以
           
      1. print(soup.find_all("a", class_="sister"))
      2. '''
      3. [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>,
      4. <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>,
      5. <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>
      6. ]
      7. '''
      复制代码
           通过 find_all() 方法的 attrs 参数界说一个字典参数来搜索包罗特殊属性的tag:
           
      1. data_soup.find_all(attrs={"data-foo": "value"})
      2. # [<div data-foo="value">foo!</div>]
      复制代码
           注意:怎样查看条件id和class同时存在时的写法
           
      1. print(soup.find_all('b', class_="story", id="x"))
      2. print(soup.find_all('b', attrs={"class":"story", "id":"x"}))
      复制代码

      • text 参数
      通过 text 参数可以搜搜文档中的字符串内容.与 name 参数的可选值一样, text 参数接受 字符串 , 正则表达式 , 列表, True
      1. import re
      2. print(soup.find_all(text="Elsie"))
      3. # ['Elsie']
      4. print(soup.find_all(text=["Tillie", "Elsie", "Lacie"]))
      5. # ['Elsie', 'Lacie', 'Tillie']
      6. # 只要包含Dormouse就可以
      7. print(soup.find_all(text=re.compile("Dormouse")))
      8. # ["The Dormouse's story", "The Dormouse's story"]
      复制代码
         

      • limit 参数
      find_all() 方法返回全部的搜索布局,如果文档树很大那么搜索会很慢.如果我们不需要全部结果,可以利用 limit 参数限定返回结果的数目.结果与SQL中的limit关键字类似,当搜索到的结果数目到达 limit 的限定时,就制止搜索返回结果.
      1. print(soup.find_all("a",limit=2))
      2. print(soup.find_all("a")[0:2])
      3. '''
      4. [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>,
      5. <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>]
      6. '''
      复制代码


   find_all() 方法搜索当前tag的全部tag子节点,并判断是否符合过滤器的条件:
  1. soup.find_all("title")
  2. # [<title>The Dormouse's story</title>]
  3. soup.find_all("p", "title")# [<p class="title"><b>The Dormouse's story</b></p>]soup.find_all("a")# [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>,#  <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>,#  <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>]soup.find_all(id="link2")# [<a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>]import re# 模糊查询 包罗sisters的就可以soup.find(string=re.compile("sisters"))# 'Once upon a time there were three little sisters; and their names were\n'
复制代码
find函数

  
  1. find(name , attrs , recursive , string , **kwargs )
复制代码
find_all() 方法将返回文档中符合条件的全部tag,尽管偶然间我们只想得到一个结果.比如文档中只有一个<body>标签,那么利用 find_all() 方法来查找<body>标签就不太合适, 利用 find_all 方法并设置 limit=1 参数不如直接利用 find() 方法.下面两行代码是等价的:
  1. soup.find_all('title', limit=1)
  2. # [<title>The Dormouse's story</title>]
  3. soup.find('title')
  4. # <title>The Dormouse's story</title>
复制代码
唯一的区别是 find_all() 方法的返回结果是值包罗一个元素的列表,而 find() 方法直接返回结果.
  find_all() 方法没有找到目标是返回空列表, find() 方法找不到目标时,返回 None .
  1. print(soup.find("nosuchtag"))
  2. # None
复制代码
soup.head.title 是 tag的名字 方法的简写.这个简写的原理就是多次调用当前tag的 find() 方法:
  1. soup.head.title
  2. # <title>The Dormouse's story</title>
  3. soup.find("head").find("title")
  4. # <title>The Dormouse's story</title>
复制代码
find_parents() 和 find_parent()

  1. a_string = soup.find(text="Lacie")
  2. print(a_string)  # Lacie
  3. print(a_string.find_parent())
  4. # <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>
  5. print(a_string.find_parents())
  6. print(a_string.find_parent("p"))
  7. '''
  8. <p class="story">
  9.     Once upon a time there were three little sisters; and their names were
  10.     <a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>,
  11.     <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a> and
  12.     <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>;
  13.     and they lived at the bottom of a well.
  14. </p>
  15. '''
复制代码
beautifulsoup的css选择器

我们在写 CSS 时,标签名不加任何修饰,类名前加点,id名前加 #,在这里我们也可以利用类似的方法来筛选元素,用到的方法是 soup.select(),返回类型是 list
通过标签名查找

  1. print(soup.select("title"))  #[<title>The Dormouse's story</title>]
  2. print(soup.select("b"))      #[<b>The Dormouse's story</b>]
复制代码
通过类名查找

  1. print(soup.select(".sister"))
  2. '''
  3. [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>,
  4. <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>,
  5. <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>]
  6. '''
复制代码
id名查找

  1. print(soup.select("#link1"))
  2. # [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>]
复制代码
组合查找

组合查找即和写 class 文件时,标签名与类名、id名举行的组合原理是一样的,例如查找 p 标签中,id 即是 link1的内容,二者需要用空格分开
  1. print(soup.select("p #link2"))
  2. #[<a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>]
复制代码
直接子标签查找
  1. print(soup.select("p > #link2"))
  2. # [<a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>]
复制代码
查找既有class也有id选择器的标签
  1. a_string = soup.select(".story#test")
复制代码
查找有多个class选择器的标签
  1. a_string = soup.select(".story.test")
复制代码
查找有多个class选择器和一个id选择器的标签
  1. a_string = soup.select(".story.test#book")
复制代码
属性查找

查找时还可以参加属性元素,属性需要用中括号括起来,注意属性和标签属于同一节点,以是中央不能加空格,否则会无法匹配到。
  1. print(soup.select("a[href='http://example.com/tillie']"))
  2. #[<a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>]
复制代码
select 方法返回的结果都是列表情势,可以遍历情势输出,然后用 get_text() 方法来获取它的内容:
  1. for title in soup.select('a'):
  2.     print (title.get_text())
  3. '''
  4. Elsie
  5. Lacie
  6. Tillie
  7. '''
复制代码
3.Html格式数据提取之XPATH



  • 安装

    • 安装lxml库
      pip install lxml
      -i pip源

解析流程与利用

解析流程


  • 实例化一个etree的对象,把即将被解析的页面源码加载到该对象
  • 调用该对象的xpath方法结合着不怜悯势的xpath表达举行标签定位和数据提取
利用
   

  • 导入lxml.etree
    from lxml import etree
  • etree.parse()
    解析当地html文件
    html_tree = etree.parse(‘XX.html’)
  • etree.HTML()(发起)
    解析网络的html字符串
    html_tree = etree.HTML(html字符串)
  • html_tree.xpath()
    利用xpath路径查询信息,返回一个列表
  注意:如果lxml解析当地HTML文件报错可以安装如下添加参数
  1. parser = etree.HTMLParser(encoding="utf-8")
  2. selector = etree.parse('./lol_1.html',parser=parser)
  3. result=etree.tostring(selector)
复制代码
xpath语法

   XPath 是一门在 XML 文档中查找信息的语言。XPath 用于在 XML 文档中通过元素和属性举行导航。
  路径表达式

   表达式描述/从根节点选取。//从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置。./当前节点再次举行xpath@选取属性。  实例
  在下面的表格中,我们已列出了一些路径表达式以及表达式的结果:
  路径表达式结果/html选取根元素 bookstore。注释:如果路径起始于正斜杠( / ),则此路径始终代表到某元素的绝对路径!//li选取全部li 子元素,而不管它们在文档中的位置。//ul//a选择属于 ul元素的后代的全部 li元素,而不管它们位于 ul之下的什么位置。节点对象.xpath(‘./div’)选择当前节点对象里面的第一个div节点//@href选取名为 href 的全下属性。  谓语(Predicates)

   谓语用来查找某个特定的节点或者包罗某个指定的值的节点。
  谓语被嵌在方括号中。
  实例
  在下面的表格中,我们列出了带有谓语的一些路径表达式,以及表达式的结果:
  路径表达式结果/ul/li[1]选取属于 ul子元素的第一个 li元素。/ul/li[last()]选取属于 ul子元素的末了一个 li元素。/ul/li[last()-1]选取属于 ul子元素的倒数第二个 li元素。//ul/li[position()❤️]选取最前面的两个属于 ul元素的子元素的 li元素。//a[@title]选取全部拥有名为 title的属性的 a元素。//a[@title=‘xx’]选取全部 a元素,且这些元素拥有值为 xx的 title属性。//a[@title>10] > < >= <= !=选取 a元素的全部 title元素,且其中的 title元素的值须大于 10。/bookstore/book[price>35.00]/title选取 bookstore 元素中的 book 元素的全部 title 元素,且其中的 price 元素的值须大于 35.00。  属性查询
  

  • 查找全部包罗id属性的div节点
  1. //div[@id]
复制代码


  • 查找全部id属性即是maincontent的div标签
  1. //div[@id="maincontent"]
复制代码


  • 查找全部的class属性
  1. //@class
复制代码


  • //@attrName
  1. //li[@name="xx"]//text()  # 获取li标签name为xx的里面的文本内容
复制代码
获取第几个标签 索引从1开始
  1. tree.xpath('//li[1]/a/text()')  # 获取第一个
  2. tree.xpath('//li[last()]/a/text()')  # 获取最后一个
  3. tree.xpath('//li[last()-1]/a/text()')  # 获取倒数第二个
复制代码
模糊查询
  

  • 查询全部id属性中包罗he的div标签
  1. //div[contains(@id, "he")]
复制代码


  • 查询全部id属性中包以he开头的div标签
  1. //div[starts-with(@id, "he")]
复制代码
内容查询
  查找全部div标签下的直接子节点h1的内容
  1. //div/h1/text()
复制代码
选取未知节点

   XPath 通配符可用来选取未知的 XML 元素。
  通配符描述*匹配任何元素节点。 一般用于欣赏器copy xpath会出现@*匹配任何属性节点。node()匹配任何类型的节点。  实例
  在下面的表格中,我们列出了一些路径表达式,以及这些表达式的结果:
  路径表达式结果/ul/*选取 bookstore 元素的全部子元素。//*选取文档中的全部元素。//title[@*]选取全部带有属性的 title 元素。//node()获取全部节点  选取若干路径

   通过在路径表达式中利用“|”运算符,您可以选取若干个路径。
  实例
  在下面的表格中,我们列出了一些路径表达式,以及这些表达式的结果:
  路径表达式结果//book/title | //book/price选取 book 元素的全部 title 和 price 元素。//title | //price
选取文档中的全部 title 和 price 元素。/bookstore/book/title | //price选取属于 bookstore 元素的 book 元素的全部 title 元素,以及文档中全部的 price 元素。  

  • 逻辑运算

    • 查找全部id属性即是head而且class属性即是s_down的div标签
      1. //div[@id="head" and @class="s_down"]
      复制代码
    • 选取文档中的全部 title 和 price 元素。
      1. //title | //price
      复制代码
      注意: “|”双方必须是完整的xpath路径

  属性值获取

  
  1. //div/a/@href   获取a里面的href属性值
复制代码
获取全部
  1. //*  #获取所有
  2. //*[@class="xx"]  #获取所有class为xx的标签
复制代码
获取节点内容转换成字符串

  1. c = tree.xpath('//li/a')[0]
  2. result=etree.tostring(c, encoding='utf-8')
  3. print(result.decode('UTF-8'))
复制代码
4.提取数据之正则

   概述: 正则表达式,又称规则表达式
  正则表达式(regular expression)描述了一种字符串匹配的模式(pattern)
  正则匹配是一个 模糊的匹配(不是准确匹配)
  re:python自1.5版本开始增长了re模块,该模块提供了perl风格的正则表达式模式,re模块是python语言拥有了全部正则表达式的功能


  • 如下四个方法经常利用

    • match()
    • search()
    • findall()
    • finditer()

匹配单个字符与数字

匹配阐明.匹配除换行符以外的任意字符,当flags被设置为re.S时,可以匹配包罗换行符以内的全部字符[]里面是字符聚集,匹配[]里任意一个字符[0123456789]匹配任意一个数字字符[0-9]匹配任意一个数字字符[a-z]匹配任意一个小写英笔墨母字符[A-Z]匹配任意一个大写英笔墨母字符[A-Za-z]匹配任意一个英笔墨母字符[A-Za-z0-9]匹配任意一个数字或英笔墨母字符[^magician][]里的^称为脱字符,表示非,匹配不在[]内的任意一个字符^[magician] 以[]中内的某一个字符作为开头\d匹配任意一个数字字符,相当于[0-9]\D匹配任意一个非数字字符,相当于[^0-9]\w匹配字母、下划线、数字中的任意一个字符,相当于[0-9A-Za-z_]\W匹配非字母、下划线、数字中的任意一个字符,相当于[^0-9A-Za-z_]\s匹配空白符(空格、换页、换行、回车、制表),相当于[ \f\n\r\t]\S匹配非空白符(空格、换页、换行、回车、制表),相当于[^ \f\n\r\t] 匹配锚字符

锚字符:用来判断是否按照规定开始或者结尾
匹配阐明^行首匹配,和[]里的^不是一个意思$行尾匹配\A匹配字符串的开始,和^的区别是\A只匹配整个字符串的开头,即使在re.M模式下也不会匹配其他行的行首\Z匹配字符串的结尾,和$的区别是\Z只匹配整个字符串的结尾,即使在re.M模式下也不会匹配其他行的行尾 限定符

限定符用来指定正则表达式的一个给定组件必须要出现多少次才气满足匹配。有 * 或 + 或 ? 或 {n} 或 {n,} 或 {n,m} 共6种。
匹配阐明(xyz)匹配括号内的xyz,作为一个整体去匹配 一个单元 子存储x?匹配0个或者1个x,非贪心匹配x*匹配0个或任意多个xx+匹配至少一个xx{n}确定匹配n个x,n是非负数x{n,}至少匹配n个xx{n,m}匹配至少n个最多m个xx|y|表示或的意思,匹配x或y 通用flags(修正符)
修正符



  • 作用
    对正则举行修正
  • 利用
    search/match/findall/sub/subn/finditer 等函数 flags参数的利用
  • 修正符
    re.I 不区分巨细写匹配
    re.M 多行匹配 影响到^ 和 $ 的功能
    re.S 使.可以匹配换行符 匹配任意字符
  • 利用
    re.I
    1. print(re.findall('[a-z]','AaBb'))
    2. print(re.findall('[a-z]','AaBb', flags=re.I))
    复制代码
    re.M(现实)
    1. myStr = """asadasdd1\nbsadasdd2\ncsadasdd3"""
    2. print(re.findall('^[a-z]',myStr, ))
    3. print(re.findall('\A[a-z]',myStr))
    4. print(re.findall('\d$',myStr))
    5. print(re.findall('\d\Z',myStr))
    6. # re.M
    7. print(re.findall('^[a-z]',myStr, flags=re.M))
    8. print(re.findall('\A[a-z]',myStr, flags=re.M))
    9. print(re.findall('\d$',myStr, flags=re.M))
    10. print(re.findall('\d\Z',myStr, flags=re.M))
    复制代码
    re.S
    1. print(re.findall('<b>.*?</b>','<b>b标签</b>'))
    2. print(re.findall('<b>.*?</b>','<b>b标\n签</b>', flags=re.S))
    复制代码
通用函数


  • 获取匹配结果

    • 利用group()方法 获取到匹配的值
    • groups()  返回一个包罗全部小组字符串的元组(也就是自存储的值),从 1 到 所含的小组号。

re模块中常用函数

match()函数

   

  • 原型
    1. def match(pattern, string, flags=0)
    复制代码
  • 参数
        参数阐明pattern匹配的正则表达式(一种字符串的模式)string要匹配的字符串flags标识位,用于控制正则表达式的匹配方式
  • 功能
    匹配成功返回 匹配的对象
    匹配失败 返回 None
  

  • 获取匹配结果

    • 利用group()方法 获取到匹配的值
    • groups() 返回一个包罗全部小组字符串的元组,从 1 到 所含的小组号。

  • 注意:从第一位开始匹配 只匹配一次
  • 示例:

      1. import re
      2.                                 
      3. res = re.match('\d{2}','123')
      4. print(res.group())
      5. print(res.span())
      6.                                 
      7. #给当前匹配到的结果起别名
      8. s = '3G4HFD567'
      9. re.match("(?P<value>\d+)",s)
      10. print(x.group(0))
      11. print(x.group('value'))
      复制代码
      1. import re  # 导入re正则模块
      2. # match  只匹配一次  必须从第一位开始 类似于 search("^")
      3. # print(re.match("a", '123456'))
      4. # print(re.match("[a-z]", '123456'))
      5. # print(re.match("[a-z]", '123x456'))
      6. # print(re.search("[a-z]", '123x456'))
      7. # print(re.match("[a-z][a-z]", '123x456'))
      8. # print(re.search("[a-z][a-z]", '123ab456'))
      9. # print(re.search("[a-z][a-z]", '123ax456b'))
      10. # print(re.search("1[3-9][0-9]{9}", '15611833906'))
      11. # print(re.search("1[3-9][0-9]{9}", '15611833906a'))  # 包含 也就是字符串中包含我要的则为成功
      12. # print(re.match("1[3-9][0-9]{9}", 'x15611833906a'))  # 包含 也就是字符串中包含我要的则为成功
      13. # print(re.search("^1[3-9][0-9]{9}", 'x15611833906a'))
      14. # print(re.search("^1[3-9][0-9]{9}", '15611833906a'))
      15. # 获取匹配的内容
      16. # print(re.match("1[3-9][0-9]{9}$", '15611833906').group())  # 完全匹配
      17. # 等同于下方
      18. # print(re.search("^1[3-9][0-9]{9}$", '15611833906').group())  # 完全匹配
      19. print(re.search("^1[3-9][0-9]{9}$", 'a15611833906').group())  # 完全匹配
      20. # AttributeError: 'NoneType' object has no attribute 'group'
      复制代码

  search()函数

   

  • 原型
    1. def search(pattern, string, flags=0)
    复制代码
  • 参数
        参数阐明pattern匹配的正则表达式(一种字符串的模式)string要匹配的字符串flags标识位,用于控制正则表达式的匹配方式
  • 功能
    扫描整个字符串string,并返回第一个pattern模式成功的匹配
    匹配失败 返回 None
  • 注意:
    只要字符串包罗就可以
    只匹配一次
  • 示例
    1. import re  # 导入re正则模块
    2. # search  只匹配一次
    3. # print(re.search("a", '123456'))
    4. # print(re.search("[a-z]", '123456'))
    5. # print(re.search("[a-z]", '123x456'))
    6. # print(re.search("[a-z][a-z]", '123x456'))
    7. # print(re.search("[a-z][a-z]", '123ab456'))
    8. # print(re.search("[a-z][a-z]", '123ax456b'))
    9. # print(re.search("1[3-9][0-9]{9}", '15611833906'))
    10. # print(re.search("1[3-9][0-9]{9}", '15611833906a'))  # 包含 也就是字符串中包含我要的则为成功
    11. # print(re.search("1[3-9][0-9]{9}", 'x15611833906a'))  # 包含 也就是字符串中包含我要的则为成功
    12. # print(re.search("^1[3-9][0-9]{9}", 'x15611833906a'))
    13. # print(re.search("^1[3-9][0-9]{9}", '15611833906a'))
    14. # print(re.search("^1[3-9][0-9]{9}$", '15611833906a'))  # 完全匹配
    15. # print(re.search("^1[3-9][0-9]{9}$", '15611833906'))  # 完全匹配
    16. # print(re.search("^1[3-9][0-9]{9}$", '1561183390'))  # 完全匹配
    17.                
    18. # 获取匹配的内容
    19. # print(re.search("^1[3-9][0-9]{9}$", '15611833906').group())  # 完全匹配
    复制代码
  

  • 注意
    与match的区别
    雷同点:
    都只匹配一次
    不同点:

    • search是在要匹配的字符串中 包罗正则表达式的内容就可以
    • match 必须第一位就开始匹配 否则匹配失败

  findall()函数(返回列表)

   

  • 原型
    1. def findall(pattern, string, flags=0)
    复制代码
  • 参数
        参数阐明pattern匹配的正则表达式(一种字符串的模式)string要匹配的字符串flags标识位,用于控制正则表达式的匹配方式
  • 功能
    扫描整个字符串string,并返回全部匹配的pattern模式结果的字符串列表
  • 示例

      1.                                 
      2. myStr = """
      3. <a href="http://www.baidu.com">百度</a>
      4. <A href="http://www.taobao.com">淘宝</A>
      5. <a href="http://www.id97.com">电
      6. 影网站</a>
      7. <i>我是倾斜1</i>
      8. <i>我是倾斜2</i>
      9. <em>我是倾斜2</em>
      10. """
      11. # html里是不区分大小写
      12. # (1)给正则里面匹配的 加上圆括号 会将括号里面的内容进行 单独的返回
      13. res = re.findall("(<a href="http://www\.(.*?)\.com">(.*?)</a>)",myStr) #[('<a href="http://www.baidu.com">百度</a>', 'baidu', '百度')]
      14.                                 
      15. # 括号的区别
      16. res = re.findall("<a href="http://www\..*?\.com">.*?</a>",myStr) #['<a href="http://www.baidu.com">百度</a>']
      17.                                 
      18. #(2) 不区分大小写的匹配
      19. res = re.findall("<a href="http://www\..*?\.com">.*?</a>",myStr,re.I) #['<a href="http://www.baidu.com">百度</a>', '<A href="http://www.taobao.com">淘宝</A>']
      20. res = re.findall("<[aA] href="http://www\..*?\.com">.*?</[aA]>",myStr) #['<a href="http://www.baidu.com">百度</a>']
      21. # (3) 使.支持换行匹配
      22. res = re.findall("<a href="http://www\..*?\.com">.*?</a>",myStr,re.S) #
      23.                                 
      24. # (4) 支持换行 支持不区分大小写匹配
      25. res = re.findall("<a href="http://www\..*?\.com">.*?</a>",myStr,re.S|re.I) #
      26.                                 
      27. print(res)
      复制代码

  finditer()函数

   

  • 原型
    1. def finditer(pattern, string, flags=0)
    复制代码
  • 参数
        参数阐明pattern匹配的正则表达式(一种字符串的模式)string要匹配的字符串flags标识位,用于控制正则表达式的匹配方式
  • 功能
    与findall()类似,返回一个迭代器
  • 代码

      1. import re
      2.                                 
      3. res = re.finditer('\w', '12hsakda1')
      4. print(res)
      5. print(next(res))
      6.                                 
      7. for i in res:
      8.     print(i)
      复制代码

  split()函数

   

  • 作用:切割字符串
  • 原型:
    1. def split(patter, string, maxsplit=0, flags=0)
    复制代码
  • 参数
    pattern 正则表达式
    string 要拆分的字符串
    maxsplit 最大拆分次数 默认拆分全部
    flags  修正符
  • 示例

      1. import re
      2. myStr = "asdas\rd&a\ts12d\n*a3sd@a_1sd"
      3. #通过特殊字符 对其进行拆分 成列表
      4. res = re.split("[^a-z]",myStr)
      5. res = re.split("\W",myStr)
      复制代码

  贪心与非贪心



  • 贪心模式
    贪心概念:匹配尽大概多的字符

    • .+ 匹配换行符以外的字符至少一次
    • .*  匹配换行符以外的字符任意次
    实例
    1. res = re.search('<b>.+</b>', '<b></b><b>b标签</b>')
    2. res = re.search('<b>.*</b>', '<b>b标签</b><b>b标签</b><b>b标签</b><b>b标签</b>')
    复制代码

  • 非贪心模式
    非贪心概念:尽大概少的匹配称为非贪心匹配,*?、+?即可
  • .+?  匹配换行符以外的字符至少一次 拒绝贪心

    • .*?  匹配换行符以外的字符任意次 拒绝贪心
    实例
    1. res = re.search('<b>.+?</b>', '<b>b标签</b><b>b标签</b>')
    2. res = re.search('<b>.*?</b>', '<b>b标签</b><b>b标签</b><b>b标签</b><b>b标签</b>')
    复制代码

编译



  • 概念
    当在python中利用正则表达式时,re模块会做两件事,一件是编译正则表达式,如果表达式的字符串本身不正当,会报错。另一件是用编译好的正则表达式提取匹配字符串
  • 编译优点
    如果一个正则表达式要利用几千遍,每一次都会编译,出于效率的考虑举行正则表达式的编译,就不需要每次都编译了,节省了编译的时间,从而提升效率
  • compile()函数

    • 原型
      1. def compile(pattern, flags=0)
      复制代码
    • 作用
      将pattern模式编译成正则对象
    • 参数
           参数阐明pattern匹配的正则表达式(一种字符串的模式)flags标识位,用于控制正则表达式的匹配方式
    • flags
           值阐明re.I是匹配对巨细写不敏感re.M多行匹配,影响到^和$re.S使.匹配包括换行符在内的全部字符
    • 返回值
      编译好的正则对象
    • 示例
      1. import re
      2. re_phone = re.compile(r"(0\d{2,3}-\d{7,8})")
      3. print(re_phone, type(re_phone))
      复制代码
    • 编译后其他方法的利用
      原型
    1. def match(self, string, pos=0, endpos=-1)
    2. def search(self, string, pos=0, endpos=-1)
    3. def findall(self, string, pos=0, endpos=-1)
    4. def finditer(self, string, pos=0, endpos=-1)
    复制代码
    ​ 参数
       参数阐明string待匹配的字符串pos从string字符串pos下标开始endpos结束下标​ 示例
    1. s1 = "lucky's phone is 010-88888888"
    2. s2 = "kaige's phone is 010-99999999"
    3. ret1 = re_phone.search(s1)
    4. print(ret1, ret1.group(1))
    5. ret2 = re_phone.search(s2)
    6. print(ret2, ret2.group(1))
    复制代码

练习

练习1.提取手机号与邮箱

  
  1. import re
  2. myStr = """
  3.         caoxigang@baidu.html
  4. 曹 艳        Caoyan        6895        13811661805        caoyan@baidu.html
  5. 曹 宇        Yu Cao        8366        13911404565        caoyu@baidu.html
  6. 曹 越        Shirley Cao        6519        13683604090        caoyue@baidu.html
  7. 曹 政        Cao Zheng        8290        13718160690        caozheng@baidu.html
  8. 查玲莉        Zha Lingli        6259        13552551952        zhalingli@baidu.html
  9. 查 杉        Zha Shan        8580        13811691291        zhashan@baidu.html
  10. 查 宇        Rachel        8825        13341012971        zhayu@baidu.html
  11. 柴桥子        John        6262        13141498105        chaiqiaozi@baidu.html
  12. 常丽莉        lily        6190        13661003657        changlili@baidu.html
  13. 车承轩        Che Chengxuan        6358        13810729040        chechengxuan@baidu.html
  14. 陈 洁        Che        13811696984        chenxi_cs@baidu.html
  15. 陈 超        allen        8391        13810707562        chenchao@baidu.html
  16. 陈朝辉                13714189826        chenchaohui@baidu.html
  17. 陈 辰        Chen Chen        6729        13126735289        chenchen_qa@baidu.html
  18. 陈 枫        windy        8361        13601365213        chenfeng@baidu.html
  19. 陈海腾        Chen Haiteng        8684        13911884480        chenhaiteng@baidu.html
  20. 陈 红        Hebe        8614        13581610652        chenhong@baidu.html
  21. 陈后猛        Chen Houmeng        8238        13811753474        chenhoumeng@baidu.html
  22. 陈健军        Chen Jianjun        8692        13910828583        chenjianjun@baidu.html
  23. 陈 景        Chen Jing        6227        13366069932        chenjing@baidu.html
  24. 陈竞凯        Chen Jingkai        6511        13911087971        jchen@baidu.html
  25. 陈 坤        Isa13810136756        chenlei@baidu.html
  26. 陈 林        Lin Chen        6828        13520364278        chenlin@qq.com
  27. """
  28. #匹配 手机号
  29. print(re.findall('\d{11}',myStr))
  30. #匹配 邮箱
  31. print(re.findall('\w+@\w+\.\w+',myStr))
  32. # (1) 手机号
  33. # res = re.findall("[1][3-8]\d{9}",myStr)
  34. #(2)邮箱
  35. # res = re.findall("\w+@.+\.\w+",myStr)
  36. # print(res)   
复制代码
练习2 匹配出 2016/06/17格式的年代日

  
  1. import re
  2. myStr = """
  3. 124528        男        14年        2012年5月以前        路人(0)        2017/02/21
  4. 2
  5. 顺便签约客服
  6. 940064306        男        9年        2016/07/12        宗师(1285)        2017/06/26
  7. 3
  8. 世间尽是妖魔鬼怪"(oДo*)
  9. 90年代的新一辈_
  10. 1193887909        男        7年        2016/10/17        宗师(1084)        2017/06/26
  11. 4
  12. 萧十三楼
  13. 905519160        男        9年        2016/07/08        宗师(972)        2017/06/24
  14. 5
  15. 石头哥
  16. 北京-php-石头
  17. 2669288101        男        2年        2016/06/17        宗师(772)        2017/06/23
  18. 6
  19.        缄默。
  20. 1393144035        未知        7年        2016/10/08        宗师(754)        2017/06/25
  21. """
  22. print(re.findall('\d+/\d+/\d+', myStr))
  23. #老师答案:
  24. res = re.findall("[0-9]{4}/[0-9]{2}/[0-9]{2}",myStr)
  25. #1 匹配所有正常的年  7年  9年
  26. #匹配出 2016/06/17格式的年月日
  27. # res = re.findall("\t(\d{1,2}年)",myStr)
  28. # res = re.findall("[0-9]{4}/[0-9]{2}/[0-9]{2}",myStr)
  29. # res = re.findall("\d{4}/\d{2}/\d{2}",myStr)
复制代码
练习3 正则匹配全部标题

  1. import re
  2. # 读取数据
  3. f = open('豆瓣.html','r',encoding='utf-8')
  4. data = f.read()
  5. f.close()
  6. """
  7. <a href="https://book.douban.com/subject/27104959/">离开的,留下的</a>
  8. <a href="https://book.douban.com/subject/26961102/">灵契</a>
  9. <a href="https://book.douban.com/subject/27054039/">寓言</a>
  10. <a href="https://book.douban.com/subject/27139971/">高难度对话:如何与挑剔的人愉快相处</a>
  11. """
  12. # 正则匹配所有标题
  13. pattern = re.compile('<a href="https://book.douban.com/subject/\d+/">(.*?)</a>')
  14. titleList = pattern.findall(data)
  15. print(titleList)
  16. for i in pattern.finditer(data):
  17.     print(i.groups()[0])
复制代码
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

前进之路

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表