爬虫入门urllib 和 request (一)

打印 上一主题 下一主题

主题 562|帖子 562|积分 1686

前言

在开始进行爬虫的知识之前,我们需要明白web网页是怎么工作的?浏览器工具是怎么使用的?反爬虫的手段手段是那些?
一.web请责备过程剖析

我们浏览器在输入完网址到我们看到网页的团体内容, 这个过程中究竟发生了些什么?
我们看一下一个浏览器请求的全过程


这里还要先容几个概念
浏览器输入的路径


页面渲染过程的过程

1. 服务器渲染, 你需要的数据直接在页面源代码里能搜到


由于数据是直接写在html中的, 所以我们能看到的数据都在页面源代码中能找的到的.
这种网页一般都相对比较轻易就能抓取到页面内容.
2.前端JS渲染, 你需要的数据在页面源代码里搜不到

这种就稍显麻烦了. 这种机制一般是第一次请求服务器返回一堆HTML框架结构. 然后再次请求到真正保存数据的服务器, 由这个服务器返回数据, 末了在浏览器上对数据进行加载. 就像如许:

代码示例:
  1. <!DOCTYPE html>
  2. <html lang="en">
  3. <head>
  4.     <meta charset="UTF-8">
  5.     <title>案例:动态渲染页面</title>
  6.     <style>
  7.         table{
  8.             width: 300px;
  9.             text-align: center;
  10.         }
  11.     </style>
  12. </head>
  13. <body>
  14.     <table border="1" cellspacing="0">
  15.         <thead>
  16.             <tr>
  17.                 <th>ID</th>
  18.                 <th>姓名</th>
  19.                 <th>年龄</th>
  20.             </tr>
  21.         </thead>
  22.         <tbody>
  23.         <!--        js渲染-->
  24.         </tbody>
  25.     </table>
  26.     <script>
  27.         //提前准备好的数据
  28.         var users = [
  29.             {id: 1, name: '张三', age: 18},
  30.             {id: 2, name: '李四', age: 28},
  31.             {id: 3, name: '王麻子', age: 38}
  32.         ]
  33.         //获取tbody标签
  34.         var tbody = document.querySelector('tbody')
  35.         //1.循环遍历users数据
  36.         users.forEach(function (item) {
  37.             //这里的item 就是数组中的每一个对象
  38.             console.log(item)
  39.             //2. 每一个对象生成一个tr标签
  40.             var tr = document.createElement('tr')
  41.             //循环遍历item
  42.             for(var key in item){
  43.                 //生成td标签
  44.                 var td = document.createElement('td')
  45.                 td.innerHTML = item[key]
  46.                 //5.把td 插入到tr内部
  47.                 tr.appendChild(td)
  48.             }
  49.             //把本次的tr插入到tbody的内部
  50.             tbody.appendChild(tr)
  51.         })
  52.     </script>
  53. </body>
  54. </html>
复制代码
如许做的利益是服务器那边能缓解压力. 而且分工明确. 比较轻易维护. 典型的有这么一个网页

那数据是何时加载进来的呢? 其实就是在我们进行页面向下滚动的时间, jd就在偷偷的加载数据了, 此时想要看到这个页面的加载全过程, 我们就需要借助浏览器的调试工具了(F12)


看到了吧, 页面上看到的内容其实是后加载进来的.
也不是说这两种方式有什么差别, 只是想告诉各位, 有些时间, 我们的数据不肯定都是直接来自于页面源代码. 如果你在页面源代码中找不到你要的数据时, 那很可能数据是存放在另一个请求里.
  1. 1.你要的东西在页面源代码. 直接拿`源代码`提取数据即可
  2. 2.你要的东西,不在页面源代码, 需要想办法找到真正的加载数据的那个请求. 然后提取数据
复制代码
二.浏览器工具的使用

Chrome是一款非常良好的浏览器. 不但仅体现在用户使用上. 对于我们开发职员而言也黑白常非常好用的.
对于一名爬虫工程师而言. 浏览器是最能直观的看到网页情况以及网页加载内容的地方. 我们可以按下F12来查看一些平常用户很少能使用到的工具.

此中, 最紧张的Elements, Console, Sources, Network…


  • Elements是我们实时的网页内容情况, 注意, 许多兄弟尤其到了后期. 非常轻易肴杂Elements以及页面源代码之间的关系.
   注意,
  

  • 页面源代码是实行js脚本以及用户操作之前的服务器返回给我们最原始的内容
  • Elements中看到的内容是js脚本以及用户操作之后的当时的页面表现效果.
  你可以明白为, 一个是老师批改之前的卷子, 一个是老师批改之后的卷子. 虽然都是卷子. 但是内容是不一样的. 而我们目前能够拿到的都是页面源代码. 也就是老师批改之前的样子. 这一点要格外注意.
在Elements中我们可以使用左上角的小箭头.可以直观的看到浏览器中每一块位置对应的当前html状况. 照旧很贴心的.



  • 第二个窗口, Console是用来查看程序员留下的一些打印内容, 以及日记内容的. 我们可以在这里输入一些js代码自动实行.

  • 第三个窗口, Source, 这里能看到该网页打开时加载的全部内容. 包罗页面源代码. 脚本. 样式, 图片等等全部内容.

  • 第四个窗口, Network, 我们一般习惯称呼它为抓包工具. 在这里, 我们能看到当前网页加载的全部网路网络请求, 以及请求的详细内容. 这一点对我们爬虫来说至关紧张.




三.反爬虫的一般手段

爬虫项目最复杂的不是页面信息的提取,反而是爬虫与反爬虫、反反爬虫的博弈过程


  • User-Agent
    浏览器的标志信息,会通过请求头转达给服务器,用以阐明访问数据的浏览器信息
    反爬虫:先检查是否有UA,或者UA是否正当
  • 代理IP
  • 验证码访问
  • 动态加载网页
  • 数据加密
四.常用HTTPP状态码



  • 200:这个是最常见的http状态码,表现服务器已经乐成继承请求,并将返回客户端所请
  • 100-199 用于指定客户端应相应的某些动作。
  • 200-299 用于表现请求乐成。
  • 300-399 用于已经移动的文件而且常被包罗在定位头信息中指定新的地址信息。
  • 400-499 用于指出客户端的错误。

    • 404:请求失败,客户端请求的资源没有找到或者是不存在

  • 500-599 服务器碰到未知的错误,导致无法完成客户端当前的请求。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

去皮卡多

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表