HTTP基本原理

本节我们会详细了解 HTTP 的基本原理,了解从往浏览器中输入 URL 到获取网页内容之间都发生了什么。了解这些内容有助于我们进一步了解爬虫的基本原理。

URI 和 URL

我们先了解一下 URI 和 URL。URI 的全称为 Uniform Resource Identifier,即统一资源标志符;URL 的全称为 Universal Resource Locator,即统一资源定位符。它们是什么意思呢?举例来说,https://github.com/favicon.ico 既是一个 URI,也是一个 URL。即有 favicon.ico 这样一个图标资源,我们用上一行中的 URI/URL 指定了访问它的唯一方式,其中包括访问协议 https、访问路径(即根目录)和资源名称。通过一个链接,便可以从互联网中找到某个资源,这个链接就是 URI/URL。

URL 是 URI 的子集,也就是说每个 URL 都是 URI,但并非每个 URI 都是 URL。那么,怎样的 URI 不是 URL 呢?除了 URL,URI 还包括一个子类,叫作URN,其全称为 Universal Resource Name,即统一资源名称。URN 只为资源命名而不指定如何定位资源,例如 urn:isbn:0451450523 指定了一本书的 ISBN,可以唯一标识这本书,但没有指定到哪里获取这本书,这就是 URN。URL、URN和URI的关系可以用图 1-1 表示。

图1-1 URL、URN和URI关系图

在目前的互联网中,URN 使用得非常少,几乎所有的 URI 都是 URL,所以对于一般的网页链接,我们既可以称之为 URL,也可以称之为 URI,我个人习惯称 URL。

但 URL 也不是随便写的,它也是需要遵循一定格式规范的,基本的组成格式如下:

scheme://[usrname:password@]hostname[:port][/path][;parameters][?query][#fragment]

其中,中括号包括的内容代表非必要部分,比如 https://www.baidu.com 这个 URL,这里就只包含了 scheme 和 hostname 两部分,没有 port、path、parameters、query、fragment。这里我们分别介绍一下几部分代表的含义和作用。

  • scheme:协议。常用的协议有 http、https、ftp 等,另外 scheme 也被常称作 protocol,二者都代表协议的意思。

  • username、password:用户名和密码。在某些情况下 URL 需要提供用户名和密码才能访问,这时候可以把用户名和密码放在 host 前面。比如 https://ssr3.scrape.center 这个 URL 需要用户名和密码才能访问,直接写为 https://admin:admin@ssr3.scmpe.center 则可以直接访问。

  • hostname:主机地址。可以是域名或 IP 地址,比如 https://www.baidu.com 这个 URL 中的 hostname 就是 www.baidu.com,这就是百度的二级域名。比如 https://8.8.8.8 这个 URL 中的 hostname 就是 8.8.8.8,它是一个 IP 地址。

  • port:端口。这是服务器设定的服务端口,比如 https://8.8.8.8:12345 这个 URL 中的端口就是 12345。但是有些 URL 中没有端口信息,这是使用了默认的端口。http 协议的默认端口是 80,https 协议的默认端口是 443。所以 https://www.baidu.com 其实相当于 https://www.baidu.com:443,而 http://www.baidu.com 其实相当于 http://www.baidu.com:80。

  • path:路径。指的是网络资源在服务器中的指定地址,比如 https://github.com/favicon.ico 中的 path 就是 favicon.ico,指的是访问 GitHub 根目录下的 favicon.ico。

  • parameters:参数。用来指定访问某个资源时的附加信息,比如 https://8.8.8.8:12345/hello;user 中的 user 就是 parameters。但是 parameters 现在用得很少,所以目前很多人会把该参数后面的 query 部分称为参数,甚至把 parameters 和 query 混用。严格意义上来说,parameters 是分号(;)后面的内容°

  • query:查询。用来查询某类资源,如果有多个查询,则用 & 隔开。query 其实非常常见,比如 https://www.baidu.com/s?wd=nba&ie=utf8,其中的 query 部分就是 wd=nba&ie=utf-8,这里指定了 wd 是 nba,ie 是 utf-8。由于 query 比刚才所说的 parameters 使用频率高很多,所以平时我们见到的参数、GET请求参数、parameters、params 等称呼多数情况指代的也是 query。

    从严格意义上来说,应该用 query 来表示。

  • fragment:片段。它是对资源描述的部分补充,可以理解为资源内部的书签。目前它有两个主要的应用,一个是用作单页面路由,比如现代前端框架 Vue、React 都可以借助它来做路由管理;另外一个是用作 HTML 锚点,用它可以控制一个页面打开时自动下滑滚动到某个特定的位置。

以上我们简单了解了 URL 的基本概念和构成,后文我们会结合多个实战案例来帮助大家加深理解。

HTTP 和 HTTPS

刚才我们了解了 URL 的基本构成,其支持的协议有很多,比如 http、https、ftp、sftp、smb 等。

在爬虫中,我们抓取的页面通常是基于 http 或 https 协议的,因此这里首先了解一下这两个协议的含义。

HTTP 的全称是 Hypertext Transfer Protocol,中文名为超文本传输协议,其作用是把超文本数据从网络传输到本地测览器,能够保证高效而准确地传输超文本文档。HTTP 是由万维网协会(Word Wide Web Consortium)和Internet 工作小组 IETF(Internet Engineering Task Force)合作制定的规范,目前被人们广泛使用的是 HTTP 1.1 版本,当然,现在也有不少网站支持 HTTP 2.0。

HTTP 的发展历史见表 1-1。

Table 1. 表1-1 HTTP发展史
版本 产生时间 主要特点 发展现状

HTTP 0.9

1991年

不涉及数据包传输,规定客户端和服务器之间的通信格式,只能使用 GET 请求

没有座位正式的标准

HTTP 1.0

1996年

传输内容格式不限制,增加 PUT、PATCH、HEAD、OPTIONS、DELETE命令

正式作为标准

HTTP 1.1

1997年

持久连接(长连接)、节约带宽、HOST域、管道机制、分块传输编码

正式作为标准并广泛使用

HTTP 2.0

2015年

多路复用、服务器推送、头信息压缩、二进制协议等

逐渐覆盖市场

HTTPS 的全称是 Hypertext Transfer Protocol over Secure SocketLayer,是以安全为目标的 HTTP 通道,简单讲就是 HTTP 的安全版,即在 HTTP 下加入 SSL 层,简称 HTTPS。

HTTPS 的安全基础是 SSL,因此通过该协议传输的内容都是经过 SSL 加密的,SSL 的主要作用有以下两种。

  • 建立一个信息安全通道,保证数据传输的安全性。

  • 确认网站的真实性。凡是使用了 HTTPS 协议的网站,都可以通过单击浏览器地址栏的锁头标志来查看网站认证之后的真实信息,此外还可以通过 CA 机构颁发的安全签章来查询。

现在有越来越多的网站和 App 朝着 HTTPS 的方向发展,举例如下。

  • 苹果公司强制所有 iOSApp 在 2017 年 1 月 1 日前全部改为使用 HTTPS加密,否则 App 无法在应用商店上架。

  • 谷歌从 2017 年 1 月推出的 Chrome 56 开始,对未进行 HTTPS 加密的网址亮出风险提示,即在地址栏的显著位置提醒用户 “此网页不安全”。

  • 腾讯微信小程序的官方需求文档要求后台使用 HTTPS 请求进行网络通信,不满足条件的域名和协议无法正常请求。

HTTPS 已然是大势所趋。

HTTP 和 HTTPS 协议都属于计算机网络中的应用层协议,其下层是基于 TCP 协议实现的,TCP 协议属于计算机网络中的传输层协议,包括建立连接时的三次握手和断开时的四次挥手等过程。但本书主要讲的是网络爬虫相关知识,主要爬取的是 HTTP/HTTPS 协议相关的内容,因此这里就不对 TCP、IP 等内容展开深人讲解了,感兴趣的读者可以搜索相关资料了解下,如《计算机网络》、《图解HTTP》等书。

HTTP 请求过程

在测览器地址栏中输人一个 URL,按下回车之后便可观察到对应的页面内容。实际上,这个过程是浏览器先向网站所在的服务器发送一个请求,网站服务器接收到请求后对其进行处理和解析,然后返回对应的响应,接着传回浏览器。由于响应里包含页面的源代码等内容,所以浏览器再对其进行解析,便将网页呈现出来,流程如图 1-2 所示。

图 1-2 流程图

图 1-2 中的客户端代表我们自己的电脑或手机浏览器,服务器就是要访问的网站所在的服务器。

为了更直观地说明上述过程,这里用 Chrome 浏览器开发者模式下的 Network 监听组件来做一下演示。Network 监听组件可以在访问当前请求的网页时,显示产生的所有网络请求和响应。

打开 Chrome 浏览器,访问百度,这时候单击鼠标右键并选择 “检查” 菜单(或者直接按快捷键 F12)即可打开测览器的开发者工具,如图 1-3 所示。

图 1-3 开发者工具界面

我们切换到 Network 面板,然后重新刷新网页,这时候就可以看到在 Network 面板下方出现了很多个条目,其中一个条目就代表一次发送请求和接收响应的过程,如图1-4所示。

图 1-4 Network面板

我们先观察第一个网络请求,即 www.baidu.com,其中各列的含义如下。

  • 第一列 Name:请求的名称。一般会用 URL 的最后一部分内容作为名称。

  • 第二列 Status:响应的状态码。这里显示为 200,代表响应是正常的。通过状态码,我们可以判断发送请求之后是否得到了正常的响应。

  • 第三列 Protocol:请求的协议类型。这里 http/1.1 代表 HTTP1.1 版本,h2 代表 HTTP2.0 版本。

  • 第四列 Type:请求的文档类型。这里为 document,代表我们这次请求的是一个 HTML 文档,内容是一些 HTML 代码。

  • 第五列 Initiator:请求源。用来标记请求是由哪个对象或进程发起的。

  • 第六列 Size:从服务器下载的文件或请求的资源大小。如果资源是从缓存中取得的,则该列会显示 from cache。

  • 第七列 Time:从发起请求到获取响应所花的总时间。

  • 第八列 Waterfall:网络请求的可视化瀑布流。

我们单击这个条目,即可看到其更详细的信息,如图 1-5 所示。

图 1-5 详细信息

首先是 General 部分,其中 RequestURL 为请求的 URL,RequestMethod 为请求的方法,StatusCode 为响应状态码,RemoteAddress 为远程服务器的地址和端口,ReferrerPolicy 为 Referrer 判别策略。

继续往下可以看到 Response Headers 和 Request Headers,分别代表响应头和请求头。请求头中包含许多请求信息,如测览器标识、Cookie、Host 等信息,这些是请求的一部分,服务器会根据请求头里的信息判断请求是否合法,进而做出对应的响应。响应头是响应的一部分,其中包含服务器的类型、文档类型、日期等信息,浏览器在接收到响应后,会对其进行解析,进而呈现网页内容。

请求

请求,英文为 Request,由客户端发往服务器,分为四部分内容:请求方法(Request Method)、请求的网址(Request URL)、请求头(Request Headers)、请求体(Request Body)。下面我们分别予以介绍。

  • 请求方法

请求方法,用于标识请求客户端请求服务端的方式,常见的请求方法有两种:GET 和 POST。

在测览器中直接输入 URL 并回车,便发起了一个 GET 请求,请求的参数会直接包含到 URL 里。例如,在百度搜索引擎中搜索 Python 就是一个 GET 请求,链接为 https://www.baidu.com/s?wd=Python ,其中 URL 中包含了请求的 query 信息,这里的参数 wd 表示要搜寻的关键字。POST 请求大多在提交表单时发起。例如,对于一个登录表单,输入用户名和密码后,单击 “登录” 按钮,这时通常会发起一个 POST 请求,其数据通常以表单的形式传输,而不会体现在 URL 中。

GET 和 POST 请求方法有如下区别。

  • GET 请求中的参数包含在 URL 里面,数据可以在 URL 中看到;而 POST 请求的 URL 不会包含这些数据,数据都是通过表单形式传输的,会包含在请求体中。

  • GET 请求提交的数据最多只有 1024 字节,POST 方式则没有限制。

登录时一般需要提交用户名和密码,其中密码是敏感信息,如果使用 GET 方式请求,密码就会暴露在 URL 里面,造成密码泄露,所以这时候最好以 POST 方式发送。上传文件时,由于文件内容比较大,因此也会选用 POST 方式。

我们平常遇到的绝大部分请求是 GET 或 POST 请求。其实除了这两个,还有一些请求方法,如 HEAD、PUT、DELETE、CONNECT、OPTIONS、TRACE 等,我们简单将请求方法总结为表 1-2。

Table 2. 表 1-2 请求方法
方法 描述

GET

请求页面,并返回页面内容

HEAD

类似于 GET 请求,只不过返回的响应中没有具体内容。用于获取报头

POST

大多用于提交表单或上传文件,数据包含在请求体中

PUT

用客户端传向服务器的数据取代指定文档中的内容

DELETE

请求服务器删除指定的贞面

CONNECT

把服务器当作跳板,让服务器代替客户端访问其他网页

OPTIONS

允许客户端查看服务器的性能

TRACE

回显服务器收到的请求。主要用于测试或诊断

  • 请求的网址

请求的网址,它可以唯一确定客户端想请求的资源。关于 URL 的构成和各个部分的功能我们在前文已经提及了,这里就不再赘述。

  • 请求头

请求头,用来说明服务器要使用的附加信息,比较重要的信息有 Cookie、Referer、User-Agent 等。下面简要说明一些常用的请求头信息。

  • Accept: 请求报头域,用于指定客户端可接受哪些类型的信息。

  • Accept-Language: 用于指定客户端可接受的语言类型。

  • Accept-Encoding: 用于指定客户端可接受的内容编码。

  • Host: 用于指定请求资源的主机IP 和端口号,其内容为请求 URL 的原始服务器或网关的位置。

    从 HTTP1.1 版本开始,请求必须包含此内容。

  • Cookie: 也常用复数形式 Cookies,这是网站为了辨别用户,进行会话跟踪而存储在用户本地的数据。它的主要功能是维持当前访问会话。例如,输入,用户名和密码成功登录某个网站后,服务器会用会话保存登录状态信息,之后每次刷新或请求该站点的其他页面,都会发现处于登录状态,这就是 Cookie 的功劳。Cookie 里有信息标识了我们所对应的服务器的会话,每次浏览器在请求该站点的页面时,都会在请求头中加上 Cookie 并将其发送给服务器,服务器通过 Cookie 识别出是我们自己,并且查出当前状态是登录状态,所以返回结果就是登录之后才能看到的网页内容。

  • Referer: 用于标识请求是从哪个页面发过来的,服务器可以拿到这一信息并做相应的处理,如做来源统计、防盗链处理等。

  • User-Agent: 简称 UA,这是一个特殊的字符串头,可以使服务器识别客户端使用的操作系统及版本、测览器及版本等信息。做爬虫时如果加上此信息,可以伪装为测览器;如果不加,很可能会被识别出来。

  • Content-Type: 也叫互联网媒体类型(Internet Media Type)或者 MIME 类型,在 HTTP 协议消息头中,它用来表示具体请求中的媒体类型信息。例如,text/html 代表 HTML 格式,image/gif 代表 GIF 图片,application/json 代表 JSON 类型。

请求头是请求的重要组成部分,在写爬虫时,通常都需要设定请求头。

  • 请求体

请求体,一般承载的内容是 POST 请求中的表单数据,对于 GET 请求,请求体为空。

例如,我登录 GitHub 时捕获到的请求和响应如图 1-6 所示。

图 1-6 详细信息

登录之前,需要先填写用户名和密码信息,登录时这些内容会以表单数据的形式提交给服务器,此时需要注意 Request Headers 中指定 Content-Type 为 application/x-www-form-urlencoded。只有这样设置 Content-Type,内容才会以表单数据的形式提交。另外,也可以将 Content-Type 设置为 application/json 来提交 JSON 数据,或者设置为 multipart/form-data 来上传文件。

表1-3 列出了 Content-Type 和 POST 提交数据方式的关系。

Table 3. 表1-3 列出了 Content-Type 和 POST 提交数据方式的关系
Content-Type POST提交数据的方式

application/x-www-form-urlencoded

表单数据

multipart/form-data

表单文件上传

application/json

序列化JSON数据

text/xml

XML数据

在爬虫中,构造 POST 请求需要使用正确的 Content-Type,并了解设置各种请求库的各个参数时使用的都是哪种 Content-Type,如若不然可能会导致 POST 提交后无法得到正常响应。

响应

响应,即 Response,由服务器返回给客户端,可以分为三部分:响应状态码(Response Status Code)、响应头(Response Headers)和响应体(Response Body)。

响应状态码

响应状态码,表示服务器的响应状态,如 200 代表服务器正常响应、404 代表页面未找到、500 代表服务器内部发生错误。在爬虫中,我们可以根据状态码判断服务器的响应状态,如状态码为 200,证明成功返回数据,可以做进一步的处理,否则直接忽略。表 1-4 列出了常见的错误状态码及错误原因。

Table 4. 表1-4 常见的错误状态码及错误原因
状态码 说明 详情

100

继续

请求者应当继续提出请求。服务器已接收到请求的一部分,正在等待其余部分

101

切换协议

请求者已要求服务器切换协议,服务器已确认并准备切换

200

成功

服务器已成功处理了请求

201

已创建

请求成功并且服务器创建了新的资源

202

已接收

服务器已接收请求,但尚未处理

203

非授权信息

服务器已成功处理了请求,但返回的信息可能来自另一个源

204

无内容

服务器成功处理了请求,但没有返回任何内容

205

重置内容

服务器成功处理了请求,内容被重置

206

部分内容

服务器成功处理了部分请求

300

多种选择

针对请求,服务器可执行多种操作

301

永久移动

请求的网页已永久移动到新位置,即永久重定向

302

临时移动

请求的网页暂时跳转到其他页面,即暂时重定向

303

查看其他位置

如果原来的请求是POST,重定向目标文档应该通过GET提取

304

未修改

此次请求返回的网页未经修改,继续使用上次的资源

305

使用代理

请求者应该使用代理访问该网页

307

临时重定向

临时从其他位置响应请求的资源

400

错误请求

服务器无法解析该请求

401

未授权

请求没有进行身份验证或验证未通过

403

禁止访问

服务器拒绝此请求

404

未找到

服务器找不到请求的网页

405

方法禁用

服务器禁用了请求中指定的方法

406

不接收

无法使用请求的内容响应请求的网页

407

需要代理授权

请求者需要使用代理授权

408

请求超时

服务器请求超时

409

冲突

服务器在完成请求时发生冲突

410

已删除

请求的资源已永久删除

411

需要有效长度

服务器不接收不含有效内容长度标头字段的请求

412

未满足前提条件

服务器未满足请求者在请求中设置的某一个前提条件

413

请求实体过大

请求实体过大,超出服务器的处理能力

414

请求URI过长

请求网址过长,服务器无法处理

415

不支持类型

请求格式不被请求页面支持

416

请求范围不符

页面无法提供请求的范围

417

未满足期望值

服务器未满足期望请求标头字段的要求

500

服务器内部错误

服务器遇到错误,无法完成请求

501

未实现

服务器不具备完成请求的能力

502

错误网关

服务器作为网关或代理,接收到上游服务器的无效响应

503

服务不可用

服务器目前无法使用

504

网关超时

服务器作为网关或代理,没有及时从上游服务器接收到请求

505

HTTP版本不支持

服务器不支持请求中使用的HTTP协议版本

响应头

响应头,包含了服务器对请求的应答信息,如 Content-Type、Server、Set-Cookie 等。下面简要说明一些常用的响应头信息。

  • Date:用于标识响应产生的时间。

  • Last-Modified:用于指定资源的最后修改时间。

  • Content-Encoding:用于指定响应内容的编码。

  • Server:包含服务器的信息,例如名称、版本号等。

  • Content-Type:文档类型,指定返回的数据是什么类型,如 text/html 代表返回 HTML 文档,application/x-javascript 代表返回 JavaScript 文件,image/jpeg 代表返回图片。

  • Set-Cookie:设置 Cookie。响应头中的 Set-Cookie 用于告诉浏览器需要将此内容放在 Cookie 中,下次请求时将 Cookie 携带上。

  • Expires:用于指定响应的过期时间,可以让代理服务器或浏览器将加载的内容更新到缓存中。当再次访问相同的内容时,就可以直接从缓存中加载,达到降低服务器负载、缩短加载时间的目的。

响应体

响应体,这可以说是最关键的部分了,响应的正文数据都存在于响应体中,例如请求网页时,响应体就是网页的 HTML 代码;请求一张图片时,响应体就是图片的二进制数据。我们做爬虫请求网页时,要解析的内容就是响应体,如图 1-7 所示。

图1-7响应体内容

在浏览器开发者工具中单击 Preview,就可以看到网页的源代码,也就是响应体的内容,这是爬虫的解析目标。在做爬虫时,我们主要通过响应体得到网页的源代码、JSON 数据等,然后从中提取相应内容。

本节我们了解了 HTTP 的基本原理,大概了解了访问网页时产生的请求和响应过程。读者需要好好掌握本节涉及的知识点,在后面分析网页请求时会经常用到这些内容。

HTTP 2.0

前面我们也提到了,HTTP 协议从 2015 年起发布了厂 2.0 版本,相比 HTTP1.1 来说,HTTP2.0 变得更快、更简单、更稳定。HTTP2.0 在传输层做了很多优化,它的主要自标是通过支持完整的请求与响应复用来减少延迟,并通过有效压缩 HTTP 请求头字段的方式将协议开销降至最低,同时增加对请求优先级和服务器推送的支持,这些优化一笔勾销了 HTTP1.1 为做传输优化想出的一系列 “歪招”。

有读者这时候可能会问,为什么不叫 HTTP1.2 而叫 HTTP2.0 呢?因为 HTTP2.0 内部实现了新的二进制分层,没法与之前 HTTP1.x 的服务器和客户端兼容,所以直接修改主版本号为 2.0。

下面我们就来了解一下 HTTP2.0 相比 HTTP1.1 来说,做了哪些优化。

二进制分顿层

HTTP 2.0 所有性能增强的核心就在于这个新的二进制分帧层。在 HTTP 1.x 中,不管是请求(Request)还是响应(Response),它们都是用文本格式传输的,其头部(Headers)、实体(Body)之间也是用文本换行符分隔开的。HTTP 2.0 对其做了优化,将文本格式修改为了二进制格式,使得解析起来更加高效。同时将请求和响应数据分割为更小的帧,并采用二进制编码。

所以这里就引入了几个新的概念。

  • 帧:只存在于 HTTP 2.0 中的概念,是数据通信的最小单位。比如一个请求被分为了请求头帧(Request Headers Frame)和请求体/数据帧(Request Data Frame)。

  • 数据流:一个虚拟通道,可以承载双向的消息,每个流都有一个唯一的整数 ID 来标识。

  • 消息:与逻辑请求或响应消息对应的完整的一系列帧。

在 HTTP 2.0 中,同域名下的所有通信都可以在单个连接上完成,该连接可以承载任意数量的双向数据流。数据流是用于承载双向消息的,每条消息都是一条逻辑 HTTP 消息(例如请求或响应),它可以包含一个或多个。

简而言之,HTTP2.0 将 HTTP 协议通信分解为二进制编码顿的交换,这些帧对应着特定数据流中的消息,所有这些都在一个 TCP 连接内复用,这是 HTTP 2.0 协议所有其他功能和性能优化的基础。

多路复用

在 HTTP 1.x 中,如果客户端想发起多个并行请求以提升性能,则必须使用多个 TCP 连接,而且浏览器为了控制资源,还会对单个域名有 6~8 个 TCP 连接请求的限制。但在 HTTP 2.0 中,由于有了二进制分帧技术的加持,HTTP 2.0 不用再以 TCP 连接的方式去实现多路并行了,客户端和服务器可以将 HTTP 消息分解为互不依赖的帧,然后交错发送,最后再在另一端把它们重新组装起来,达到以下效果。

  • 并行交错地发送多个请求,请求之间互不影响。

  • 并行交错地发送多个响应,响应之间互不干扰。

  • 使用一个连接并行发送多个请求和响应。

  • 不必再为绕过 HTTP 1.x 限制而做很多工作。

  • 消除不必要的延迟和提高现有网络容量的利用率,从而减少页面加载时间。

这样一来,整个数据传输性能就有了极大提升。

  • 同域名只需要占用一个 TCP 连接,使用一个连接并行发送多个请求和响应,消除了多个 TCP 连接带来的延时和内存消耗。

  • 并行交错地发送多个请求和响应,而且它们之间互不影响。

  • 在 HTTP 2.0 中,每个请求都可以带一个 31 位的优先值,0 表示最高优先级,数值越大优先级越低。有了这个优先值,客户端和服务器就可以在处理不同的流时采取不同的策略了,以最优的方式发送流、消息和帧。

流控制

流控制是一种阻止发送方向接收方发送大量数据的机制,以免超出后者的需求或处理能力。可以理解为,接收方太繁忙了,来不及处理收到的消息了,但是发送方还在一直大量发送消息,这样就会出现一些问题。比如,客户端请求了一个具有较高优先级的大型视频流,但是用户已经暂停观看视频了,客户端现在希望暂停或限制从服务器的传输,以免提取和缓冲不必要的数据。再比如,一个代理服务器可能具有较快的下游连接和较慢的上游连接,并且也希望调节下游连接传输数据的速度以匹配上游连接的速度,从而控制其资源利用率等。

HTTP 是基于 TCP 实现的,虽然 TCP 原生有流控制机制,但是由于 HTTP 2.0 数据流在一个 TCP 连接内复用,TCP 流控制既不够精细,也无法提供必要的应用级 API 来调节各个数据流的传输。

为了解决这一问题,HTTP 2.0 提供了一组简单的构建块,这些构建块允许客户端和服务器实现它们自已的数据流和连接级流控制。

  • 流控制具有方向性。每个接收方都可以根据自身需要选择为每个数据流和整个连接设置任意的窗口大小。

  • 流控制的窗口大小是动态调整的。每个接收方都可以公布其初始连接和数据流流控制窗口(以字节为单位),当发送方发出 DATA 顺时窗口减小,在接收方发出 WINDOW_UPDATE 帧时窗口增大。

  • 流控制无法停用。建立 HTTP 2.0 连接后客户端将与服务器交换 SETTINGS 这会在两个方向上设置流控制窗口。流控制窗口的默认值设为 65535 字节,但是接收方可以设置一个较大的最大窗口大小(231-1 字节),并在接收到任意数据时通过发送 WINDOW_UPDATE 帧来维持这一大小。

  • 由此可见,HTTP 2.0 提供了简单的构建块,实现了自定义策略来灵活地调节资源使用和分配逻辑,同时提升了网页应用的实际性能和感知性能。

服务端推送

HTTP 2.0 新增的另一个强大的功能是:服务器可以对一个客户端请求发送多个响应。换句话说,除了对最初请求的响应外,服务器还可以向客户端推送额外资源,而无须客户端明确地请求。

如果某些资源客户端是一定会请求的,这时就可以采取服务端推送的技术,在客户端发起一次请求后,提前给客户端推送必要的资源,这样就可以减少一点延迟时间。如图 1-8 所示,服务端接收到 HTML 相关的请求时可以主动把 JS 和 CSS 文件推送给客户端,而不需要等到客户端解析 HTML 时再发送这些请求。

图1-8 服务端推送

服务端可以主动推送,客户端也有权利选择是否接收。如果服务端推送的资源已经被浏览器缓存过,览器可以通过发送 RST_STREAM 帧来拒收。

另外,主动推送也遵守同源策略,即服务器不能随便将第三方资源推送给客户端,而必须是经过服务器和客户端双方确认才行,这样也能保证一定的安全性。

HTTP2.0发展现状

HTTP 2.0 的普及是一件任重而道远的事情,一些主流的网站现在已经支持 HTTP 2.0 了,主流浏览器现在都已经实现了对 HTTP 2.0 的支持,但总体上,目前大部分网站依然以 HTTP 1.1 为主。

另外,一些编程语言的库还没有完全支持 HTTP 2.0,比如对于 Python 来说,hyper、httpx 等库已经支持了 HTTP 2.0,但广泛使用的 requests 库依然只支持 HTTP 1.1。

总结

本节介绍了关于 HTTP 的一些基础知识,内容不少,需要好好掌握,这些知识对于后面我们编写和理解网络爬虫有非常大的帮助。

本节的内容多数为概念介绍,部分内容参考如下资料。

  • 《HTTP 权威指南》一书。

  • 维基百科上 HTTP 相关的内容。

  • 百度百科上 HTTP 相关的内容。

  • MDN Web Docs 上关于 HTTP 的介绍。

  • Google 开发者文档中关于 HTTP2 的介绍。

  • Fun Debug 平台上的博客文章 “一文读懂 HTTP/2 及 HTTP/3 特性”。

  • 知乎上的文章 “一文读懂 HTTP/2 特性” 。