http 各版本问题和优化

http 各版本问题和优化HTTP/1.1 的优化
HOST域

  • 随着虚拟主机技术的发展,在一台物理服务器上可以存在多个虚拟主机(Multi-homed Web Servers),并且它们共享一个IP地址

长连接

  • 就是多个 http 请求共用一个 tcp 连接; 这样可以减少多次临近 http 请求导致 tcp建立关闭所产生的时间消耗.其中keepAlive:timeout=30,max=5, timeout 是两次 http 请求保持的时间(s), max 是这个 tcp 连接最多为几个 http请求重用

    • keep-alive 还有一个有效期,有效期结束后服务端会发侦查帧探查 TCP 是否有效,HTTP 的 keep-alive 是为了让 TCP 活久一点,而 TCP 本身也有一个 keepalive(注意没有横杠哦)机制。这是 TCP 的一种检测连接状况的保活机制,keepalive 是 TCP 保活定时器:TCP 建立后,如果闲置没用,服务器不可能白等下去,闲置一段时间[可设置]后,服务器就会尝试向客户端发送侦测包,来判断 TCP 连接状况,如果没有收到对方的回答(ACK包),就会过一会[可设置]再侦测一次,如果多次[可设置]都没回答,就会丢弃这个 TCP 连接
  • 长连接中的请求依旧是串行处理

HTTP/1.1 的问题
队头阻塞

  • 在 HTTP 请求应答过程中,如果出现了某种情况,导致响应一直未能完成,那后面所有的请求就会一直阻塞着,这种情况叫队头阻塞。

低效的 TCP 利用

  • 由于 TCP 慢启动机制,导致每个 TCP 连接在一开始的时候传输速率都不高,在处理多个请求后,才会慢慢达到“合适”的速率。对于请求数据量很小的 HTTP 请求来说,这种情况就是种灾难。

臃肿的消息首部

  • HTTP/1.1 的首部无法压缩,再加上 cookie 的存在,经常会出现首部大小比请求数据大小还大的情况。

受限的优先级设置

  • HTTP/1.1 无法为重要的资源指定优先级,每个 HTTP 请求都是一视同仁。

解析 HTTP/1.1 的请求或响应还会遇到以下问题

  • 一次只能处理一个请求或响应,完成之前不能停止解析。
  • 无法预判解析需要多少内存

HTTP/2 连接建立过程
基于 SSL/TLS 的 HTTP/2 连接建立过程和 HTTPS 差不多。在 SSL/TLS 握手协商过程中,客户端在 ClientHello 消息中设置 ALPN(应用层协议协商)扩展来表明期望使用 HTTP/2 协议,服务器用同样的方式回复。通过这种方式,HTTP/2 在 SSL/TLS 握手协商过程中就建立起来了。

HTTP/2 是基于帧的协议。采用分帧是为了将重要信息封装起来,让协议的解析方可以轻松阅读、解析并还原信息。HTTP/2 有了帧,处理协议的程序就能预先知道会收到什么,并且 HTTP/2 有表示帧长度的字段
http 各版本问题和优化帧结构
http 各版本问题和优化

  • Length:3字节,表示帧负载的长度,取值范围为 (2 的 14 次方)至 (2 的 24 次方 - 1)。(2 的 14 次方) 16384 字节是默认的最大帧大小,如果需要更大的帧,必须在 SETTINGS 帧中设置
  • Type:1字节,当前帧类型
  • Flags:1字节,具体帧类型的标识
  • R:1位,保留位,不要设置,否则可能会带来严重的后果
  • Stream Identifier:31位,每个流的唯一 ID
  • Frame Payload:长度可变真实的帧内容,长度是在 Length 字段中设置的

帧类型

http 各版本问题和优化

  • HTTP/2 规范对流的定义是:HTTP/2 连接上独立的、双向的帧序列交换。如果客户端想要发出请求,它会开启一个新流,然后服务器在这个流上回复。 由于有分帧,所以多个请求和响应可以交错,而不会互相阻塞。流 ID 用来标识帧所属的流。
  • 客户端到服务器的 HTTP/2 连接建立后,通过发送 HEADERS 帧来启动新的流。如果首部需要跨多个帧,可能还会发送 CONTINUATION 帧。该 HEADERS 帧可能来自请求或响应。 后续流启动的时候,会发送一个带有递增流 ID 的新 HEADERS 帧。
  • 消息由一或多个帧组成,这些帧可以乱序发送,然后再根据每个帧首部的流 ID 重新组装
  • 一个消息至少由 HEADERS 帧(它初始化流)组成,并且可以另外包含 CONTINUATION 和 DATA 帧,以及其他的 HEADERS 帧。
    http 各版本问题和优化

Http2优化

多路复用

  • 在 HTTP/1.1 中,如果客户端想发送多个并行的请求,那么必须使用多个 TCP 连接

  • HTTP/2 是分帧的,请求和响应都可以多路复用,有助于解决类似类似队头阻塞的问题,所有的请求和响应都在同一个 TCP 连接上发送

  • 客户端和服务器把 HTTP 消息分解成多个帧,然后乱序发送,最后在另一端再根据流 ID 重新组合起来。

    • 可以并行交错地发送请求,请求之间互不影响;
    • 可以并行交错地发送响应,响应之间互不干扰;
    • 只使用一个连接即可并行发送多个请求和响应;
      http 各版本问题和优化

优先级

  • 通过 HEADERS 帧和 PRIORITY 帧,客户端可以明确地和服务器沟通它需要什么,以及它需要这些资源的顺序。具体来讲,服务器可以根据流的优先级,控制资源分配(CPU、内存、带宽),而在响应数据准备好之后,优先将最高优先级的帧发送给客户端

流量控制

  • 在同一个 TCP 连接上传输多个数据流,就意味着要共享带宽。标定数据流的优先级有助于按序交付,但只有优先级还不足以确定多个数据流或多个连接间的资源分配。

  • 为解决这个问题,HTTP/2 为数据流和连接的流量控制提供了一个简单的机制:

    • 流量控制基于每一跳进行,而非端到端的控制;
    • 流量控制基于 WINDOW_UPDATE 帧进行,即接收方广播自己准备接收某个数据流的多少字节,以及对整个连接要接收多少字节;
    • 流量控制窗口大小通过 WINDOW_UPDATE 帧更新,这个字段指定了流 ID 和窗口大小递增值;
    • 流量控制有方向性,即接收方可能根据自己的情况为每个流乃至整个连接设置任意窗口大小;
    • 流量控制可以由接收方禁用,包括针对个别的流和针对整个连接
    • HTTP/2 连接建立之后,客户端与服务器交换 SETTINGS 帧,目的是设置双向的流量控制窗口大小。除此之外,任何一端都可以选择禁用个别流或整个连接的流量控制。

服务器推送
http 各版本问题和优化

  • 服务器可以对一个客户端请求发送多个响应。换句话说,除了对最初请求的响应外,服务器还可以额外向客户端推送资源,而无需客户端明确地请求。

首部压缩

  • 把相同的首部存储起来,仅发送它们之间不同的部分,就可以节省不少的流量,加快请求的时间。
  • HTTP/2 在客户端和服务器端使用“首部表”来跟踪和存储之前发送的键-值对,对于相同的数据,不再通过每次请求和响应发送。
  1. 假设客户端按顺序发送如下请求首部:
    Header1:foo
    Header2:bar
    Header3:bat

  2. 当客户端发送请求时,它会根据首部值创建一张表:
    http 各版本问题和优化

  3. 如果服务器收到了请求,它会照样创建一张表。

  4. 当客户端发送下一个请求的时候,如果首部相同,它可以直接发送这样的首部块:
    62 63 64

  5. 服务器会查找先前建立的表格,并把这些数字还原成索引对应的完整首部。

取消域名拆分

  • 再多的 HTTP 请求都可以在一个 TCP 连接上发送,所以不需要采取多个域名来突破浏览器 TCP 连接数限制这一规则了。
上一篇:Linux中是谁占用了我的端口


下一篇:计算机网络再次整理————tcp例子前奏[三]