基于HTTP流式传输的长时响应体验提升

广告位招租
扫码页面底部二维码联系

在我们应用开发中偶尔遇到某个请求需要后端进行大量计算的情况,这种情况下,按照传统的前后端协同方式,前端需要等待后端慢慢计算,会放一个loading效果,而长时间的loading对用户的体验并不友好,而如果后端采用异步方式,在接收到前端请求后立即返回,过一段时间完成计算后再让前端请求一次,又会让界面上的数据在这段等待时间中处于老的不正确的数据情况,因此,我们需要找到一种既可以避免异步发送数据让用户误认为结果错误,又可以避免长时响应让用户等待焦虑的方法,利用流式传输,可以将结果分片返回,从而让界面实时发生变化,又可以减少前后端多次交互带来的编码困难。

HTTP流式传输

这里的流式传输是指借鉴流媒体技术,在数据传输中实现持续可用的不间断的传输效果。流式传输可以依赖http, rtmp, rtcp, udp...等等网络协议,在本文的场景下,我们主要探讨的是HTTP流式传输。

我们都知道,HTTP是基于TCP的无状态的一次性使用的连接协议,在我们日常的开发过程中,从客户端发起数据请求到服务端把数据一次性吐给客户端,就完成了这一次连接,随后它就关闭了。我们姑且不讨论TCP反复的开启和关闭带来的性能损耗。我们要探讨的是,在HTTP1.1中默认开启的Keep-Alive模式,当客户端和服务端都支持该模式时,一个TCP连接会维持打开,直到客户端不在回答服务端的ACK。而开启Keep-Alive之后,一次HTTP连接就可以维持较长时间的连接状态,配合Transfer-Encoding:chunked报文, 客户端和服务端基于底层的Socket,实现持续的服务端将数据发送给客户端。

Connection: keep-alive
Transfer-Encoding: chunked

另一种方式是客户端通过Range报文,主动要求服务端返回的数据范围:

Connection: keep-alive
Range: bytes=0-100

此时,服务端会报:

Accept-Ranges: bytes
Connection: keep-alive
Content-Range: bytes 0-100/5243
Content-Length: 101

此时的Content-Length只返回当前片段的长度。

Nodejs实现流式传输

由于Nodejs内部实现了Stream,且很多实现的基础都是Stream例如http, file等。我们用nodejs可以轻松实现流式传输:

const http = require("http");

http
  .createServer(async function (req, res) {
    res.writeHead(200, {
      "Content-Type": "text/plain;charset=utf-8",
      "Transfer-Encoding": "chunked",
      "Access-Control-Allow-Origin": "*",
    });
    for (let index = 0; index < chunks.length; index++) {
      setTimeout(() => {
        const content = chunks[index];
        res.write(JSON.stringify(content));
      }, index * 1000);
    }
    setTimeout(() => {
      res.end();
    }, chunks.length * 1000);
  })
  .listen(3000, () => {
    console.log("app starting at port 3000");
  });

这里的核心点就在于res.write,在http模块中,res本身就是一个基于流实现的响应对象,res.write则是向流中写入内容(相当于append)。

浏览器端实现流式接收

在大部分浏览器内部也实现了流,我们可以通过Streams API了解当前浏览器已经提供的各种借口。而在http请求场景中,全局的fetch函数为我们提供了非常便捷的接入方法。

const res = await fetch('xxx');
for await (let chunk of res.body) {
  console.log(chunk);
}

fetch返回的响应对象中.body就是一个流,在for await语法的加持下,我们都不需要做过多的处理,就可以用chunk来更新界面上显示的数据。不过可惜的是,目前for await只对firefox加持,因此我们还是必须按照一个ReadableStream的使用方式来从res.body中读取数据:

const utf8Decoder = new TextDecoder("utf-8");

const res = await fetch('http://localhost:3000');

const reader = res.body.getReader();
const processor = async () => {
    const { done, value } = await reader.read();
    clearInterval(timer);
    if (done) {
        return;
    }
    const chunk = utf8Decoder.decode(value, { stream: true });
    const item = JSON.parse(chunk);
    console.log(item);
    await processor();
}

await processor();

上面标红的reader.read()返回结果和generator的逻辑一致,只是不知道为什么chrome没有实现next接口。

效果对比

接下来,我们用没有经过处理的实现,和经过处理的实现来做一个感性的对比。

首先我们来看下传统方式的效果:

可以看到,我们用一个计时器来作为loading效果,当时间进入10s之后,所有数据回来了,于是我们一次性将全部数据渲染到界面上。

服务端代码如下:

const http = require("http");

const ids = new Array(200).fill(0).map((_, i) => i);

const getData = (id) => new Promise((resolve) => {
    const cost = id % 2 * 100;
    setTimeout(() => resolve({ id, cost }), cost);
});

http
  .createServer(async (req, res) => {
    res.writeHead(200, {
      "Access-Control-Allow-Origin": "*",
    });

    const startTime = Date.now();
    const results = [];
    const run = async (i = 0) => {
        const id = ids[i];
        if (i >= ids.length) {
            return;
        }
        const data = await getData(id);
        results.push(data);
        await run(i + 1);
    };
    await run();
    const endTime = Date.now();

    res.end(JSON.stringify(results));
    console.log('Cost:', endTime - startTime);
  })
  .listen(3000);

客户端代码如下:

<!DOCTYPE html>

<div id="root"></div>

<script>
    const root = document.querySelector('#root');

    let count = 0;
    const timer = setInterval(() => {
        count ++;
        root.innerHTML = count;
    }, 1000);

    const startTime = Date.now();
    fetch('http://localhost:3000').then(res => res.json()).then((data) => {
        console.log(data);
        const endTime = Date.now();
        const cost = endTime - startTime;
        console.log(cost);
        clearInterval(timer);
        data.forEach((item) => {
            const el = document.createElement('div');
            el.innerHTML = `id: ${item.id}, cost: ${item.cost}`;
            root.appendChild(el);
        });
    });
</script>

当然,这里面还有一些优化空间,比如在服务端用Promise.all来一次性执行全部任务。但是,无论如何优化,底层思维都是一次性拿到全部数据之后再渲染,因此,loading过程中,是没有数据展示的。

接下来看下基于流的效果:

可以看到,页面一打开,数据就一条一条的逐步被渲染,虽然全部的数据回来也需要10s左右,但是,在这过程中,我们可以看到界面上一部分数据已经被渲染出来。

服务端代码如下:

const http = require("http");

const ids = new Array(200).fill(0).map((_, i) => i);

const getData = (id) => new Promise((resolve) => {
    const cost = id % 2 * 100;
    setTimeout(() => resolve({ id, cost }), cost);
});

http
  .createServer(async (req, res) => {
    res.writeHead(200, {
      "Transfer-Encoding": "chunked",
      "Access-Control-Allow-Origin": "*",
      'Content-Type': 'text/plain',
    });

    const startTime = Date.now();
    const run = async (i = 0) => {
        const id = ids[i];
        if (i >= ids.length) {
            return;
        }
        const data = await getData(id);
        res.write(JSON.stringify(data));
        await run(i + 1);
    };
    await run();
    const endTime = Date.now();

    res.end();
    console.log('Cost:', endTime - startTime);
  })
  .listen(3000);

客户端代码如下:

<!DOCTYPE html>

<div id="root"></div>

<script>
    const utf8Decoder = new TextDecoder("utf-8");

    async function init() {
        const root = document.querySelector('#root');

        let count = 0;
        const timer = setInterval(() => {
            count ++;
            root.innerHTML = count;
        }, 1000);

        const startTime = Date.now();
        const res = await fetch('http://localhost:3000');

        const reader = res.body.getReader();
        const processor = async () => {
            const { done, value } = await reader.read();
            clearInterval(timer);
            if (done) {
                return;
            }
            const chunk = utf8Decoder.decode(value, { stream: true });
            const item = JSON.parse(chunk);
            const el = document.createElement('div');
            el.innerHTML = `id: ${item.id}, cost: ${item.cost}`;
            root.appendChild(el);
            await processor();
        }

        await processor();

        const endTime = Date.now();
        const cost = endTime - startTime;
        console.log(cost);
    }
    init();
</script>

可以发现,总体代码的结构是一致的,只是在传输和获取数据的地方不同,随之渲染的过程也不同。这也说明,在现有的系统中,实现这种传输方式的迁移,是可行的,不会对原有项目的整体架构带来大的变化。

其他场景

本文设想的场景是,一个列表中,每一条数据后端都需要花一定的时间,整个列表的总时间就比较长。针对这一场景,我们采用流式传输的方法,可以让列表可以逐条渲染或更新,从而可以让用户在较快的时间里,获得前面的数据。而这种流式传输,现在已经在前端被广泛使用,甚至被某些框架作为其架构的底层选型。我个人也想到了一些场景,供你参考:

  • 长列表
  • 数据表格实时更新,例如股票市场行情
  • 较长的文章
  • 将网页分为多个chunk,每一个chunk对应页面中的一块,首屏chunk放在最前面,这样可以更快让用户看到界面
  • 打字机效果,例如实时翻译字幕、ChatGPT的回复
  • 用户提交后需要大量计算,可以先返回一个chunk,让前端提示用户已经成功,等计算完再返回真正的chunk,更新界面数据
  • 古老的聊天室,在服务端,当收到别人发送的消息时,通过一个chunk发送给自己的浏览器,这样我们就不需要自己架设socket
  • 由粗糙逐渐细腻的渲染,例如先发送较少的模型数据,形成一个轮廓,然后在逐渐发送更多数据,将模型的颜色、细节等进行填充
  • 分段式操作的场景,例如文件下载,用户点击下载按钮后,服务端要进行压缩打包等,需要一段时间,在打包过程中,还会发现其中某个文件存在问题,要将问题反馈给前端,完成打包之后才返回给前端打包好的文件
  • 随机渲染,例如不同的用户处在地图的不同点,我们优先返回该点的地图信息,然后再逐渐往外扩散

总之,流式传输的特性决定了我们可以在较长的时间里,持续的接收数据,实现界面的同步。

2023-06-17 5708

为价值买单,打赏一杯咖啡

本文价值57.08RMB