Python、JavaScript和Rust的Web性能比较 - Alex

Python使用FastApi测试;Node.JS使用Fastify;Rust则使用Actix。

选择的Python和Node框架,是在搜索 "最快的<某语言>api "时得到的最高结果;Rust的Actix是一直高度维护的。

测试的基础很简单;在我的MacBook Pro M1上,每个框架处理来自网络服务器的5000个基本 "Hello, World "响应需要多长时间?

我用来运行测试的代码非常简单,显然,我们只关心速度:

Python

客户端代码:
<b>import</b> requests
from requests.adapters <b>import</b> HTTPAdapter
from requests.packages.urllib3.util.retry <b>import</b> Retry

MAX_RETIES = 3

def create_retriable_session():
    s = requests.Session()
    retries = Retry(
        total=MAX_RETIES,
    )
    s.mount('http:<font><i>//', HTTPAdapter(max_retries=retries))</i></font><font>
    s.mount('https:</font><font><i>//', HTTPAdapter(max_retries=retries))</i></font><font>
    <b>return</b> s


def main():
    s = create_retriable_session()

    <b>for</b> _ in range(0, 5000):
        s.get(</font><font>"http://127.0.0.1:8000/"</font><font>)
</font>

服务器端,使用fastapi:

from fastapi <b>import</b> FastAPI

app = FastAPI()


@app.get(<font>"/"</font><font>)
async def root():
    <b>return</b> {</font><font>"message"</font><font>: </font><font>"Hello World"</font><font>}
</font>

运行服务器:

uvicorn main:app

测试结果:

5.22 s ± 221 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)

下面是使用另外一个框架Fastfy使用 异步 后的代码:

<b>const</b> fastify = require('fastify')({logger: false})

<b>const</b> PORT = 8000;

fastify.get('/', async (request, reply) => {
    <b>return</b> {message: 'Hello World'}
})

<b>const</b> start = async () => {
    <b>try</b> {
        await fastify.listen(PORT)
    } <b>catch</b> (err) {
        fastify.log.error(err)
        process.exit(1)
    }
}
start()

再次测试结果:

4.49 s ± 84.7 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)

比较结果:

FastApi每秒处理约957.85次,Fastfy每秒处理1113.59次。

Rust

use actix_web::{App, get, HttpResponse, HttpServer, Responder};

#[get(<font>"/"</font><font>)]
async fn hello() -> impl Responder {
    HttpResponse::Ok().body(</font><font>"{\"message\": \"Hello World\"}"</font><font>)
}

#[actix_web::main]
async fn main() -> std::io::Result<()> {
    HttpServer::<b>new</b>(|| {
        App::<b>new</b>()
            .service(hello)
    })
        .bind(</font><font>"127.0.0.1:8000"</font><font>)?
        .run()
        .await
}
</font>

测试结果:

4.32 s ± 58.7 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)

比较结果:

我们再次看到,Rust比python快,也比Fastify快,Rust能够每秒处理1157.41个请求,每秒比Fastify快44个请求,比FastApi每秒快200个请求。

Node.js

只是为了好玩,Express是最常见的节点框架,所以我也想测试一下,Express比fastify的功能更全面,所以我估计它也会更慢。

<b>const</b> express = require('express')
<b>const</b> app = express()
<b>const</b> port = 8000

app.get('/', (req, res) => {
    res.json({message: <font>"Hello World"</font><font>})
})

app.listen(port, () => {
    console.log(`Example app listening at http:</font><font><i>//localhost:${port}`)</i></font><font>
})
</font>

测试结果:

4.88 s ± 152 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)

而且确实比fastify要慢。

结论

Rust绝对是最快的选择,但它是最好的吗?我不确定我是否能回答这个问题,因为98%的情况下这要取决于。你的团队知道什么?该框架有你需要的功能吗?如果没有,你能建立它吗?如果你没有一个专家团队,学习起来有多容易?该框架在4-5年内存在的可能性有多大?

这些测试有一些注意事项,它们是在Python中运行的,所以它们只能以Python发出请求的速度运行,而且它们不是多线程的,所以框架也可能不会使用多线程来响应,这取决于Python请求库中的会话工作方式。另外,一般来说,node是单线程的,node用队列来伪造并发,但是有一种方法可以解决这个问题,那就是用workers,它允许你在不同的线程上运行多个服务器,这取决于CPU有多少逻辑核心,这在生产中非常有用,因为它有巨大的性能提升,但同样,这些测试不能从中受益。

这篇文章的重点不是让你转到Actix/Rust的生产服务器上,重点是展示我在学习新东西时喜欢的一种简单的方法,并希望展示测试并不总是要严肃或复杂。

上一篇:nfs实时备份案例


下一篇:centos7国内镜像glbc版安装