zoukankan      html  css  js  c++  java
  • Node负载能力测试

    需求很简单,就是提供一个服务接口收集端上传来的日志文件并保存,要求能承受的QPS为5000。

    以前从来都没考虑过Node服务的负载能力,用 koa + co-busboy 接受上传文件请求并用 fs 直接写文件开发完服务并用 pm2 进行进程管理,总觉得心里不踏实,便开始在服务器上,测试 Node 服务的负载能力。

    服务器信息:

    系统:CentOS release 6.7

    CPU:48核

    压测命令:(在另一台服务器上运行命令)

    siege -c 10 -b -t 1m -l test.log http://xxx.xxx.xxx.xxx:3001 > siege.log

    测试简单 Node 服务负载:(使用简陋的方法统计QPS的大概值)

    server.js

     1 let http = require('http');
     2 let count = 0,
     3     start_timestamp = new Date().getTime();
     4 
     5 let server = http.createServer((req, res) => {
     6     try {
     7         let cur_timestamp = new Date().getTime();
     8         count++;
     9         if (cur_timestamp - start_timestamp >= 1000) {
    10             console.log(count);
    11             start_timestamp = cur_timestamp;
    12             count = 0;
    13         }
    14         res.writeHead(200, {'Content-Type': 'text/plain'});
    15         res.end('hello world');
    16     } catch (e) {
    17         console.log(`err: ${e.message}`);
    18     }
    19 });
    20 server.listen(3001);
    21 console.log('run on 3001');

    压测结果:

    使用两台不同的服务器同时运行压测命令得到的结果:

    如图可看出在服务器上单进程 Node 服务的性能极限,那么换成 koa 再来测一下会有什么结果呢?

    server_koa.js

     1 const Koa = require('koa');
     2 const app = new Koa();
     3 
     4 let count = 0,
     5     start_timestamp = new Date().getTime();
     6 
     7 app.use(async (ctx) => {
     8     try {
     9         let cur_timestamp = new Date().getTime();
    10         count++;
    11         if (cur_timestamp - start_timestamp >= 1000) {
    12             console.log(count);
    13             start_timestamp = cur_timestamp;
    14             count = 0;
    15         }
    16         ctx.body = 'hello world';
    17     } catch (e) {
    18         console.log(`err ${e.message}`);
    19     }
    20 });
    21 
    22 app.listen(3001);
    23 console.log('run on 3001');

    看来用 Koa 的话对极限QPS的影响还是比较大的

    如果使用 pm2 管理简单服务,结果如何?

    左图为 pm2 使用 1 个实例,右图为使用 4 个实例,可以明显看到实例增加能大大提高程序负载能力,但是使用 2 台机器压测的结果却是这样:

    有点奇怪了,照理来说 4 个实例的处理能力怎么说加起来应该远超过 1w 才对,试着加大实例数量到 48,再用 2 台机器压测结果如下:

    提升的效果不是很让人满意,使用 3 台机器压测结果:

    即使在 48 核的服务器上开了 48 个进程来跑,极限 QPS 也止步 1w。值得注意的是在 48 核的服务器上用 pm2 来跑 server_koa.js,极限 QPS 与跑 server.js 相近,都是略小于 1w。这说明此时极限 QPS 已经不是制约在服务代码实现上,而应该从 Node 底层实现寻找答案,在网上找了半天找到这篇博客干货比较多:http://taobaofed.org/blog/2015/10/29/deep-into-node-1/  

    由于 Node 的文件 I/O、事件循环的通知是 Libuv 维护的线程池来操作,且默认线程池的大小是 4,那么通过修改线程池大小 UV_THREADPOOL_SIZE 会发生什么现象呢?在 server.js 最顶上添加代码:

    process.env.UV_THREADPOOL_SIZE = 64;

    压测结果如下:

    结果没有明显变化。这是因为 Linux 下,网络 I/O 采用的是 epoll 异步模型,不是通过线程池的方式处理。

    如何修改 epoll 的参数来提升极限QPS呢?

  • 相关阅读:
    c++中的extern
    DOS性能监视器
    谈谈.NET中的内存管理(转帖)
    static_cast和dynamic_cast
    关于对EventHandler 和e的理解(转帖)
    使用Windows Mobile 6模拟器上网的步骤(转帖)
    接口抽象类类
    当前不会命中断点 尚未加载指定的模块 windows mobile
    C# 编码的双重检验锁定
    Loadrunner 监控Unix系统性能指标的解释
  • 原文地址:https://www.cnblogs.com/cqq626/p/7775196.html
Copyright © 2011-2022 走看看