添加客服微信
400 035 7887
一、系统层瓶颈
文件句柄限制
Nginx 反向代理长连接、高并发转发时,单进程打开文件 / 套接字句柄耗尽,出现too many open files,直接丢连接、报错。
TCP 内核参数限制
端口范围不足、TIME_WAIT 堆积,新建连接失败;
内核队列(backlog)过小,握手阶段拒绝连接;
缓冲区(tcp_wmem/tcp_rmem)不足,大文件 / 高吞吐转发卡顿。
CPU 瓶颈
单 worker 进程绑定单核,多核未利用;
频繁 SSL 加解密、gzip 压缩、正则匹配、日志打印消耗 CPU;
正则规则复杂、rewrite 过多引发 CPU 飙高。
内存瓶颈
连接池、缓冲区、缓存占用过高,出现 OOM、频繁 swap,转发延迟陡增。
二、Nginx 配置层瓶颈
Worker 进程 / 连接配置不合理
worker_processes 未等于 CPU 核心数,多核闲置;
worker_connections 过小,单进程并发上限不足;
未开启multi_accept,无法快速接收批量连接。
超时参数不合理
keepalive_timeout、proxy_connect_timeout、proxy_read_timeout 过大,无效长连接占用连接数,挤压有效请求。
反向代理关键配置缺失
未配置proxy_http_version 1.1+proxy_set_header Connection "",后端短连接频繁建连断连;
上游keepalive连接池未配置,大量 HTTP1.0 短连接损耗性能。
日志与模块开销
开启访问日志同步写入、错误日志级别过高;无用模块、监控插件增加开销。
三、上游后端联动瓶颈
后端服务处理能力不足
Nginx 转发无瓶颈,但后端接口 QPS、线程池、数据库慢,导致请求堆积,表现为代理响应慢。
上游节点调度不合理
负载均衡算法单一、无重试 / 熔断,单点后端压力过载,引发整体吞吐下降。
跨机房 / 跨网转发延迟
代理与后端网络时延高、丢包、带宽抖动,拉长单请求耗时,降低整体并发能力。
四、网络与业务场景瓶颈
带宽瓶颈
大文件下载、视频流、大报文接口,网卡带宽打满,吞吐封顶。
HTTPS 性能损耗
未配置会话复用(ssl_session_cache)、弱加密套件、无 OCSP Stapling,SSL 握手耗时极高。
静态资源 & 压缩滥用
超大文件强制 gzip、重复压缩;未开启静态缓存、过期缓存策略混乱。
五、性能测试中典型现象对应瓶颈
调优系统:最大文件句柄、TCP 队列、TIME_WAIT 回收;
Nginx:worker 等于核数、调高连接数、开启上游 keepalive 长连接池;
代理层:统一 HTTP1.1 转发、精简 rewrite、异步日志;
HTTPS:开启会话缓存、优化加密套件;
压测联动:先压 Nginx 空代理,再叠加后端,快速定位瓶颈层级。
推荐阅读:
POne集管理、设计、压测、监控以及分析一体的性能测试平台
本文内容不用于商业目的,如涉及知识产权问题,请权利人联系SPASVO小编(021-60725088-8054),我们将立即处理,马上删除。