github: https://github.com/yds086/HereticOSgit
异数OS社区QQ群: 652455784github
异数OS-织梦师(消息中间件)群: 476260389
算法
提及长链接,则首先要谈对C10K的理解与认识,异数OS认为传统系统中C10K问题主要以下:缓存
1. 传统OS 线程切换代价很大,线程资源有限(500以上可用性下降),这使得多线程阻塞IO性能达到1W时,线程切换将占满系统负载,应用并发session数量则被系统线程数量约束,但多线程阻塞IO这种模式对应用逻辑设计而言倒是自然简单友好靠谱的,而异数OS线程切换能力为80M, 1亿线程4G内存,也不会下降太多线程切换能力以及IO能力, 因此使用这种方案。微信
2. 为了不线程切换以及线程资源不够带来的问题,主流操做系统使用队列技术(iocp epoll)来批量成倍提高IO性能,每次线程切换完成10个甚至数百个IO操做或者event推送,使用异步技术来让单个线程管理多个session的能力,因此表面上看提升了并发容量,但这类技术却大大下降了并发质量反而形成了更严重的C10K问题,使用这一技术,每一个连接必需要提供中间传输缓存,连接多了后,IO需求大时,队列会很长,延迟会很高,加剧了系统负担,因为这类技术都是非阻塞异步IO,不能较好的阻塞session应用逻辑,所以没法为每连接作可靠的业务流程控制以及QOS控制,连接多了,就会有饿死的连接,出现大量错误IO,相对多线程阻塞IO模式,雪崩问题更加严重。网络
3. TCP协议栈没有为海量连接作优化,其常见的流控拥塞算法都只针对连接自身的IO性能,并不考虑上层应用实际需求,以及其余连接的IO需求,在这种状况下TCP检查网络拥塞的算法将没有任何意义,实际测试发现若是每连接IO不作控制,1000连接都很难上去,正确的作法是将拥塞控制算法提升到系统层以及应用层由系统QOS任务调度以及应用需求共同来实现。session
4. 协议栈中间缓存太多,拷贝动做较多,传统OS每连接协议栈须要4K以上内存,实作一个1000W连接的系统通常要60G内存起步,这直接增长了系统负载,下降了系统可用性。多线程
5. 协议栈IO性能不足,因为传统操做系统IO性能约束,实作的协议栈只能提供10-40W的IO性能,而且不能多核扩充,IO过载时会,协议栈会出现无响应丢包现象,丢包后协议栈性能需求会更高,能提供的IO性能会大大下降,若是应用不能适应这种IO性能变化,将会制造更多的中间缓存,致使雪崩,在这样的状况下,作1000W连接的应用可用性会受到极大的限制,好比微信使用这一类技术就只能用于心跳连接活跃检查。并发
一些号称实作了C10M的技术方案从本质上没有解决上述问题,仅仅靠硬件技术堆硬件配置来表面实现,但实际上却没有任何可用性。app
2015年,异数OS考虑开始使用海量线程同步阻塞IO的方案来解决iocp不能作QOS,队列过长的问题,异数OS使用任务调度来控制每连接的IO提交性能需求,并智能感知雪崩状况的发生,动态控制IO性能以及应用提交的中间缓存规模,从而减小了中间缓存开销,下降了海量并发下iocp队列深度,下降对宿主操做系统的负载压力,从而实现了1000W连接12W的消息推送性能。
2017年,因为发现宿主操做系统协议栈的能力约束,异数OS决定抛弃宿主操做系统协议栈,以及IO技术,开始自主研发TCP协议栈,实作0中间缓存,1次中间拷贝的技术,从而达到每连接300字节占用,并发容量相对异数OS 2015,提升15倍,IO性能提高100倍,且能够多核扩充,大大提升了海量并发环境的系统可用性。
TCP 长连接IO性能测试,Client Server都采用单线程半双工模式,建立600W客户端(本机测试至关于1200W连接),连接服务端后作循环ECHO,测试ECHO IO性能,IO延迟,每连接性能稳定性。
VMware 12
异数OS宿主操做系统 debian 8 64位
CPU : NUC i3 2.6G 双核
内存:5GB
相关参数
1. 带包头200字节负载,不带crc checksum, 无丢包,无硬件延迟状况。
2. TCP协议栈使用均衡IO调度策略。
在同一个CPU核上建立Server,600W个Client, 以太层使用异数OS软件交换机本地核定向转发。
启动前期:
启动后期(2个多小时后):
总计ECHO IOPS 为2.3M ,软件交换机包交换能力9Mpps,因为Client占用60%的负载,软件交换机占用20%负载,因此预计真实环境中最大可达到6.0M左右的ECHO能力,IO延迟方面,在系统启动阶段因为大量连接的创建,每连接IO需求不稳定,系统QOS IO均衡并无显著的发生做用,平均延迟达到了2秒,一些连接任然有饥饿现象,出现上百秒才响应的状况,在稳定连接后期,每连接IO需求稳定后,IO延迟降低,饥饿现象获得缓解,但仍是有10s延迟的连接出现。
因为只使用了TCP协议栈的任务均衡调度控制方案,所以每连接IO质量在应用负载不均的状况下仍是不能获得及早的控制,这个问题后面会由应用系统的QOS来解决,好比mqtt等专业的APP QOS控制,下面是几种主流系统的海量连接平台能力性能对比,数据来自官网以及第三方测试,可比性可能不高,但也可作参考估算,读者若有其余海量并发的技术测试也欢迎提供
对比项目 |
异数OS 2018 |
异数OS 2015+Win7 |
异数OS 2015+Win10 |
360push |
|
CPU占用数量 |
1 |
16 |
16 |
24 |
12 |
内存占用 |
4G |
64G |
64G |
256G |
128G |
实现的连接数 |
1200W |
1000W |
300W |
100W |
300W |
使用的技术平台 |
寄宿Linux下+异数自主协议栈 |
寄宿win下+iocp |
寄宿win下+iocp |
Go+epoll |
Erlang+epoll |
测试内容 |
ECHO 推拉 |
仅推 |
仅推 |
仅推 |
仅推 |
推送性能 |
4.5M |
12W |
40W |
2W |
12W |
折算的IO性能 |
9M |
12W |
40W |
2W |
12W |
已知问题 |
缺少经费支持 |
缺少经费支持 |
缺少经费支持 |
容易宕机,要反复重启 |
特制应用平台,不一样用。 |