Web并发模型入门

一,基本概念 并发(concurrency) CPU划分时间片,轮流执行每个请求任务,时间片到期后,换到下一个。 并行(parallelism) 在多核服务器上,每个CPU内核执行一个任务,是真正的并行。 吞吐量(throughput) 单位时间内服务器总的请求处理量。 以 request/second 来衡量,如1200rps 每个请求的处理时间latency 服务器处理请求的并发workers
相关文章
相关标签/搜索