“带宽”的本质是什么?
又是什么决定了“带宽”?web
互联网上两台电脑要相互通讯,它们须要有一个物理链接,提供信号传输介质。这种物理层线路,常见的传导材料有铜线和光纤,咱们经常使用的双绞线是铜线,它传输的是电信号,光纤传输的是光信号,但并非说光纤对信号的传播速度就比铜线更快。编程
不论是电信号仍是光信号,只要进入线路后,便可以进行快速的传播,这个速度称为传播速度,它的单位是“m/s”,即单位时间传播的距离。传播速度只与传播介质有关,铜线中电信号传播速度大约是2.3x10^8m/s,光纤中信号的传播速度大约为2.0x10^8m/s。服务器
这或许有点奇怪,光在真空中的传播速度不是3.0x10^8m/s吗?的确是,它不只仅只是可见光的传播速度,也是全部电磁波在真空中的传播速度,全部电磁波(包括可见光)在真空中的传播速度是常数,便是光速。网络
那为何光纤中的光信号传播速度要低一些呢?这是由于光纤在传播光信号时,利用了光的全反射原理,因此光信号在光纤中实际传播距离要大于光纤的长度。也就是说,看起来这段光纤长度只有1m,但这个光信号实际上可能传播了2m或者3米甚至4米更多,也就是弯弯曲曲的传播花了更多的时间才传输完这实际的1m,那速度天然是慢了点。函数
因而可知,不一样的传播介质中信号的传播速度几乎等于常量,恒定的,也就是说,不论数据发送装置(网卡)以多快的发送速度让数据以信号的形式进入物理线路,在物理线路中信号的传播速度几乎能够认为是同样快的而且恒定的。那为何又还要使用价格更昂贵的光纤,这涉及到一个信号衰减的问题。阿里云
信号在传播介质中的衰减,与传播介质以及信号传播方式有着密切的关系。好比咱们通常使用的双绞线,传输距离只能达到100m,更长的距离就须要经过中继器来延续信号,并且只能使用有限次的中继器,每次中继器转发信号又会消耗一些发送时间。光纤利用了光的全反射原理,微细的光纤封装在塑料套中,使得它可以弯曲而不影响光信号的传播。光纤中光的传导损耗比电信号在电线传导的损耗低的多,它的传输距离通常在数公里以上,因此光纤通常被用做长距离的传输,跨越太平洋的海底就是用的光缆。spa
咱们通常说的100M带宽,全称应该是100Mbit/s,或者100Mbps,后面的bit/s常常省略。接口
若是数据要从主机进入线路,通常会通过如下这些环节。队列
咱们所讲的“带宽”是指数据的发送数度,准确说又分为“上行带宽”和“下行带宽”。上行带宽,又称出口带宽,就是本地电脑发送数据到外部的速度,上传文件的时候,本地可以以多块的速度把文件上传到远程服务器,这就取决于本地的上行带宽。下行带宽,也称为入口带宽,通俗的说就是下载速度。进程
不论是上行带宽仍是下行带宽,这些数据都是网卡发送和接收的,而它在实际中能有多块的速度,取决于几个因素。
这里以上行带宽,即本地把数据发送出去的发送速度为例,这个发送速度能有多块,有以下几个因素:
限制这个“带宽”其实是交换机,交换机能够限制入口速度和出口速度。
不少web站点都是托管在诸如阿里云等,它们会将咱们的服务器主机链接到交换机以接入互联网。这时候咱们服务器拥有本身的IP地址,当用户向这台服务器请求数据后,数据会从服务器流经交换机到达指定的路由器最后进入用户的电脑,而数据从服务器主机上发送出来,首先是发送到了交换机,交换机的须要进行存储和转发。也就是交换机从链接服务器的端口接收数据,存储到交换机内部的高速缓冲队列中,而后将其从链接路由器的端口发送出去,再通过路由器的转发进入另外一个网络,依次重复这个过程直到数据进入用户的电脑。
若是全世界就只有这一台服务器,用户访问就只这一台服务器,那么这部分数据流经每一个交换节点都会全心全意的作好转发工做,此时数据在各节点的发送速度均可以达到理论上设备所能达到的最大值。但实际上每处交换节点都有会同时转发来自其余主机的数据,这些不一样主机的数据都会汇进交换机的转发队列,交换机按照转发队列中的顺序来交错的发送这些来自不一样主机的数据,因此单历来自不一样主机的数据而言,交换机将其中一个主机的数据转发出去的速度,要小于这个主机将数据发到这个交换机的速度。
这个意思是说,比方,主机A会源源不断的发送数据到交换机,主机B和C也会源源不断的发送数据到交换机,它们会在交换机中排队,交换机只能按照队列来一个个处理,把主机A的数据发送出去,在后面排队的主机B的数据就等到很着急,A的数据发完了,而后下一个再发送主机B的数据,而后再按照队列顺序,将主机C的数据发送出去。也就是说主机C的数据是等的最长的,对于排队的这每一个主机数据来讲,它们每一个都想最早最快的出门,可是门就这么点大,总有个前后顺序,那么这个交换机的上行带宽(出口带宽)就是个关键。
显然,这个交换机的出口带宽是有限的,它毫无疑问是个枪手货,而且互联网运营商不会白白的搭建网络,因此运营商在全部的基础交换节点上设置关卡,其中交换机就会对每一个主机进行限速,也就是限制数据从你的主机流入交换机转发队列的速度,而只要流入交换机转发队列的数据,都会按照交换机的出口速度流入其余网络。这种关卡设置实际上等于限制了你的主机发送数据的速度,也就是限制了主机的出口带宽(上行带宽),而这种限制就是经过限制交换机对你主机的数据的接收速度,来将你的发送速度紧紧控制在手里,由于数据链路层的流量控制是经过控制接收方来实现的。
若是一台主机独享10Mb带宽,也就是10Mbit/s的数据发送速度,换算的话就是1250kb/s,这种状况下,若是交换机的出口带宽是100Mb,那么交换机的设置应该保证来自广播域内其余主机的数据发送速度综合不超过90Mbit/s,以保证该主机任什么时候刻均可以以10Mbit/s的速度发送数据,这才叫独享带宽,它独享的是交换机的一部分出口带宽(上行带宽)。为了保证每台主机的独享带宽,那么这个交换机最多就只能容许10台主机连到这个交换机。
以上所说的这些发送速度(带宽)都是针对从发送端发出的全部数据而言,也就是上行带宽,可是这些数据每每来自于主机的多个进程,并且也要发往五湖四海不一样目的地,好比北京上海深圳三个用户经过http同时下载主机上的数据文件,这些数据不分你我地夹杂在一块儿从主机进入交换机,当它们进入某城市的交换节点时,你们就会分道扬镳分别前往三个不一样的目的地。从各个目的地的角度而言,单位时间接收到的数据必定比从服务器发出的数据少,这种从最终端体验到的速度通常称为“下载速度”,准确说是下行速度,用户端下载速度不管如何都小于服务器端的发送速度,在刚才的例子中,即使是三个目的地的下载速度总和也必定小于服务器对这些数据的发送速度。
对于家用带宽的限制也同样,宽带服务商会在你家接入的交换机上进行带宽限制,好比安装的是1Mb独享带宽,那么交换机链接到你家电脑的端口,将会以1Mbit/s的速度接收来自服务器的数据,而后再发送给你的主机,不管服务器发送数据有多块,也不管你的主机网卡是100Mb/s仍是更高,但实际上每秒可以接收多少,就是交换机每秒发送过来的1M的数据。固然,你的下载速度是受到运营商交换机的限制,可是要访问的远程站点的服务器的数据发送速度基本不变,由于它发出的数据不仅是到这一家,它会以它的最高速度源源不断的发送数据往五湖四海,只不过当前你主机的交换机本身减慢了对它的接收速度,远程服务器的发现你这里的交换机接收速度比较慢,那么它就会下降发往你这里交换机的频率,而以它本身最高的速度,优先把数据发往其余地区其余用户的交换机。