咱们常见的射频指标不少,不少参数因为业内人士常用,常常用简称,但对普通电子爱好者来讲就显得有些晦涩,甚至有些专有名词网上去查来查去依然是云里雾里,不知所云。网络
首先,咱们了解下,什么是射频信号。射频,Radio Frequency,简称RF。那么什么样的信号叫作射频信号呢?首先射频信号指的是模拟信号,而不是数字信号。也就是说数字信号频率再高也不能叫射频信号。数字信号的传输速度单位是bps(bits per second,比特每秒),Mbps(Mega bits per second,兆比特每秒),Gbps(Giga bits per second,吉比特每秒),而模拟信号或者说交流信号的频率单位为Hz、MHz、GHz。咱们假设射频信号频率下限为10MHz,数字信号能够分为低速数字信号和高速数字信号。测试
低速数字信号:R ≪f RFui
高速数字信号:R≥f RF设计
这样低速数字信号就能够定义为R<10Mbps,高速数字信号定义为R≥10Mbps。3d
由此,咱们定义频率高于10MHz的交流信号为射频信号;blog
远小于10Mbps的数字信号为低速数字信号;部署
大于等于10Mbps的数字信号为高速数字信号。it
一、Rx Sensitivity(接收灵敏度)io
接收灵敏度,应该是射频领域中最基本的概念之一,是表示接收机可以在不超过必定误码率的状况下识别的最低信号强度。这里说误码率,是沿用GSM和WCDMA CS(Circuit Switched,电路域交换)时代的定义做一个通称。在多数状况下,BER (Bit Error Rate,误比特率)或PER (Packet Error Rate,误包率)用来考察灵敏度。而LTE用Throughput(吞吐量)来表征灵敏度,用吞吐量不低于95%的最小信号表征LTE的灵敏度。bfc
先来看下灵敏度的计算公式:
Sensitivity = 10log10(KT0) + 10log10(BW)+NF+CNRmin
其中10log10(KT0)表示的是室温25℃的底噪-174dBm,在绝对零度-273℃时咱们认为电子是不运动的,这个时候的底噪是-174dBm,室温下电子有活动了,但底噪增长的很是有限,为了计算方便,室温下的底噪还记作-174dBm。
BW:Band Width,带宽;
NF:Noise Figure,系统的噪声系数,通常指第一个低噪放的噪声系数;
CNRmin:Minimum Carrier Noise Ratio Allowed,系统解调所容许的最小载波噪声比;
以LTE 20MHz业务为例,讲解下LTE灵敏度的由来。
Sensitivity(LTE) = 10log10(KT0) + 10log10(BW)+NF+CNRmin
= -174dbm + 10log10(18*10^6)+ 6db + (-1)dB
= -174dBm+72.55+6dB+(-1)dB
=-96.45dBm
BW = 18MHz for LTE 20MHz(100 RB = 100*180kHz = 18MHz)
NF = 6db(这里的NF对系统来讲就是第一级LNA以前的插损加上该LNA自身的噪声系数NF)
CNRmin : -1db
二、SNR(信噪比)
第一部分讲灵敏度的时候咱们屡次提到过SNR,SNR就是信噪比,咱们把接收机的解调信噪比定义为不超过必定误码率的状况下解调器可以解调的最低信噪比门限,S即信号Signal,或者称为有用信号;N即噪声Noise,泛指一切非有用信号的信号。有用信号是通讯系统的发射机发射出来,对手机来讲就是基站的发射机发出来而且经过PA放大的;而噪声的来源则是很是普遍的,最典型的就是那个著名的-174dBm/Hz——天然噪声底,要记住它是一个与通讯系统类型无关的量,从某种意义上讲是从热力学推算出来的(因此它跟温度有关);另外要注意的是它其实是个噪声功率密度(因此有dBm/Hz这个量纲),咱们接收多大带宽的信号,就会接受多大带宽的噪声——因此最终的噪声功率是用噪声功率密度对带宽积分得来。
三、Tx Power(发射功率)
发射功率的重要性,在于发射机的信号须要通过空间的衰落以后才能到达接收机,那么越高的发射功率意味着越远的通讯距离。那么自由空间的损耗大约是个什么数值呢?
基站下行链路预算计算
接收器的信号接收强度为 :Si = Pout - Ct + Gt - PL + Gr – Cr,其中Pout表示基站发射的功率,Ct基站发射信号的链路损耗,Gt表示发射天线增益,PL表示空间损耗,Gr表示接收天线增益,Cr表示接收信号的链路损耗,Si表示接收机收到的信号。
自由空间损耗,指的是电磁波在空气中传播时候的能量损耗,电磁波在穿透任何介质的时候都会有损耗。自由空间损耗公式:空间损耗PL=20log(F)+20log(D)+32.4;F为频率,单位为MHz;D为距离,单位为Km。
由PL=20log(F)+20log(D)+32.4,算出来:
在2.4 GHz : 空间损耗PL=32.4+20log(2400)+20logD[km]=100 +20logD[km]
在3.5 GHz : 空间损耗PL=32.4+20log(3500)+20logD[km]=103.3 +20logD[km]
在5.8. GHz : 空间损耗PL=32.4+20log(5800)+20logD[km]=107.7 + 20 Log D[km]
2.4GHz信号的自由空间衰减值
3.5GHz信号的自由空间衰减值
LTE基站的广泛功率为40W,46dBm,假设基站部署的频率是2.4GHz,那么20千米外的信号大小只有46-126=-80dBm,依然足够手机使用;但若是是5G基站,部署在n78频段,频率是3.5GHz,那20千米之外的信号大小是多少呢?46-129.3=-83.3dBm,若是要保持和LTE基站一样的覆盖率,相应的功率就要提升3.3dB,差很少是加大一倍。
所以功率对于基站提升网络覆盖率是很是重要的,同理,保证手机端的上行功率对提升上行网络接入能力也有重要意义。
附常见的介质的衰减值参考表:
常见的介质的衰减值参考表
四、ACLR/ACPR
咱们把这些项目放在一块儿,是由于它们表征的其实是“发射机噪声”的一部分,只是这些噪声不是在发射信道以内,而是发射机泄漏到临近信道中去的部分,能够统称为“邻道泄漏”。其中ACLR和ACPR(实际上是一个东西,不过一个是在终端测试中的叫法,一个是在基站测试中的叫法罢了,终端中的CDMA指标中也叫ACPR),都是以“Adjacent Channel”命名,顾名思义,都是描述本机对本系统本频段其余设备的干扰。并且它们有个共同点,对干扰信号的功率计算也是以一个信道带宽为计。这种计量方法代表,这一指标的设计目的,是考量发射机泄漏的信号,对相同或类似制式的设备接收机的干扰——干扰信号以同频同带宽的模式落到接收机带内,造成对接收机接收信号的同频干扰。
ACLR的定义
在LTE中,ACLR的测试有两种设置,EUTRA和UTRA,前者是描述LTE系统对LTE系统的干扰,后者是考虑LTE系统对UMTS(实际上就是WCDMA和TD-SCDMA)系统的干扰。因此咱们能够看到EUTRA ACLR的测量带宽是LTE RB的占用带宽,若是很差区分,看到E就是LTE。UTRA ACLR的测量带宽是UMTS信号的占用带宽(FDD系统3.84MHz,TDD系统1.28MHz)。换句话说,ACLR/ACPR描述的是一种“对等的”干扰:发射信号的泄漏对一样或者相似的通讯系统发生的干扰。实际网络中同小区邻小区、附近小区常常会有信号泄漏过来,因此网规网优的过程实际上就是容量最大化和干扰最小化的过程,而系统自己的邻道泄漏对于邻近小区就是典型的干扰信号;基站的不一样信道或者基站与基站之间有干扰,一样的,在手机端,也会互相干扰。在通讯系统的演化中,从运营商的投资角度来讲,历来都是“平滑过渡”的,2G–>3G–>4G–>5G,即便如今都到5G时代了,2G的GSM依然在运营,LTE引入UTRA便是考虑了LTE在与UMTS共存的情形下对前代系统的射频干扰。B1频段有WCDMA,有LTE,将来也有5G,所以5G系统一样也要考虑5G对自身系统相邻信道和LTE和UMTS的影响;
LTE系统测试的UTRA和E-UTRA ACLR