一、Rx Sensitivity(接收灵敏度)前端
接收灵敏度,这应该是最基本的概念之一,表征的是接收机可以在不超过必定误码率的状况下识别的最低信号强度。这里说误码率,是沿用CS(电路交换)时代的定义做一个通称,在多数状况下,BER (bit error rate)或者PER (packet error rate)会用来考察灵敏度,在LTE时代干脆用吞吐量Throughput来定义——由于LTE干脆没有电路交换的语音信道,可是这也是一个实实在在的进化,由于第一次咱们再也不使用诸如12.2kbps RMC(参考测量信道,实际表明的是速率12.2kbps的语音编码)这样的"标准化替代品"来衡量灵敏度,而是以用户能够实实在在感觉到的吞吐量来定义之。面试
二、SNR(信噪比)算法
讲灵敏度的时候咱们经常联系到SNR(信噪比,咱们通常是讲接收机的解调信噪比),咱们把解调信噪比定义为不超过必定误码率的状况下解调器可以解调的信噪比门限(面试的时候常常会有人给你出题,给一串NF、Gain,再告诉你解调门限要你推灵敏度)。那么S和N分别何来?网络
S即信号Signal,或者称为有用信号;N即噪声Noise,泛指一切不带有有用信息的信号。有用信号通常是通讯系统发射机发射出来,噪声的来源则是很是普遍的,最典型的就是那个著名的-174dBm/Hz——天然噪声底,要记住它是一个与通讯系统类型无关的量,从某种意义上讲是从热力学推算出来的(因此它跟温度有关);另外要注意的是它其实是个噪声功率密度(因此有dBm/Hz这个量纲),咱们接收多大带宽的信号,就会接受多大带宽的噪声——因此最终的噪声功率是用噪声功率密度对带宽积分得来。函数
三、TxPower(发射功率)性能
发射功率的重要性,在于发射机的信号须要通过空间的衰落以后才能到达接收机,那么越高的发射功率意味着越远的通讯距离。测试
那么咱们的发射信号要不要讲究SNR?譬如说,咱们的发射信号SNR不好,那么到达接收机的信号SNR是否是也不好?编码
这个牵涉到刚才讲过的概念,天然噪声底。咱们假设空间的衰落对信号和噪声都是效果相同的(实际上不是,信号可以通编码抵御衰落而噪声不行)并且是如同衰减器通常做用的,那么咱们假设空间衰落-200dB,发射信号带宽1Hz,功率50dBm,信噪比50dB,接收机收到信号的SNR是多少?翻译
接收机收到信号的功率是50-200=-150Bm(带宽1Hz),而发射机的噪声50-50=0dBm经过空间衰落,到达接收机的功率是0-200=-200dBm(带宽1Hz)?这时候这部分噪声早已被"淹没"在-174dBm/Hz的天然噪声底之下了,此时咱们计算接收机入口的噪声,只须要考虑-174dBm/Hz的"基本成分"便可。 这在通讯系统的绝大部分状况下是适用的。设计
四、ACLR/ACPR
咱们把这些项目放在一块儿,是由于它们表征的其实是"发射机噪声"的一部分,只是这些噪声不是在发射信道以内,而是发射机泄漏到临近信道中去的部分,能够统称为"邻道泄漏"。
其中ACLR和ACPR(实际上是一个东西,不过一个是在终端测试中的叫法,一个是在基站测试中的叫法罢了),都是以"Adjacent Channel"命名,顾名思义,都是描述本机对其余设备的干扰。并且它们有个共同点,对干扰信号的功率计算也是以一个信道带宽为计。这种计量方法代表,这一指标的设计目的,是考量发射机泄漏的信号,对相同或类似制式的设备接收机的干扰——干扰信号以同频同带宽的模式落到接收机带内,造成对接收机接收信号的同频干扰。
在LTE中,ACLR的测试有两种设置,EUTRA和UTRA,前者是描述LTE系统对LTE系统的干扰,后者是考虑LTE系统对UMTS系统的干扰。因此咱们能够看到EUTRAACLR的测量带宽是LTE RB的占用带宽,UTRA ACLR的测量带宽是UMTS信号的占用带宽(FDD系统3.84MHz,TDD系统1.28MHz)。换句话说,ACLR/ACPR描述的是一种"对等的"干扰:发射信号的泄漏对一样或者相似的通讯系统发生的干扰。
这必定义是有很是重要的实际意义的。实际网络中同小区邻小区还有附近小区常常会有信号泄漏过来,因此网规网优的过程实际上就是容量最大化和干扰最小化的过程,而系统自己的邻道泄漏对于邻近小区就是典型的干扰信号;从系统的另外一个方向来看,拥挤人群中用户的手机也可能成为互相的干扰源。
一样的,在通讯系统的演化中,历来是以"平滑过渡"为目标,即在现有网络上升级改造进入下一代网络。那么两代甚至三代系统共存就须要考虑不一样系统之间的干扰,LTE引入UTRA便是考虑了LTE在与UMTS共存的情形下对前代系统的射频干扰。
五、Modulation Spectrum/Switching Spectrum
而退回到GSM系统,Modulation Spectrum(调制谱)和Switching Spectrum(切换谱,也有称为开关谱的,对舶来品不一样翻译的缘故)也是扮演了邻道泄漏类似的角色。不一样的是它们的测量带宽并非GSM信号的占用带宽。从定义上看,能够认为调制谱是衡量同步系统之间的干扰,而切换谱是衡量非同步系统之间的干扰(事实上若是不对信号作gating,切换谱必定是会把调制谱淹没掉的)。
这就牵涉到另外一个概念:GSM系统中,各小区之间是不一样步的,虽然它用的是TDMA;而相比之下,TD-SCDMA和以后的TD-LTE,小区之间是同步的(那个飞碟形状或者球头的GPS天线永远是TDD系统摆脱不了的桎梏)。
由于小区间不一样步,因此A小区上升沿/降低沿的功率泄漏可能落到B小区的payload部分,因此咱们用切换谱来衡量此状态下发射机对邻信道的干扰;而在整个577us的GSM timeslot里,上升沿/降低沿的占比毕竟不多,多数时候两个相邻小区的payload部分会在时间上交叠,评估这种状况下发射机对邻信道的干扰就能够参考调制谱。
六、SEM (Spectrum Emission Mask)
讲SEM的时候,首先要注意它是一个"带内指标",与spurious emission区分开来,后者在广义上是包含了SEM的,可是着重看的实际上是发射机工做频段以外的频谱泄漏,其引入也更多的是从EMC(电磁兼容)的角度。
SEM是提供一个"频谱模版",而后在测量发射机带内频谱泄漏的时候,看有没有超出模版限值的点。能够说它与ACLR有关系,可是又不相同:ACLR是考虑泄漏到邻近信道中的平均功率,因此它以信道带宽为测量带宽,它体现的是发射机在邻近信道内的"噪声底";SEM反映的是以较小的测量带宽(每每100kHz到1MHz)捕捉在邻近频段内的超标点,体现的是"以噪声底为基础的杂散发射"。
若是用频谱仪扫描SEM,能够看到邻信道上的杂散点会广泛的高出ACLR均值,因此若是ACLR指标自己没有余量,SEM就很容易超标。反之SEM超标并不必定意味着ACLR不良,有一种常见的现象就是有LO的杂散或者某个时钟与LO调制份量(每每带宽很窄,相似点频)串入发射机链路,这时候即使ACLR很好,SEM也可能超标。
七、EVM(偏差矢量)
首先,EVM是一个矢量值,也就是说它有幅度和角度,它衡量的是"实际信号与理想信号的偏差",这个量度能够有效的表达发射信号的"质量"——实际信号的点距离理想信号越远,偏差就越大,EVM的模值就越大。
在(一)中咱们曾经解释过为何发射信号的信噪比不是那么重要,缘由有二:第一是发射信号的SNR每每远远高于接收机解调所须要的SNR;第二是咱们计算接收灵敏度时参考的是接收机最恶劣的状况,即在通过大幅度空间衰落以后,发射机噪声早已淹没在天然噪声底之下,而有用信号也被衰减到接收机的解调门限附近。
可是发射机的"固有信噪比"在某些状况下是须要被考虑的,譬如近距离无线通讯,典型的如802.11系列。
802.11系列演进到802.11ac的时候,已经引入了256QAM的调制,对于接收机而言,即使不考虑空间衰落,光是解调这样高阶的正交调制信号就已经须要很高的信噪比,EVM越差,SNR就越差,解调难度就越高。
作802.11系统的工程师,每每用EVM来衡量Tx线性度;而作3GPP系统的工程师,则喜欢用ACLR/ACPR/Spectrum来衡量Tx线性性能。
从起源上讲,3GPP是蜂窝通讯的演进道路,从一开始就不得不关注邻信道、隔信道(adjacent channel, alternative channel)的干扰。换句话说,干扰是影响蜂窝通讯速率的第一大障碍,因此3GPP在演进的过程当中,老是以"干扰最小化"为目标的:GSM时代的跳频,UMTS时代的扩频,LTE时代RB概念的引入,都是如此。
而802.11系统是固定无线接入的演进,它是秉承TCP/IP协议精神而来,以"尽最大能力的服务"为目标,802.11中常常会有时分或者跳频的手段来实现多用户共存,而布网则比较灵活(毕竟以局域网为主),信道宽度也灵活可变。总的来讲它对干扰并不敏感(或者说容忍度比较高)。
通俗的讲,就是蜂窝通讯的起源是打电话,打不通电话用户会去电信局砸场子;802.11的起源是局域网,网络很差大几率是先耐着性子等等(其实这时候设备是在做纠错和重传)。
这就决定了3GPP系列必然以ACLR/ACPR一类"频谱再生"性能为指标,而802.11系列则能够以牺牲速率来适应网络环境。
具体说来,"以牺牲速率来适应网络环境",就是指的802.11系列中以不一样的调制阶数来应对传播条件:当接收机发现信号差,就当即通知对面的发射机下降调制阶数,反之亦然。前面提到过,802.11系统中SNR与EVM相关很大,很大程度上EVM下降能够提升SNR。这样咱们就有两种途径改善接收性能:一是下降调制阶数,从而下降解调门限;二是下降发射机EVM,使得信号SNR提升。
由于EVM与接收机解调效果密切相关,因此802.11系统中以EVM来衡量发射机性能(相似的,3GPP定义的蜂窝系统中,ACPR/ACLR是主要影响网络性能的指标);又由于发射机对EVM的恶化主要由于非线性引发(譬如PA的AM-AM失真),因此EVM一般做为衡量发射机线性性能的标志。
7.一、EVM与ACPR/ACLR的关系
很难定义EVM与ACPR/ACLR的定量关系,从放大器的非线性来看,EVM与ACPR/ACLR应该是正相关的:放大器的AM-AM、AM-PM失真会扩大EVM,同时也是ACPR/ACLR的主要来源。
可是EVM与ACPR/ACLR并不老是正相关,咱们这里能够找到一个很典型的例子:数字中频中经常使用的Clipping,即削峰。Clipping是削减发射信号的峰均比(PAR),峰值功率下降有助于下降经过PA以后的ACPR/ACLR;可是Clipping同时会损害EVM,由于不管是限幅(加窗)仍是用滤波器方法,都会对信号波形产生损伤,于是增大EVM。
7.二、PAR的源流
PAR(信号峰均比)一般用CCDF这样一个统计函数来表示,其曲线表示的是信号的功率(幅度)值和其对应的出现几率。譬如某个信号的平均功率是10dBm,它出现超过15dBm功率的统计几率是0.01%,咱们能够认为它的PAR是5dB。
PAR是现代通讯系统中发射机频谱再生(诸如ACLP/ACPR/Modulation Spectrum)的重要影响因素。峰值功率会将放大器推入非线性区从而产生失真,每每峰值功率越高、非线性越强。
在GSM时代,由于GMSK调制的衡包络特性,因此PAR=0,咱们在设计GSM功放的时候常常把它推到P1dB,以获得最大限度的效率。引入EDGE以后,8PSK调制再也不是衡包络,所以咱们每每将功放的平均输出功率推到P1dB如下3dB左右,由于8PSK信号的PAR是3.21dB。
UMTS时代,不管WCDMA仍是CDMA,峰均比都比EDGE大得多。缘由是码分多址系统中信号的相关性:当多个码道的信号在时域上叠加时,可能出现相位相同的状况,此时功率就会呈现峰值。
LTE的峰均比则是源自RB的突发性。OFDM调制是基于将多用户/多业务数据在时域上和频域上都分块的原理,这样就可能在某一"时间块"上出现大功率。LTE上行发射用SC-FDMA,先用DFT将时域信号扩展到频域上,等于"平滑"掉了时域上的突发性,从而下降了PAR。
八、干扰指标汇总
这里的"干扰指标",指的是出了接收机静态灵敏度以外,各类施加干扰下的灵敏度测试。实际上研究这些测试项的由来是颇有意思的。
咱们常见的干扰指标,包括Blocking,Desense,Channel Selectivity等。
8.一、Blocking(阻塞)
Blocking其实是一种很是古老的RF指标,早在雷达发明之初就有。其原理是以大信号灌入接收机(一般最遭殃的是第一级LNA),使得放大器进入非线性区甚至饱和。此时一方面放大器的增益骤然变小,另外一方面产生极强非线性,于是对有用信号的放大功能就没法正常工做了。
另外一种可能的Blocking实际上是经过接收机的AGC来完成的:大信号进入接收机链路,接收机AGC所以产生动做下降增益以确保动态范围;可是同时进入接收机的有用信号电平很低,此时增益不足,进入到解调器的有用信号幅度不够。
Blocking指标分为带内和带外,主要是由于射频前端通常会有频带滤波器,对于带外blocking会有抑制做用。可是不管带内仍是带外,Blocking信号通常都是点频,不带调制。事实上彻底不带调制的点频信号在现实世界里并很少见,工程上只是把它简化成点频,用以(近似)替代各类窄带干扰信号。
对于解决Blocking,主要是RF出力,说白了就是把接收机IIP3提升,动态范围扩大。对于带外Blocking,滤波器的抑制度也是很重要的。
8.二、AM Suppression
AM Suppression是GSM系统特有的指标,从描述上看,干扰信号是与GSM信号类似的TDMA信号,与有用信号同步且有固定delay。
这种场景是模拟GSM系统中邻近小区的信号,从干扰信号的频偏要求大于6MHz(GSM带宽200kHz)来看,这是很典型的邻近小区信号配置。因此咱们能够认为AM Suppression是一个反映GSM系统实际工做中接收机对邻小区的干扰容忍度。
8.二、Adjacent (Alternative) Channel Suppression (Selectivity)
这里咱们统称为"邻信道选择性"。在蜂窝系统中,咱们组网除了要考虑同频小区,还要考虑邻频小区,其缘由能够在咱们以前讨论过的发射机指标ACLR/ACPR/Modulation Spectrum中能够找到:由于发射机的频谱再生会有很强的信号落到相邻频率中(通常来讲频偏越远电平越低,因此邻信道通常是受影响最大的),并且这种频谱再生事实上是与发射信号有相关性的,即同制式的接收机极可能把这部分再生频谱误认为是有用信号而进行解调,所谓鹊巢鸠占。
举个例子:若是两个相邻小区A和B刚好是邻频小区(通常会避免这样的组网方式,这里只是讨论一个极限场景),当一台注册到A小区的终端游走到两个校区交界处,可是两个小区的信号强度尚未到切换门限,所以终端依然保持A小区链接;B小区基站发射机的ACPR较高,所以终端的接收频带内有较高的B小区ACPR份量,与A小区的有用信号在频率上重叠;由于此时终端距离A小区基站较远,所以接收到的A小区有用信号强度也很低,此时B小区ACPR份量进入到终端接收机时就能够对原有用信号形成同频干扰。
若是咱们注意看邻道选择性的频偏定义,会发现有Adjacent和Alternative的区别,对应ACLR/ACPR的第一邻道、第二邻道,可见通讯协议中"发射机频谱泄漏(再生)"与"接收机邻道选择性"其实是成对定义的。
8.三、Co-Channel Suppression (Selectivity)
这种描述的是绝对的同频干扰,通常是指两个同频小区之间的干扰模式。
按照以前咱们描述的组网原则,两个同频小区的距离应该尽可能远,可是即使再远,也会有信号彼此泄漏,只是强度高低的区别。对于终端而言,两个校区的信号均可以认为是"正确的有用信号"(固然协议层上有一组接入规范来防范这种误接入),衡量终端的接收机可否避免"西风压倒东风",就看它的同频选择性。
8.4 总结
Blocking是"大信号干扰小信号",RF尚有周旋余地;而以上的AM Suppression, Adjacent (Co/Alternative) Channel Suppression (Selectivity)这些指标,是"小信号干扰大信号",纯RF的工做意义不大,仍是靠物理层算法为主。
Single-tone Desense是CDMA系统独有的指标,它有个特色:做为干扰信号的single-tone是带内信号,并且距离有用信号很近。这样就有可能产生两种信号落到接收频域内:第一种是因为LO的近端相噪,LO与有用信号混频造成的基带信号、和LO相噪与干扰信号混频造成的信号,都会落到接收机基带滤波器的范围以内,前者是有用的信号然后者是干扰;第二种是因为接收机系统中的非线性,有用信号(有必定带宽,譬如1.2288MHz的CDMA信号)可能与干扰信号在非线性器件上产生交调,而交调产物有可能一样落在接收频域以内成为干扰。
Single-tone desense的起源是北美在发起CDMA系统时,与原有的模拟通讯系统AMPS采用了同一频段,两张网长期共存,做为后来者的CDMA系统必须考虑AMPS系统对自身的干扰。
到这里我想起当年被称为"通则不动,动则不通"的小灵通,由于长期占用1900~1920MHz频率,因此天朝TD-SCDMA/TD-LTE B39的实施一直是在B39的低段1880~1900MHz,直到小灵通退网为止。
教科书上对Blocking的解释比较简单:大信号进入接收机放大器使得放大器进入非线性区,实际增益变小(对有用信号的)。
可是这样很难解释两种场景:
场景一:前级LNA线性增益18dB,当大信号灌入使其达到P1dB的时候,增益是17dB;若是没有引入其余影响(默认LNA的NF等都没有发生变化),那么对整个系统的噪声系数影响其实很是有限,无非是后级NF在计入到总NF时分母变小了一点,对整个系统的灵敏度影响不大。
场景二:前级LNA的IIP3很高所以没有受影响,受影响的是第二级gain block(干扰信号使其达到P1dB附近),在这种状况下整个系统NF的影响就更小了。
我在这里抛砖引玉,提出一个观点:Blocking的影响可能分两部分,一部分是教科书上所讲的Gain受到压缩,另外一部分其实是放大器进入非线性区以后,有用信号在这个区域里发生了失真。这种失真可能包括两部分,一部分是纯粹的放大器非线性形成有用信号的频谱再生(谐波份量),另外一部分是大信号调制小信号的Cross Modulation。(能够理解)
由此咱们还提出另外一个设想:若是咱们要简化Blocking测试(3GPP要求是扫频,很是费时间),也许能够选取某些频点,这些频点出现Blocking信号时对有用信号的失真影响最大。
从直观上看,这些频点可能有:f0/N和f0*N(f0是有用信号频率,N是天然数)。前者是由于大信号在非线性区自身产生的N次谐波份量正好叠加在有用信号频率f0上造成直接干扰,后者是叠加在有用信号f0的N次谐波上进而影响到输出信号f0的时域波形——解释一下:根据帕塞瓦尔定律,时域信号的波形其实是频域基频信号与各次谐波的总和,当频域上N次谐波的功率发生变化时,时域上对应的变化就是时域信号的包络变化(发生了失真)。
九、动态范围,温度补偿与功率控制
动态范围,温度补偿和功率控制不少状况下是"看不到"的指标,只有在进行某些极限测试的时候才会表现出它们的影响,可是自己它们却体现着RF设计中最精巧的部分。
9.一、发射机动态范围
发射机动态范围表征的是发射机"不损害其余发射指标前提下"的最大发射功率和最小发射功率。
"不损害其余发射指标"显得很宽泛,若是看主要影响,能够理解为:最大发射功率下不损害发射机线性度,最小发射功率下保持输出信号信噪比。
最大发射功率下,发射机输出每每逼近各级有源器件(尤为末级放大器)的非线性区,由此常常发生的非线性表现有频谱泄漏和再生(ACLR/ACPR/SEM),调制偏差(PhaseError/EVM)。此时最遭殃的基本上都是发射机线性度,这一部分应该比较好理解。
最小发射功率下,发射机输出的有用信号则是逼近发射机噪声底,甚至有被"淹没"在发射机噪声中的危险。此时须要保障的是输出信号的信噪比(SNR),换句话说就是在最小发射功率下的发射机噪声底越低越好。
在实验室曾经发生过一件事情:有工程师在测试ACLR的时候,发现功率下降ACLR反而更差(正常理解是ACLR应该随着输出功率下降而改善),当时第一反应是仪表出问题了,可是换一台仪表测试结果依然如此。咱们给出的指导意见是测试低输出功率下的EVM,发现EVM性能不好;咱们判断多是RF链路入口处的噪声底就很高,对应的SNR显然不好,ACLR的主要成分已经不是放大器的频谱再生、而是经过放大器链路被放大的基带噪声。
9.二、接收机动态范围
接收机动态范围其实与以前咱们讲过的两个指标有关,第一个是参考灵敏度,第二个是接收机IIP3(在讲干扰指标的时候屡次提到)。
参考灵敏度实际上表征的就是接收机可以识别的最小信号强度,这里再也不赘述。咱们主要谈一下接收机的最大接收电平。
最大接收电平是指接收机在不发生失真状况下可以接收的最大信号。这种失真可能发生在接收机的任何一级,从前级LNA到接收机ADC。对于前级LNA,咱们惟一可作的就是尽可能提升IIP3,使其能够承受更高的输入功率;对于后面逐级器件,接收机则采用了AGC(自动增益控制)来确保有用信号落在器件的输入动态范围以内。简单的说就是有一个负反馈环路:检测接收信号强度(太低/太高)-调整放大器增益(调高/调低)-放大器输出信号确保落在下一级器件的输入动态范围以内。
这里咱们讲一个例外:多数手机接收机的前级LNA自己就带有AGC功能,若是你仔细研究它们的datasheet,会发现前级LNA会提供几个可变增益段,每一个增益段有其对应的噪声系数,通常来说增益越高、噪声系数越低。这是一种简化的设计,其设计思想在于:接收机RF链路的目标是将输入到接收机ADC的有用信号保持在动态范围以内,且保持SNR高于解调门限(并不苛求SNR越高越好,而是"够用就行",这是一种很聪明的作法)。所以当输入信号很大时,前级LNA下降增益、损失NF、同时提升IIP3;当输入信号小时,前级LNA提升增益、减少NF、同时下降IIP3。
9.三、温度补偿
通常来说,咱们只在发射机做温度补偿。
固然,接收机性能也是受到温度影响的:高温下接收机链路增益下降,NF增高;低温下接收机链路增益提升,NF下降。可是因为接收机的小信号特性,不管增益仍是NF的影响都在系统冗余范围以内。
对于发射机温度补偿,也能够细分为两部分:一部分是对发射信号功率准确度的补偿,另外一部分是对发射机增益随温度变化进行补偿。
现代通讯系统发射机通常都进行闭环功控(除了略为"古老"的GSM系统和Bluetooth系统),所以通过生产程序校准的发射机,其功率准确度事实上取决于功控环路的准确度。通常来说功控环路是小信号环路,且温度稳定性很高,因此对其进行温度补偿的需求并不高,除非功控环路上有温度敏感器件(譬如放大器)。
对发射机增益进行温度补偿则更加常见。这种温度补偿常见的有两种目的:一种是"看得见的",一般对没有闭环功控的系统(如前述GSM和Bluetooth),这类系统一般对输出功率精确度要求不高,因此系统能够应用温度补偿曲线(函数)来使RF链路增益保持在一个区间以内,这样当基带IQ功率固定而温度发生变化时,系统输出的RF功率也能保持在必定范围以内;另外一种是"看不见的",一般是在有闭环功控的系统中,虽然天线口的RF输出功率是由闭环功控精确控制的,可是咱们须要保持DAC输出信号在必定范围内(最多见的例子是基站发射系统数字预失真(DPD)的须要),那么咱们就须要将整个RF链路的增益比较精确的控制在某个值左右——温补的目的就在于此。
发射机温补的手段通常有可变衰减器或者可变放大器:早期精度稍低以及低成本精度要求较低的状况下,温补衰减器比较常见;对精度要求更高的情形下,解决方案通常是:温度传感器+数控衰减器/放大器+生产校准。
9.4 发射机功率控制
讲完动态范围和温度补偿,咱们来说一个相关的、并且很是重要的概念:功率控制。
发射机功控是大多数通讯系统中必需的功能,在3GPP中常见的诸如ILPC、OLPC、CLPC,在RF设计中都是必需被测试、常常出问题、缘由很复杂的。咱们首先来说发射机功控的意义。
全部的发射机功控目的都包含两点:功耗控制和干扰抑制。
咱们首先说功耗控制:在移动通讯中,鉴于两端距离变化以及干扰电平高低不一样,对发射机而言,只须要保持"足够让对方接收机准确解调"的信号强度便可;太低则通讯质量受损,太高则空耗功率毫无心义。对于手机这样以电池供电的终端更是如此,每一毫安电流都需锱铢必量。
干扰抑制则是更加高级的需求。在CDMA类系统中,因为不一样用户共享同一载频(而以正交用户码得以区分),所以在到达接收机的信号中,任何一个用户的信号对于其余用户而言,都是覆盖在同一频率上的干扰,若各个用户信号功率有高有高低,那么高功率用户就会淹没掉低功率用户的信号;所以CDMA系统采起功率控制的方式,对于到达接收机的不一样用户的功率(咱们称之为空中接口功率,简称空口功率),发出功控指令给每一个终端,最终使得每一个用户的空口功率同样。这种功控有两个特色:第一是功控精度很是高(干扰容限很低),第二是功控周期很是短(信道变化可能很快)。
在LTE系统中,上行功控也有干扰抑制的做用。由于LTE上行是SC-FDMA,多用户也是共享载频,彼此间也互为干扰,因此空口功率一致一样也是必需的。
GSM系统也是有功控的,GSM中咱们用"功率等级"来表征功控步长,每一个等级1dB,可见GSM功率控制是相对粗糙的。
干扰受限系统
这里提一个相关的概念:干扰受限系统。CDMA系统是一个典型的干扰受限系统。从理论上讲,若是每一个用户码都彻底正交、能够经过交织、解交织彻底区分开来,那么实际上CDMA系统的容量能够是无限的,由于它彻底能够在有限的频率资源上用一层层扩展的用户码区分无穷多的用户。可是实际上因为用户码不可能彻底正交,所以在多用户信号解调时不可避免的引入噪声,用户越多噪声越高,直到噪声超过解调门限。
换而言之,CDMA系统的容量受限于干扰(噪声)。
GSM系统不是一个干扰受限系统,它是一个时域和频域受限的系统,它的容量受限于频率(200kHz一个载频)和时域资源(每一个载频上可共享8个TDMA用户)。因此GSM系统的功控要求不高(步长较粗糙,周期较长)。
9.5 发射机功率控制与发射机RF指标
讲完发射机功控,咱们进而讨论一下在RF设计中可能影响发射机功控的因素(相信不少同行都遇到过闭环功控测试不过的郁闷场景)。
对于RF而言,若是功率检测(反馈)环路设计无误,那么咱们对发射机闭环功控能作的事情并很少(绝大多数工做都是由物理层协议算法完成的),最主要的就是发射机带内平坦度。
由于发射机校准事实上只会在有限的几个频点上进行,尤为在生产测试中,作的频点越少越好。可是实际工做场景中,发射机是彻底可能在频段内任一载波工做的。在典型的生产校准中,咱们会对发射机的高中低频点进行校准,意味着高中低频点的发射功率是准确的,因此闭环功控在进行过校准的频点上也是无误的。然而,若是发射机发射功率在整个频段内不平坦,某些频点的发射功率与校准频点误差较大,所以以校准频点为参考的闭环功控在这些频点上也会发生较大偏差乃至出错。