通信系统原理•教材:通信原理周炯磐等著•主要参考书:通信原理樊昌信等•Digitalandanalogcommunicationsystems5theditionLeonW.CouchII•课时:68小时•先修课:高等数学,概率论与随机过程,信号与系统,复变函数,线性代数等•授课方式:课堂教学•内容:通信传输系统基本原理•通信发展历史:远古----非电通信数字通信:旗语,烽火台(光通信?)等等•近代:电通信1844Morse;1876:Bell;1894:Lodge(wireless);1900:Marconi;1937:Reeves(PCM);1948:Shannon;1958:IC;60:Elect.Tel.SwitchingSystem;1965:Satellite;1972:CellularTelephone(Motorola);1976:PC;80:Opticalfiber;90:DWDM+SDH+Wireless;•本课涉及的通信系统是指电或电子通信系统•通信:信息的传递过程,因此它包含了传输和交换----Transmissionandswitching•通信系统原理主要要解决的问题是:信息的传递,即通信传输第一章序论•给出通信原理课程的研究对象系统框图等•给出一些基本定义和概念信息,消息,信号等•给出通信系统的基本类型和通信方式模拟通信系统和数字通信系统等•给出通信系统的主要性能指标通信系统的通信质量等本章内容提要•通信的目的:保证消息(或信息)的传递,消息的种类多种多样,不同的消息有不同的系统:电报,电话,数据…•典型的通信系统模型:point-topointcommunicationsystem,将消息从一个点(信源)传送到一定距离以外的目的地(信宿)。因此几乎所有的电子系统都是通信系统。•通信系统基本功能是消息的传递,本课程研究的主要对象是信息传输的原理和问题----获得可以广泛应用的通信系统分析和设计方法•我们不关心系统的具体实现,我们关心的是符合什么样条件的通信系统是最佳的。1.通信系统的组成•一个P-TO-P通信系统的基本模型为:通信系统的基本框图infoTCRsourcetransmitterchannelreceiversinknoise•结合系统模型介绍一些基本概念和定义•信源:消息的产生----离散消息和连续消息•几个名词:消息(message),信息(information),信号(signal)•Message:信源产生的信息的物理表现•Information:消息的数学抽象(定义)•Signal:传输的电信号,包含了消息。我们研究的重点是电信号的传输。•信号和消息都是信息的物理体现。•离散信号源(digitalsource):消息可取状态(值)的数目为有限个。•模拟信号源(analogsource):消息可取状态(值)的数目为无限个。基本定义和概念模拟与数字信号•模拟信号:状态无限,因此信号的时域表达式可以是时间连续函数也可以是时间离散函数•数字信号:状态有限,因此信号的时域表达式可以是时间连续函数也可以是时间离散函数•如:二进制的一可以是高电平,零低电平;同样一可以是频率为f1的正弦波,零是频率为f2的正弦波tf(t)tf(t)时间连续函数时间离散函数•数字通信系统:传输数字消息的通信系统模拟与数字通信系统infoTCRDigitalsourcetransmitterchannelreceiversinknoise加密器编码器调制器解密器解码器解调器•框图:模拟通信系统infoTCRAnalogsourcetransmitterchannelreceiversinknoise信号处理调制器解调器信号处理•分类:随意性•按信源特征分:数字通信系统和模拟通信系统•按消息的物理特征分:电报,电话,图象等•按调制方式分:FM,PM,AM等•按传输媒介分:有线,无线等•按信号的复用方式分:FDM,TDM,WDM,CDM等•通信方式:•单工(simplex)•半双工(half-duplex)•全双工(full-duplex)•数字通信中的串序和并序传输方式2.通信系统的分类和通信方式•信息:消息中有意义部分。因此,我们可以对消息中信息进行度量----信息量。•消息中所含的信息量I与该消息发生的概率P(x)有关,其关系应满足以下条件:1I是P(x)的函数:I=I[P(x)]2P(x)越小I越大;且P(x)=1则I=03若干独立事件构成的消息,所含的信息量等于各独立事件信息量之和:I[P(x1),P(x2),…]=I[P(x1)]+I[P(x2)]+….满足以上条件的函数-----对数函数:I=loga[1/P(x)]=-logaP(x)•其中a=2,I为bit;a=e,I为nit。3.信息及度量•信息量的计算:•M个相互独立的消息等概率传输,每个消息的信息量为:I=log2[1/(1/M)]=log2Mbits•M=2,I=1bit•M=2k,I=kbits•信源的平均信息量:信源所发出的每个消息所含信息量的统计平均值:H=ΣPjIj=ΣPjlog2(1/Pj)bitsH:信息源的熵(entropy)。H也可理解为信源中每个消息所含的平均信息量。H越大,每个消息的I越大。希望H最大,数学告诉我们只有在消息等概分布时H为最大。示例与信源的平均信息量•可用概率密度函数来描述。连续消息源的平均信息量为:H1(x)=-∞∫+∞f(x)log2[f(x)]dxBitf(x)为连续消息的概率密度函数。连续消息的信息量计算Ex.:supposeadigitalsourceformedbyfourdigits0(1/8),1(1/2),2(1/8),3(1/4).Find:a)theentropyofthesourceb)theinformationquantityforeachdigit.Sol.:H=1/8log2(8)+1/2log2(2)+1/8log2(8)+1/4log2(4)=1.75bitsI1=log8=3bits,I2=log2=1bit,I3=log8=3bits,I4=log4=2bits•性能指标质量指标:是整个通信系统的综合评估•通信系统:有效性,可靠性,适应性,标准性,经济性,可维护性和友好性•但从根本来说,通信系统的目的是将信息从信源传递到信宿,因此可靠性(质量)和有效性(传输效率)是首先要考虑的。•模拟通信系统的评估:可靠性:发与收信号的差异程度----均方误差(噪声的影响,系统的不完善因素)有效性:消息中所含的信息量,单位时间可传递的信息量多少。•数字通信系统:信息传输速率和发生差错的概率(误码概率)4.通信系统的主要性能指标•码元:信源发出的消息或代表每个消息的信号(符号)•码元速率RB:信源每秒钟发出的码元数,单位波特(Baud),又称符号速率(symbolrate),波特率•信息速率Rb(比特率,bitrate):信源每秒钟发出的平均比特数。单位:bpsorbit/sec•码元速率和比特速率的关系:1个码元可以含多比特或小于1个比特的信息,因此一般情况下码元速率与比特速率在数值上是不等的。•例:四进制等概分布情况下,一个码元含二比特的信息量。在数值上我们有Rb=2RB.二进制时,在等概情况下,Rb=RB。也就是说只有在二进制等概分布时才有码元速率和比特速率在数值上相同。码元速率和比特速率•数字通信系统衡量传输消息的可靠程度:误码率或误信率BER。通信系统一般要求BER≤10-6,当BER≥10-3时通信中断。•模拟通信系统衡量传输消息的可靠程度:信号与噪声功率比(信噪比,S/N),单位dB传输信号的保真程度差错率和信噪比