语音降噪实时处理算法研究

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

武汉理工大学硕士学位论文语音降噪实时处理算法研究姓名:王海峰申请学位级别:硕士专业:通信与信息系统指导教师:陈伟20090501语音降噪实时处理算法研究作者:王海峰学位授予单位:武汉理工大学相似文献(10条)1.学位论文王聪基于SOPC的混叠语音降噪滤波算法的研究2009随着电子计算机和人工智能机器的迅速发展,语音技术被应用在数字通信、智能控制等领域。由于语音信号的引入,打破了原有人机接口在地点和设备方面的限制,改变了人和机器之间的关系,使人对机器的操作更加便利,这将成为“智能化”控制设备的最佳途径。但是,由于语音信号本身的复杂性以及各种应用环境与实验室环境的巨大差异,背景噪声和混叠语音干扰降低了语音识别系统、语音控制系统的性能,尤其在去除混叠语音干扰方面仍存在许多问题,如模型建立、计算量及硬件实现等。可以说,目前各方面的研究也都还在寻找比较完备的去除混叠语音干扰的手段。针对这种情况,本文以语音识别技术在控制领域的应用为背景,将语音降噪、混叠语音分离技术结合起来,从提取语音特征入手,利用语音信号的非线性产生模型、能量分离算法,去除干扰语音的主要能量,尽可能多而且完整的保留有用语音的能量这一角度进行研究。在应用语音信号前对它进行前端的降噪处理,能得到相对纯净的语音信号。论文主要研究内容如下:1.对语音控制系统中前端语音滤波处理的必要性和可能性进行分析;2.收集汉语语音数据(包括纯净语音、混叠语音干扰等),为混叠语音的降噪分析提供实验依据;3.通过阅读大量资料和对实验数据的分析,寻找算法的理论依据和去除与有用语音混叠的干扰语音的办法。从汉语语音特征角度考虑,利用能量分离算法,通过对干扰语音单个共振峰的能量分离操作,达到抑制干扰语音能量的目的,有别于传统的滤波方法;4.通过MATLAB对3中推导得出的算法进行仿真验证,完成滤波算法的仿真。通过对信号的归一化处理,验证算法的滤波效果,在整个时间段内,输出信号与有用信号的相对误差大部分都在20%以下;5.在算法仿真的基础上,利用DSPBuilder构建滤波系统的硬件加速模块,通过Avalon总线挂接到NiosⅡ处理器系统中。最后尝试以SOPC技术结合NiosⅡ软核处理器完成硬件实现的总体设计。本课题研究的混叠语音降噪滤波算法适用于语音控制系统。在应用语音信号前利用本滤波算法对它进行前端的降噪处理,得到相对纯净的语音信号,在混叠语音分离技术尚不完善的情况下,一定程度上能达到净化处理的效果,提高了语音信号应用系统的精准度和适应性。因此,该算法从混叠语音分离技术尚不完善的现状来看,具有一定应用价值,并且有继续完善算法和尝试算法SOPC实现的必要性。2.会议论文侯新国.吴正邦一种改进的Hartley域自适应语音降噪算法及实现2003提出了一种改进的基于离散Hartley变换(DHT)自适应滤波算法(DHT-LMS),将其应用于电话通信噪声抵消系统,并进行了实验研究,其结果表明,将该算法应用于自适应语音降噪系统,能获得较好的降噪效果,且基于信号处理器TMS320LF2407上开发实现简单,系统结构紧凑、可靠性高.3.学位论文姚亚明说话人识别中的语音预处理算法研究与DSP实现2004本文基于16位定点DSPTMS320C5402实施了一种频域谱相减算法,频域谱相减法的基础是单麦克输入,算法用于以说话人识别为核心的语音门锁的预处理部分。语音预处理是一个语音信号处理的基础研究。在语音通信系统中,加性宽带背景噪声严重损伤了语音质量和可懂度,而且宽带噪声与语音信号在时域和频域上完全重叠,滤除宽带噪声的难度较大。目前,由于数字信号处理器的兴起,使得信号处理算法的实时实现成为可能,因此本文所作的研究有非常强烈的现实意义。首先,对背景噪声进行初始估计,噪声是频域的统计平均,统计是在每次识别或训练前进行的。谱相减过程,利用FFT变换将观测信号变换到频域,减去估计的噪声幅度谱,得到增强的频域信号。估计的噪声幅度谱是受基于短时能量的话音激活检测来控制的。当观测信号的幅度谱的能量小于估计的域值时,对噪声谱作出更新。当观测信号的幅度谱大于估计的域值时,对此帧信号进行谱相减。谱相减采用全波整流的方式进行。对于增强后的频域信号,再进行IFFT变换,即可得到时域信号。对增强后的信号,求取线性预测系数,作为说话人识别的特征矢量。本文主要分七个部分来论述。本文第一章,简要回顾了语音信号处理的历史,介绍了语音信号处理的学科分类,提出了本文所要研究的任务相关知识及章节安排。第二章,研究了语音特性,特别是频率特性,这对于整个语音信号处理是较为关键的;其次,对于语音信号的采集、语音预加重,语音的平滑做了研究,并对部分环节做了仿真;第三,研究了语音的线性预测。第三章,经过对语音降噪算法的研究,提出了切合实际的算法,基于频域的幅度谱相减法。语音降噪算法的前提是观测信号中的噪声为加性高斯白噪声。首先,对背景噪声进行估计,噪声是统计平均的频域。首先利用FFT变换将观测信号变换到频域,减去估计的噪声谱,得到增强以后的频域信号。再对频域信号作IFFT变换,即可得到时域信号。在谱相减时,要对信号和噪声作出合理的区分,这是本算法的难点,也是需要改进之处。在最后,对于仿真结果进行了说明。第四章,在说话人识别系统要求下,提出语音预处理算法的硬件平台。硬件主要是以TMS320C5402为核心,通过编码解码芯片AD50与DSP串行通信。DSP采用DMA通信方式。本章说明DSP与AD50的通信控制及配置方法。第五章,对于谱相减算法进行实施。本章主要介绍了实现RFFT的方法。实现FIR滤波的方法,介绍了循环缓冲的实现过程。本章的算法是本文的核心。本章也是对DSP软件库函数应用的小结。第六章,在前文充分论证的基础上,实施了谱相减算法和Durbin算法。给出了部分实验结果。第七章,总结了全文。总结了本文主要工作,探讨了以及后续工作需要改进之处。总之,本文是语音信号处理的基础工作,是实时信号处理的一个探索,是后继者可以参考的资料。4.学位论文陈亚芳无线语音通信降噪技术的研究与实现2005由于无线语音在传输过程中不可避免地会受到风、雨、雷、电的干扰;还有来自周围环境的干扰及通信设备内部电噪声等的干扰,使得原始的纯净语音成为被噪声污染的带噪语音,从而对无线语音通信的质量产生严重影响。因此,研究无线语音降噪技术与语音增强算法、研制无线语音降噪设备对于提高无线语音通信质量有着重要意义。本文针对高质量无线语音传输的需求,对语音处理及语音降噪的基础理论、关键技术及降噪设备的实现方法展开研究,在此基础上设计实现了无线语音通信降噪器实验系统,并对实验系统的降噪效果进行了测试。本文的工作主要包括以下几个方面:1.分析了语音信息的产生过程、基本特点和数字化模型,介绍语音信号处理的基础理论与方法,重点针对语音信息的短时特征讨论了相关的短时分析方法;研究了无线语音噪声的特点和分类,针对脉冲干扰、单频干扰和低通型三种噪声分别给出了相应的降噪方案,并引入自适应信号处理技术,使得降噪系统在没有信号或噪声的先验知识的情况下实现降噪处理。2.语音增强是从带噪语音中尽可能提取纯净语音的技术,为此本文重点研究了基于短时谱估计的增强算法,分析了语音增强算法在语音降噪中的应用,并指出如果可以得到与带噪语音信号中的噪声相关的参考噪声,则使用对消法是很好的选择。3.研究了语音降噪系统的硬件技术,介绍了DSP芯片的构成和特点,讨论了基于DSP芯片构造降噪系统的设计流程,研究了系统构成、系统设计和系统调试的关键技术。4.设计并实现了无线语音降噪器实验系统。该降噪器的软硬件设计具有模块化的特点,采用了无须参考噪声通道的延迟改进自适应陷波器算法和延迟改进自适应滤波器算法及噪声谱幅值自适应谱减算法,设计了纯软件的静噪功能模块和截止频率可调的带通滤波器,并使用语谱图和时域波形图对于降噪器的降噪效果进行了测试和评价。5.学位论文何招友无线通信中语音降噪抗干扰的研究2007无线环境下语音信号在传输的过程中,不可避免地会受到风、雨、雷、电等的干扰,还有来自周围环境的干扰以及通信设备自身内部电噪声等的干扰,使得原始的纯净语音成为被噪声污染的带噪语音,严重影响到语音信号的清晰度和可懂度,强烈的干扰和噪声还影响人的情绪和耳朵的鉴别力,从而对无线语音通信的质量产生严重影响。因此,研究无线语音降噪技术与语音增强算法,研制无线语音降噪设备,对于提高无线语音通信质量有着极为重要的意义。本文针对高质量无线语音传输的需求,对语音处理及语音降噪的基础理论、关键技术及降噪设备的实现展开研究,提出了三种语音增强改进算法,并设计实现了无线语音通信降噪设备实验系统,对该实验系统的降噪效果进行了测试。本文的内容主要包括:首先,分析了语音信号的产生过程、基本特点和数字化模型以及语音信号处理的基础理论与方法,重点针对语音信息的短时特征讨论了相关的短时分析方法;研究了无线语音噪声的分类和特点,针对无线环境中的三种主要噪声分别给出了相应的降噪方案,并引入自适应信号处理技术,使得降噪系统在没有信号和噪声的先验信息的情况下实现降噪处理。第二,重点研究了基于短时谱估计的语音增强算法,分析了语音增强算法在语音降噪中的应用。第三,研究了语音降噪系统的硬件技术,介绍了DSP芯片的构成和特点,讨论了基于DSP芯片构造降噪系统的设计流程,探讨了其系统构成、系统设计和系统调试的关键技术。第四,设计实现了无线语音降噪设备实验系统,并使用语谱图和时域波形图对该降噪设备的降噪效果进行了测试和评价。6.会议论文朱一飞.李成荣.徐波一种基于动态噪声估计的谱减方法2002谱减方法是语音降噪一种广泛使用的方法,本文针对传统的谱减方法,提出了一些改进的措施.首先,在传统的谱减方法中,需要一个显式的语音检测过程,以便将带噪信号分为语音段和噪声段,从而估计出噪声功率谱,在本文中,我们提出了一种动态估计噪声谱的方法,消除了语音检测的过程,从而减少了系统计算量,使谱减方法更适合于实时系统.另外,在谱减方法中,为了消除音乐噪声,往往以损失有效语音信号为代价,在本文中,我们提出一种与信噪比相关的过减方法来克服这一问题.7.学位论文周成基于独立分量分析的单通道语音降噪算法的研究2005本文主要基于独立分量分析算法来处理低信噪比语音信号,达到语音降噪和增强的目的。本文提出一种方法巧妙地从单路信号中生成两路信号,然后对其进行独立分量分析,实现语音增强。简单介绍独立分量分析这盲源信号处理算法的概念、应用领域,使大家对该算法有个初步的了解。介绍独立分量分析算法的历史发展过程以及与该算法相关的预备知识,方便对后文的理解。讲述了基于不同对照函数的各种不同ICA算法。介绍常用的语音增强算法——频谱减法,这也是后一章中单通道ICA算法的预备知识。应用独立分量分析算法进行语音信号处理。接收到的混合语音信号数小于独立源语音信号数,这种情况直接应用ICA算法处理比较困难,这方面的研究目前还处于起步阶段。而本文给出的算法正好满足了这种情况的需要,具有一定的实用性。8.学位论文吕伟军基于双RBF网络的车内语音降噪系统研究2008智能汽车电子牌照等电子设备在汽车内的应用使车内的人与设备之间的语音交互越来越显示出其重要性和广泛的需求。但车内人机语音交互由于容易受到车内环境噪声的干扰,语音识别的准确率与在纯净环境下相比将严重下降,难以达到实际人机语音交互的要求。研究和提出车内环境下的语音降噪方法,是提高语音识别率的基础和关键内容之一。针对上述问题,本文提出了一种基于双径向基函数(radialbasisfunction,简称RBF)神经网络的车内语音降噪算法。论文给出了该语音降噪算法的基本原理、实现方法以及降噪效果。在对比了BP网络与RBF网络的非线性逼近能力的基础上,提出了一种改进的RBF网络时域降噪的方法。该方法有效地减轻了神经网络的负担并减少了训练时间。在MATLAB软件平台上的仿真结果表明,该方法能够有效地抑制噪声,大幅度提升信噪比(signalnoiserate,简称SNR)。在变换域上,提出双RBF网络结合共振峰参数、线性预

1 / 57
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功