基于语音控制的显示器的设计开题报告

基于语音控制的显示器的设计开题报告
基于语音控制的显示器的设计开题报告

毕业设计(论文)材料之二(2)

本科毕业设计(论文)开题报告题目:基于语音控制的显示器的设计

课题类型:设计□√实验研究□论文□

学生姓名:xxxxxx

学号: xxxxxxxxxxxx

专业班级: xxxxx

学院:电气工程学院

指导教师: xxxxx

开题时间:2016.3.12

2016年 3月12 日

一、本课题的研究意义、研究现状和发展趋势(文献综述)

1.1选题目的背景及意义

人与人之间的交流手段中,语音是最高效的手段之一,如果能让人与计算机的交流也能达到这样的简单高效,那将会带来极大地便利。现有的显示器调节方案主要是采用手动调节的方式,通过手动按键输入各种命令,使显示器能按照终端用户的要求进行开关机,信号选择,亮度色彩等调节。而手动调节的方式在很大程度上浪费用户的时间。

本课题拟采用语音识别处理器和通信模块设计一种语音控制的显示器,能够简捷、快速、有效地对显示器进行调节,解放用户双手,使产品更加人性化、智能化的同时也节约了用户的时间。

语音处理技术是一门新兴的技术,它不仅包括语音的录制和播放,还涉及语音的压缩编码和解码,语音的识别等各种处理技术。以往做这方面的设计,一般有两个途径:一种方案是单片机扩展设计,另一种就是借助于专门的语音处理芯片。普通的单片机往往不能实现这么复杂的过程和算法,即使勉强实现也要加很多的外围器件。专门的语音处理芯片也比较多,像ISD 系列、PM50 系列等,但是专门的语音处理芯片功能比较单一,想在语音之外的其他方面应用基本是不可能的。

SPCE061A 是凌阳科技推出的一款16 位μ'nSP 结构的微控制器。该芯片带有硬件乘法器,能够实现乘法运算、内积运算等复杂的运算。它不仅运算能力强,而且处理速度快,单周期最高可以达到49MHz。SPCE061A 内嵌32K 字的FLASH 程序存储器以及2K 的SRAM。同时该SOC 芯片具有ADC 和DAC 功能,其MIC_ADC 通道带有AGC 自动增益环节,能够很轻松的将语音信号采集到芯片内部,两路10 位的电流输出型DAC,只要外接一个功放就可以完成声音的播放。以上介绍的这些硬件资源使得该SPCE061A 能够单芯片实现语音处理功能。

1.2国内外研究现状及发展趋势

1.2.1国内语音识别的发展状况

20世纪50年代我国就有人尝试用电子管电路进行元音识别,到70年代才由中科院声学所开始进行计算机语音识别的研究.80年代开始,很多学者和单位参与到语音识别的研究中来,也开展了从最初的特定人、小词汇量孤立词识别,到非特定人、大词汇量连续语音识别的研究工作.80年代末,以汉语全音节识别作为主攻方向的研究已经取得了相当大的进展,一些汉语语音输入系统已经向实用化迈进。90年代j四达技术开发中心和哈尔滨工业大学合作推出了具有自然语言理解能力的新产品.在国家“863”计划的支持下,清华大学和中科院自动化所等单位在汉语听写机原理样机的研制方面开展了卓有成效的研究.经过60多年的发展,语音识别技术已经得到了很大发展,对于语音识别的研究也达到了相当高的水平,并在实验室环境下能达到很好的识别效果。但是,在实际应用中,噪声以及各种因素的影响,使语音识别系统的性能大幅度下降,很难达到让人满意的效果。因此,对噪声环境下的语音识别的研究有着异常重要的理论价值和现实意义。

1.2.2国外语音识别的发展状况

国外的语音识别是从1952年贝尔实验室的Davis等人研制的特定说话人孤立数字识别系统开始的。

20世纪60年代,日本的很多研究者开发了相关的特殊硬件来进行语音识别RCA实验室的Martin等人为解决语音信号时间尺度不统一的问题,开发了一系列的时问归正方法,明显地改善了识别性能。与此同时,苏联的Vmtsyuk提出了采用动态规划方法解决两个语音的时闻对准问题,这是动态时间弯折算法DTW(dymmic time warping)的基础,也是其连续词识别算法的初级版。

20世纪70年代,人工智能技术走入语音识别的研究中来.人们对语音识别的研究也取得了突破性进展.线性预测编码技术也被扩展应用到语音识别中,DTw也基本成熟。

20世纪80年代,语音识别研究的一个重要进展,就是识别算法从模式匹配技术转向基于统计模型的技术,更多地追求从整体统计的角度来建立最佳的语音识别系统。隐马尔可夫模型(hidden Markov model,删)技术就是其中一个典型技术。删的研究使大词汇量连续语音识别系统的开发成为可能。

20世纪90年代,人工神经网络(artificial neural network,ANN)也被应用到语音识别的研究中,并使相应的研究工作在模型的细化、参数的提取和优化以及系统的自适应技术等方面取得了一些关键性的进展,此时,语音识别技术进一步成熟,并走向实用。许多发达国家,如美国、日本、韩国,已经IBM、Microsoft、Apple、AT&T、Nrr等著名公司都为语音识别系统的实用化开发研究投以巨资。

当今,基于HMM和ANN相结合的方法得到了广泛的重视。而一些模式识别、机器学习方面的新技术也被应用到语音识别过程中,如支持向量机(support vector machine,SVM)技术、进化算法(evolutionary computation)技术等。

1.2.3国外语音识别的发展趋势

目前,全球语音技术市场规模超过30亿美元,近年来年增长率保持在25%以上,未来语音识别市场被看好,其中电信行业(V oIP等),移动应用领域(手机、学习机、平板电脑、车载系统等移动设备),都会呈现出爆发式增长。下面列举几个电信及移动应用领域成功的语音产品/软件。

1、电信行业:电话银行系统

电话银行系统(Telephon Barver Server)是近年来国外日益兴起的一种高新技术,它是实现银行现代化经营与管理的基础,它通过电话这种现代化的通信工具把用户与银行紧密相连,使用户不必去银行,无论何时何地,只要通过拨通电话银行的电话号码,就能够得到电话银行提供的其它服务(往来交易查询、申请技术、利率查询等),当银行安装这种系统以后,可使银行提高服务质量,增加客户,为银行带来更好的经济效益。

2、移动应用领域:Siri

Siri是苹果公司在其产品iphone 4S上应用的一项语音控制功能。Siri可以令iPhone4S变身为一台智能化机器人,Siri可实现:手机读短信、手机介绍餐厅、用手机询问天气、语音设置闹钟等功能。

Siri支持自然语言输入,并能调用系统自带的天气预报、日程安排、搜索资料等应用,还能够不断学习新的声音和语调,提供对话式的应答。

3、生活领域:手机“导游”

这是由思必驰设计师独特构思的一款产品,该产品旨在为您的手机里藏一位“导游”。每到一个景区,这位“导游”会先到售票处“报到”,然后只要您告诉他景点名称,他就能为您“滔滔不绝地讲述”景点背后的故事。

除了以上几个行业和代表性产品之外,语音识别技术还能在语音翻译领域、语音游戏领域、语音搜索领域大展拳脚。科技源于创新,语音创造价值,相信不久的将来,会有更多的形形色色的语音应用出现在我们的生活中,为平凡的生活增添更多色彩。

二、主要设计(研究)内容

本课题拟采用语音识别处理器和通信模块设计一种语音控制的显示器,能够简捷、快速、有效地对显示器进行调节,解放用户双手,使产品更加人性化、智能化的同时也节约了用户的时间。

根据研究内容,确定工作流程如下

2.1语音的识别

采用芯片LD3320,一颗基于非特定人语音识别(SI一ASR: Speaker一IndependentAutomatic Speech Recognition)技术的语音识别/声控芯片。提供了真正的单芯片语音识别解决方案。

功能介绍

尺寸:2*6.2cm

排针:2*20标准DIP40排针。

LD3320芯片的音频模拟管脚连接相应的电容/电阻后通过排针引出。

M-LD3320模块上设计有2个音频插座,直接引出MIC输入和Speak:输出信号。用户可以用一个带麦克风的耳机验证语音识别和声音播放,十分方便。M-LD3320模块上没有电源芯片,相应的电源管脚由排针引出,由开发者连接入3.3v电源输入。M-LD3320模块上的CLK输入可以选择如下任意一种:

(1)直接将晶振信号通过排针输入到LD3320的相应管脚。

(2)或者用户可以自行焊接晶振,在模块上预留晶振的空间和连接点[3]。

M-LD3320模块上有两个LED灯,连接到LD3320芯片的29, 30管脚上,在

LD3320上电重启复位(RSTB*)并稳定工作后,29, 30管脚会稳定输出低电平,因此这两个LED灯可以作为芯片上电指示。

2.2进行仿真并调试

三、研究方案及工作计划(含工作重点与难点及拟采用的途径)

3.1 研究方案

3.1.1 总的方案

3.2工作重点与难点及拟采用的途径

首先,语音识别系统的鲁棒性不够强,对环境的依赖程度过高。在某一种环境下训练的语音识别系统换了一种环境之后性能就会下降。

其次,语音识别对于外部噪声特别敏感。这不仅是因为外部噪声会导致语音信号发生变化,而且由于嘈杂的环境下人的音调,语速以及音量都会改变,因此识别难度也更大。

再次,语音的随机性很强。就算是同一个人在不同的时刻,由于身心状态的差异,导致语音的特征也会不一样。

最后,由于目前对人类的听觉理解、知识积累和神经系统的机理等方面的研究水平不足,限制了语音识别的发展。

为了解决上述问题,研究者们想出了各种方法,比如自适应训练、神经网络等。这些做法虽然都取得了一定的成绩,然而,如果要让语音识别系统的性能得

到大幅的提高,还有大量的工作要做。

目前,市场上大词汇量的语音识别系统多采样PC机作为硬件平台,而基于嵌入式的中小词汇的语音识别系统,其硬件设计常采用DSP或者AUM这样的高性能芯片,这样硬件成本较高。对于单片机来说,虽然成本低,但由于单片机本身计算能力有限,而语音识别的计算量过大,这对系统在单片机上的实现带来了很大的困难。因此,如何改进算法以减少计算量成为了语音识别能否在单片机上运行的一大难点。

四、阅读的主要参考文献

[ 1 ] 杨行峻,迟惠生,等. 语音信号数字处理[M ]. 北京:电子工业出版社, 1995. [ 2 ] 赵力. 语音信号处理[M ]. 北京: 机械工业出版社,2003.

[ 3 ] Gannot S, Burshtein D, Weinstein E. Iterative and se2quential Kalman filter2based speech enhancement algo2

rithms [ J ]. IEEE Trans Speech and Audio Process, 1998, 6(4) : 3732385.

[ 4 ] Kin J B, Lee K Y , Lee CW. On the app lications of theinteracting multip le model algorithm for enhancing noisy

speech [ J ]. IEEE Trans Speech and Audio Process, 2000,8 (3) : 3492352.

[ 5 ] Y Ephraim, H L V Trees. A signal subspace app roach forspeech enhancement[ J ]. IEEE Trans. Speech and AudioProcessing, 1995, 3 (7) : 2512266. [ 6 ] F Jabloun, B Champagne. A multi - microphone signalsubspace app roach for speech enhancement[A ]. In Proc.

IEEE ICASSP01 [C ]. 2001. 2052208 .

[ 7 ] Boll S. Supp ression of acoustic noise in speech using spec2tral subtraction [ J ]. IEEE Trans on Acoustic Speech andSignal Processing, 1979, 27 (2) : 1132120. [ 8 ] Ningp ing Fan. Low distortion speech denoising using an a2dap tive parametric Wiener filter [A ]. IEEE InternationalConference on Acoustics, Speech and Signal Processing( ICASSP) [C ]. 2004, 1: 122309.

[ 9 ] Ephraim Y, Malah D. Speech enhancement using a mini2mum2mean square error short2time spectral amp litude esti2mator [ J ]. IEEE Transactions on Acoustics, Speech andSignal Processing, 1984, 32 (60) : 110921121.

[ 10 ] 韩纪庆,张磊,郑铁然. 语音信号处理[M ]. 北京:清华大学出版社, 2004年. [ 11 ] 高鹰,谢胜利. 一种变步长LMS自适应滤波算法及分析[ J ]. 电子学报, 2001, 29 (8) : 109421097.

[ 12 ] Jax P Vary P. Artificial bandwidth extension of speechsignals usingMMSE estimation based on a hidden Markov

model [A ]. IEEE International Conference on Acoustics,Speech, and Signal Processing ( ICASSP) [ C ]. 2003. 6802683

[ 13 ] SMallat and W L Hwang. Singularity detection and p ro2cessing with wavelets[ J ]. IEEE Trans on Information The2ory, 1992, 38 (2) : 6172643 .

[ 14 ] D L Donoho and IM Johnstone. Adap ting to unknownsmoothness via wavelet shrinkage [ J ]. Journal of the A2

merican StatisticalAssociation, 1995, 90: 120021224.

[ 15 ] L iew Ban Fah, Hussain A, Samad SA. Speech enhance2ment by noise

cancellation using neural network. [A ] TEN2CON 2000 [C ]. Proceedings, Kuala Lumpur, 20.

[ 16 ] J iang Xiaop ing, Fu Hua, Yao Tianren. A single channelspeech enhancement method based on masking p ropertiesand minimum statistics[A ]. 2002 6 th International Confer2ence on Signal Processing[C ]. 2002. 4602463.

[ 17 ] 裴文江,刘文波,于盛林. 基于分形理论的混沌信号与噪声分离方法[ J ]. 南京航空航天大学学报, 1997, 29(5). 4832487.

[ 18 ] Virag N. Single channel speech enhancement based onmasking p roperties of human auditory system [ J ]. IEEE

Trans on Speech Audio Process, 1999, 7 (2) : 1262137.

[ 19 ] Ghoreish M H, Sheikzadeh H Hybird. Speech enhance2ment system based on HMM and spectral subtraction [A ].IEEE International Conference on Acoustic, Speech andSignal Processing[C ]. 2000 (3) : 185521858.

Speech Recognition

Victor Zue, Ron Cole, & Wayne Ward

MIT Laboratory for Computer Science, Cambridge, Massachusetts, USA Oregon Graduate Institute of Science & Technology, Portland, Oregon, USA

Carnegie Mellon University, Pittsburgh, Pennsylvania, USA

1 Defining the Problem

Speech recognition is the process of converting an acoustic signal, captured by a microphone or a telephone, to a set of words. The recognized words can be the final results, as for applications such as commands & control, data entry, and document preparation. They can also serve as the input to further linguistic processing in order to achieve speech understanding, a subject covered in section.

Speech recognition systems can be characterized by many parameters, some of the more important of which are shown in Figure. An isolated-word speech recognition system requires that the speaker pause briefly between words, whereas a continuous speech recognition system does not. Spontaneous, or extemporaneously generated, speech contains disfluencies, and is much more difficult to recognize than speech read from script. Some systems require speaker enrollment---a user must provide samples of his or her speech before using them, whereas other systems are said to be speaker-independent, in that no enrollment is necessary. Some of the other parameters depend on the specific task. Recognition is generally more difficult when vocabularies are large or have many similar-sounding words. When speech is produced in a sequence of words, language models or artificial grammars are used to restrict the combination of words.

The simplest language model can be specified as a finite-state network, where the permissible words following each word are given explicitly. More general language models approximating natural language are specified in terms of a context-sensitive grammar.

One popular measure of the difficulty of the task, combining the vocabulary size and the 1 language model, is perplexity, loosely defined as the geometric mean of the number of words that can follow a word after the language model has been applied (see section for a discussion of language modeling in general and perplexity in particular). Finally, there are some external parameters that can affect speech recognition system performance, including the characteristics of the environmental noise and the type and the placement of the microphone.

Speech recognition is a difficult problem, largely because of the many sources of variability associated with the signal. First, the acoustic realizations of phonemes, the smallest sound units of which words are composed, are highly dependent on the context in which they appear. These phonetic variabilities are exemplified by the acoustic differences of the phoneme,At word boundaries, contextual variations can be quite dramatic---making gas shortage sound like gash shortage in American English, and devo andare sound like devandare in Italian.

Second, acoustic variabilities can result from changes in the environment as well as in the position and characteristics of the transducer. Third, within-speaker variabilities can result from changes in the speaker's physical and emotional state, speaking rate, or voice quality. Finally, differences in sociolinguistic background, dialect, and vocal tract size and shape can contribute to across-speaker variabilities.

Figure shows the major components of a typical speech recognition system. The digitized speech signal is first transformed into a set of useful measurements or features at a fixed rate, 2 typically once every 10--20 msec (see sectionsand 11.3 for signal representation and digital signal processing, respectively). These measurements are then used to search for the most likely word candidate, making use of constraints imposed by the acoustic, lexical, and language models. Throughout this process, training data are used to determine the values of the model parameters.

Speech recognition systems attempt to model the sources of variability described above in several ways. At the level of signal representation, researchers have developed representations that emphasize perceptually important speaker-independent features of the signal, and de-emphasize speaker-dependent characteristics. At the acoustic phonetic level, speaker variability is typically modeled using statistical techniques applied to large amounts of data. Speaker adaptation algorithms have also been developed that adapt speaker-independent acoustic models to those of the current speaker during system use, (see section). Effects of linguistic context at the acoustic phonetic level are typically handled by training separate models for phonemes in different contexts; this is called context dependent acoustic modeling.

Word level variability can be handled by allowing alternate pronunciations of words in representations known as pronunciation networks. Common alternate pronunciations of words, as well as effects of dialect and accent are handled by allowing search algorithms to find alternate paths of phonemes through these networks. Statistical language models, based on estimates of the frequency of occurrence of word sequences, are often used to guide the search through the most probable sequence of words.

The dominant recognition paradigm in the past fifteen years is known as hidden

Markov models (HMM). An HMM is a doubly stochastic model, in which the generation of the underlying phoneme string and the frame-by-frame, surface acoustic realizations are both represented probabilistically as Markov processes, as discussed in sections,and 11.2. Neural networks have also been used to estimate the frame based scores; these scores are then integrated into HMM-based system architectures, in what has come to be known as hybrid systems, as described in section 11.5.

An interesting feature of frame-based HMM systems is that speech segments are identified during the search process, rather than explicitly. An alternate approach is to first identify speech segments, then classify the segments and use the segment scores to recognize words. This approach has produced competitive recognition performance in several tasks.

2 State of the Art

Comments about the state-of-the-art need to be made in the context of specific applications which reflect the constraints on the task. Moreover, different technologies are sometimes appropriate for different tasks. For example, when the vocabulary is small, the entire word can be modeled as a single unit. Such an approach is not practical for large vocabularies, where word models must be built up from subword units.

The past decade has witnessed significant progress in speech recognition technology. Word error rates continue to drop by a factor of 2 every two years. Substantial progress has been made in the basic technology, leading to the lowering of barriers to speaker independence, continuous speech, and large vocabularies. There are several factors that have contributed to this rapid progress. First, there is the coming of age of the HMM. HMM is powerful in that, with the availability of training data, the parameters of the model can be trained automatically to give optimal performance.

Second, much effort has gone into the development of large speech corpora for system development, training, and testing. Some of these corpora are designed for acoustic phonetic research, while others are highly task specific. Nowadays, it is not uncommon to have tens of thousands of sentences available for system training and testing. These corpora permit researchers to quantify the acoustic cues important for phonetic contrasts and to determine parameters of the recognizers in a statistically meaningful way. While many of these corpora (e.g., TIMIT, RM, ATIS, and WSJ; see section 12.3) were originally collected under the sponsorship of the U.S. Defense Advanced Research Projects Agency (ARPA) to spur human language technology development among its contractors, they have nevertheless gained world-wide acceptance (e.g., in Canada, France, Germany, Japan, and the U.K.) as standards on which to evaluate speech recognition.

Third, progress has been brought about by the establishment of standards for performance evaluation. Only a decade ago, researchers trained and tested their systems using locally collected data, and had not been very careful in delineating training and testing sets. As a result, it was very difficult to compare performance across systems, and a system's performance typically degraded when it was presented

with previously unseen data. The recent availability of a large body of data in the public domain, coupled with the specification of evaluation standards, has resulted in uniform documentation of test results, thus contributing to greater reliability in monitoring progress (corpus development activities and evaluation methodologies are summarized in chapters 12 and 13 respectively).

Finally, advances in computer technology have also indirectly influenced our progress. The availability of fast computers with inexpensive mass storage capabilities has enabled researchers to run many large scale experiments in a short amount of time. This means that the elapsed time between an idea and its implementation and evaluation is greatly reduced. In fact, speech recognition systems with reasonable performance can now run in real time using high-end workstations without additional hardware---a feat unimaginable only a few years ago.

One of the most popular, and potentially most useful tasks with low perplexity (PP=11) is the recognition of digits. For American English, speaker-independent recognition of digit strings spoken continuously and restricted to telephone bandwidth can achieve an error rate of 0.3% when the string length is known.

One of the best known moderate-perplexity tasks is the 1,000-word so-called Resource 5 Management (RM) task, in which inquiries can be made concerning various naval vessels in the Pacific ocean. The best speaker-independent performance on the RM task is less than 4%, using a word-pair language model that constrains the possible words following a given word (PP=60). More recently, researchers have begun to address the issue of recognizing spontaneously generated speech. For example, in the Air Travel Information Service (ATIS) domain, word error rates of less than 3% has been reported for a vocabulary of nearly 2,000 words and a bigram language model with a perplexity of around 15.

High perplexity tasks with a vocabulary of thousands of words are intended primarily for the dictation application. After working on isolated-word, speaker-dependent systems for many years, the community has since 1992 moved towards very-large-vocabulary (20,000 words and more), high-perplexity (PP≈200), speaker-independent, continuous speech recognition. The best system in 1994 achieved an error rate of 7.2% on read sentences drawn from North America business news.

With the steady improvements in speech recognition performance, systems are now being deployed within telephone and cellular networks in many countries. Within the next few years, speech recognition will be pervasive in telephone networks around the world. There are tremendous forces driving the development of the technology; in many countries, touch tone penetration is low, and voice is the only option for controlling automated services. In voice dialing, for example, users can dial 10--20 telephone numbers by voice (e.g., call home) after having enrolled their voices by saying the words associated with telephone numbers. AT&T, on the other hand, has installed a call routing system using speaker-independent word-spotting technology that can detect a few key phrases (e.g., person to person, calling card) in sentences such as: I want to charge it to my calling card.

At present, several very large vocabulary dictation systems are available for

document generation. These systems generally require speakers to pause between words. Their performance can be further enhanced if one can apply constraints of the specific domain such as dictating medical reports.

Even though much progress is being made, machines are a long way from recognizing conversational speech. Word recognition rates on telephone conversations in the Switchboard corpus are around 50%. It will be many years before unlimited vocabulary, speaker-independent continuous dictation capability is realized.

译文:

语音识别

舒维都,罗恩科尔,韦恩沃德

麻省理工学院计算机科学实验室,剑桥,马萨诸塞州,美国

俄勒冈科学与技术学院,波特兰,俄勒冈州,美国

卡耐基梅隆大学,匹兹堡,宾夕法尼亚州,美国

一定义问题

语音识别是指音频信号的转换过程,被电话或麦克风的所捕获的一系列的消息。所识别的消息作为最后的结果,用于控制应用,如命令与数据录入,以及文件准备。它们也可以作为处理输入的语言,以便进一步实现语音理解,在第一个主题涵盖。

语音识别系统可以用多个参数来描述,一些更重要参数在图形中显示出来.一个孤立字语音识别系统要求词与词之间短暂停顿,而连续语音识别系统对那些不自发的,或临时生成的,言语不流利的语音,比用讲稿读出更难以识别。有些系统要求发言者登记——即用户在使用系统前必须为系统提供演讲样本或发言底稿,而其他系统据说是独立扬声器,因为没有必要登记。一些参数特征依赖于特定的任务。当词汇量比较大或有较多象声词的时候,识别起来一般比较困难。当语音由有序的词语生成时,语言模型或特定语法便会限制词语的组合。

最简单的语言模型可以被指定为一个有限状态网络,每个语音所包含的所有允许的词语都能顾及到。更普遍的近似自然语言的语言模型在语法方面被指定为上下文相关联。

一种普及的任务的难度测量,词汇量和语言模型相结合的语音比较复杂,大量语音的几何意义可以按照语音模型的应用定义宽泛些(参见文章对语言模型普遍性与复杂性的详细讨论)。最后,还有一些其他参数,可以影响语音识别系统的性能,包括环境噪声和麦克风的类型和安置。

语音识别是一个困难的问题,主要是因为与信号相关的变异有很多来源。首先,音素,作为组成词语的最小的语音单位,它的声学呈现是高度依赖于他们所出现的语境的。这些语音的变异性正好由音素的声学差异做出了验证。在词语的范围里,语境的变化会相当富有戏剧性---使得美国英语里的gas shortage 听起来很像gash shortage,而意大利语中的devo andare 听起来会很像devandare。

其次,声变异可能由环境变化,以及传输介质的位置和特征引起。第三,说话人的不同,演讲者身体和情绪上的差异可能导致演讲速度,质量和话音质量的差异。最后,社会语言学背景,方言的差异和声道的大小和形状更进一步促进了演讲者的差异性。

数字图形展示了语音识别系统的主要组成部分。数字化语音信号先转换成一

系列有用的测量值或有特定速率的特征,通常每次间隔10 - 20毫秒(见第11.3章节,分别描述了模拟信号和数字信号的处理)。然后这些测量被用来寻找最有可能的备选词汇,使用被声学模型、词汇模型、和语言模型强加的限制因素。整个过程中,训练数据是用来确定模型参数值的。

语音识别系统尝试在上述变异的来源的某些方面做模型。在信号描述的层面上,研究人员已经开发出了感性地强调重要发言者独立语音信号的特征,以及忽略发言者依赖环境的语音信号特征。在声学语音层面上,说话人差异变化通常是参照使用大量的数据来做模型。语音改编法则还开发出适应说话人独立声学模型以适应那些目前在系统中使用的说话人语音样本(参见文章)。在语言方面语境影响的声学语音处理,通常情况下被不同的训练模式分隔为单独的音素,这就是所谓的上下文相关声学模型。

字级差异可以由发音网络中可描述的字词的候选发音来处理。对于象声词的替代,考虑到方言以及口音的影响,通过搜索算法在网络上寻找音素的替代方法。统计语言的模型基于对字序列的发生频率的估计,常常通过可能的词序来引导搜索。

众所周知在过去的15 年中占主导地位的识别范例是隐马尔可夫模型(HMM)。基于HMM 是一种双随机模型,基本音素字符串和框架的生成,表面声波的变现都作为马氏过程来表述,在本章节中所讨论的和11.2 节中的神经网络也被用来估算框架的基本性能,然后将这些性能集成到基于HMM 的系统架构中,即现在被称为的混合系统所述的,参见第11.5 节。

基于HMM 系统框架的一种有趣的特点,就是相比明确的定义而言,语音片段是在搜索过程中被定义的。另一种方法,是先找出语音片段,然后将这些片段分类并使用片段性能来识别文字。这种做法已经产生在一些生产任务的竞争识别性能上了。

二目前发展现状

讨论目前的发展状况,需要联系到具体应用的环境,他影响到了任务的制约性。此外,有时不同的技术适合于不同的任务。例如,当词汇量小,整个单词可以建模为一个单元。但这种做法对大词汇量来说是不实际的,如字词模式必须由单一字词单元建立。

过去十年目睹识别技术在语音方面取得重大进展。字错误率持续每两年下降50%。基础技术已取得了重大的进展,从而降低了说话人独立语音,连续语音及大词汇量语音识别的障碍。有几个因素促成了这种迅速的进展。首先,HMM 时代即将到来。HMM 模型规模强大,以及具有有效地训练数据,可以自动训练出模型的最佳的性能。

第二,很大的努力已经投入到语音系统大量词汇识别的发展、训练和测试上。语料库其中一些是专为语音声学研究的,也有非常具体的任务。如今,这并非罕见有成千上万可行的句子提供给系统来训练及测试。这些语料库允许研究人员量化语音声学的重要内容,以确定识别参数在统计上是有意义的方式。尽管许多语料(如论文利用TIMIT,马币,车号自动识别等,参见12.3 节)原本是在美国国防部高级研究计划局的赞助下收集的人类的语言来刺激其承办商的技术发展,然而他们获得了世界的广泛认可(例如,英国,加拿大,法国,德国,日本,)作为评价标准来建立语音识别。

第三,取得的进展所带来的性能评价标准的建立。十年前,研究人员仅测试他们的系统培训和利用当地收集的数据,并没有很仔细划分培训和测试。因

此,这样便很难比较系统的全面性能,以及它所给出的数据在之前未出现时,系统的性能便逐渐退化。公共领域最近提供的数据按照评价标准的规范,致使试验结果相同,从而有助于提高监测的可靠性(语料库发展活动的主体和评价方法,分别在12 和13 章作了总结)。

最后,计算机技术的进步,也间接影响了人类的进展。提供大容量存储能力的快速且低廉的电脑,使研究人员能够短时间运行许多大型规模的实验。这意味着经过实践和评价后的想法,它所花费的时间大大减少。事实上,合理性能的语音识别系统现在可以在无附加设备的高端工作站随时运行----这在几年之前仍是个不可思议的想象。

其中最普遍的,最有用的和困惑最低最有潜在的任务是数字识别。对于美国英语,独立演讲者的连续数字串识别和电话宽带限制的语音可以达到0.3%的误码率,前提是字符串的长度已知。

其中最著名的中等难度的任务是1000 字的所谓资源管理(RM)的任务,其用来查询各种有关太平洋海军舰艇的研究。最好的独立执行任务的语音设备执行RM 任务不超过4%,用文字语言模型约束给定的单词。最近,研究人员已经开始处理自发语音识别的问题了。例如,在航空旅游信息服务(ATIS)域,超过3%的误码误率少报了近2000 字的词汇和二元语言模型大约15 的混乱度。

数千字词汇任务的高混乱度主要产生于听写任务中。语音系统成立多年,使用鼓励词后,研究机构从1992 年开始向超大词汇(20000 字以上),高混乱度(P≈200),独立连续语音识别发展。1994 年的最好的语音系统实现了从北美商业新闻中读取句子并描述仅率7.2%的误码率的成绩。

随着语音识别性能的不断改善,系统现正部署在电话和许多国家的蜂窝网络。统现正部署在电话和许多国家的蜂窝网络。在未来几年中,语音识别的电话网络将在世界各地普遍存在。有巨大的力量推动这项技术的发展,在许多国家,触摸音普及率低,声音是自动控制服务的唯一选择。在语音拨号,例如,用户可以拨打10 - 20 语音电话号码(例如,打电话回家后)登记,说他们的声音与电话号码相关的话。AT&T 公司,另一方面,安装了呼叫路由系统使用扬声器独立字研配技术,可检测数(例如,个人对个人的关键短语,要求在诸如句子卡):我想给它充电我电话卡。

目前,一些非常大的词汇听写系统可用于文档生成。这些系统通常需要对词与词之间暂停发言。他们的表现可以得到进一步加强,如果可以报考,如支配的具体领域限制的医疗报告。

尽管正在取得很大进展,机器是从认识到对话的讲话很长的路。在语料库的总机电话交谈字识别率是50%左右。这将是许多年以前无限的词汇,非特定人连续听写能力得以实现。

五、指导教师意见(签名)

2016 年 3月12日

结构设计开题报告

结构设计开题报告 开题报告要明确提出论文所要解决的具体学术问题,也就是论文拟定的创新点。以下是为大家推荐的结构设计开题报告,希望能帮到大家,更多精彩内容可浏览。 1.设计(或研究)的依据与意义: 本工程为某城区办公楼采用多层框架结构,为永久性建筑。该楼总建筑面积为8000㎡,拟建位置另行给定,抗震设防烈度为8度。 根据城市城市规划.建筑规模和要求以及现有的气象条件(气温.相对湿度.主导风向.基本雪压).工程场地地质条件.及材料供应和施工条件进行设计。西城区办公楼由主楼和会议中心两部分组成,主体结构为7层,内外装修均为一般装修。 相关设计依据: (1).《建筑地基设计规范》50007 (2).《混凝土结构设计规范》500010 (3).《建筑结构荷载规范》50009 (4)、《建筑抗震设计规范》500011 (5).《砌体结构设计规范》50003 (6).《房屋建筑制图统一标准》50001 (7).《建筑结构制图标准》、50105

(8).《建筑设计防火规范》50045-1995 (9).有关标准图集、相关教科书和及相关规定。 意义: 近年来框架结构在世界各地又有了很大的发展,许多城市普遍兴建了包括商场、住宅、旅馆、办公楼和多功能建筑等各种类型的框架建筑。土木工程专业学生毕业后参加或从事框架结构设计已成为必须面对的现实之一。 通过毕业设计对大学期间所学的知识做一个系统的总结和应用,通过自己对在熟悉任务书的基础上参观、比较同类建筑,查阅、搜集有关设计资料使我的所学的知识得以综合的应用,提高综合知识的应用能力,对所学过的知识得以系统的深化。并培养我独立解决建筑设计、结构设计的内容和步骤,及掌握建筑施工图结构施工图绘制的方法,为今后工作打下良好的基础。 同时毕业设计是学生在毕业前半年的最后学习和综合训练的实践性学习环节,是学习深化、拓宽、综合教学的重要过程;是学生学习、研究与实践成果的全面总结;是学生综合素质与实践能力培养效果的全面检验;是学生毕业及学位资格认定的重要依据;也是衡量高等教育质量和办学效益的重要评价内容。所以我们每一个毕业生都应该认真的努力完成自己的毕业设计,使自己成为社会需要的人才。

基于单片机的语音控制小车的开题报告_共4页

一、选题的依据、意义和理论或实际应用方面的价值 随着现代生活水平的不断提高,人们对智能化产品有着巨大的需求,语音智能控制作为简单快捷方便的操作方式得到越来越广泛人们的认可,例如手机智能语音拨号功能,就是很好的例子。随着电子业的发展, 自动化已不再是一 个新鲜的话题, 无人驾驶的小汽车也必将进入实用阶段, 未来驾驶汽车, 不再是只能依靠手动,语音等方式也有可能成为未来汽车的辅助驾驶途径之一。当前电子设计系统已进人了片上系统时代, 语音识别与处理技术在信息技术的人机 接口中得到了普遍关注。语音识别的音控小车作为典型应用之一,简单地诠释了人机一体化的设计思想。其设计理念缩短了人机界面的距离,增强了互动性和智能性,同时使得将信息技术和控制技术引入到车辆的操纵控制中,形成机器智能,使驾驶员的感知、决策和执行能力扩展成为可能。 二、本课题在国内外的研究现状 Bill Gates 在世界计算机博览会(COMDEX)主题演讲会上描绘IT事业的发展宏图时,率先指出:下一代操作系统和应用程序的用户界面将是语音识别。工业界应对语音识别领域的重大突破做好充分准备,因为那将是一场席卷全球的另一次热潮。 据统计部门的数据,至2006年中国汽车保有量已达3500万辆(其中轿车占80%,约2500万辆),每年仍以30%的速度递增。我国成为了继美国之后的第二大汽车生产和消费大国。汽车行业的迅猛发展也带动了相关配套、服务业的发展。而将功能强大的智能车载信息系统——车载电脑加载到汽车上已经成为欧美、日本等地汽车市场的首选新装备。我国语音智能控汽车产业有着巨大的发展前景。车载电脑给汽车带来了一场信息化的革命,让每辆汽车构建成一个完美的车载信息与娱乐系统终端,包括车载通讯系统、导航系统、数字娱乐系统以及辅助驾驶系统。车载通讯与导航系统主要指GPRS和GPS,让你“轻 车熟路”,而且轻松打电话。 三、课题研究的内容及拟采取的方法 我研究的课题题目是实现语音对小车的智能控制,按照其功能的实现可以划分如下模块:语音输入模块、主控模块(SPCE061A)、电机驱动模块、语 音输出模块、电源模块。语音输入模块实现语音的输入,讲录入的语音作为数据源。主控模块实现对语音的分辨、识别、与存储单元中的指令匹配,发出控制命令。电机模块通过主控模块的控制,对电机发出控制命令。语音输出模块控制发出控制命令相对应的语音。电源模块控制电源的连通。首先对存储器初始化,之后进行录音初始化,进入录音循环中,定时器中断程序控制采样频率,并按时间间隔将采样值送入语音样本队列,录音循环从语音样本队列中获取数据并进行编码,将编码后的数据送入存储器,成为语音资源。在训练过程中,系统调用了语音播放子程序,需要进行播放初始化,进入播放循环中,从语音资源中获取数据,解码,填入播放队列中,定时器中断程序从播放队列中取出数据送到D /A 转换器中,将语音信号送到扬声器中,使得整个训练过程在语音提示下从容进行。 四、课题研究中的主要难点以及解决的方法 1)如何实现对SPCE061A的无线语音接入? SPCE061A 内置MIC 放大电路和AGC 电路, 可很方便地接上MIC 使用。但考虑到小车在运动到距离用户较远的地方时, 无法接收到用户的语音命令, 而

基于51单片机的语音控制系统

2009年第1期 TIANJIN SCIENCE&TECHNOLOGY 0引言 目前基于单片微机的语音系统的应用越来越广泛,如电 脑语音钟、语音型数字万用表、手机话费查询系统、排队机、监控系统语音报警以及公共汽车报站器等等。本文主要介绍用Flas h 单片机AT89C51和录放时间达60s 的数码语音芯片ISD2560设计的一套智能语音录放系统。ISD2560是ISD 系列单片语音录放集成电路的一种,这是一种永久记忆型语音录放电路,录音时间为60s ,可重复录放10万次。该芯片采用多电平直接模拟量存储专利技术,每个采样值可直接存储在片内单个EEPROM 单元中,因此能够非常真实、自然地再现语音、 音乐、音调和效果声,从而避免了一般固体录音电路因量化和压缩造成的量化噪声和“金属声”。此外,ISD2560还省去了A/D 和D/A 转换器。其集成度较高,内部包括前置放大器、内部时钟、定时器、采样时钟、滤波器、自动增益控制、逻辑控制、模拟收发器、解码器和480K 字节的EEPROM 。ISD2560内部EEPROM 存储单元均匀分为600行,有600个地址单元,每个地址单元指向其中一行,每一个地址单元的地址分辨率为100ms 。此外,ISD2560还具备微控制器所需的控制接口。通过操纵地址和控制线可完成不同的任务,以实现复杂的信息处理功能,如信息的组合、连接、设定固定的信息段和信息管理等。 1方案设计 自动控制是单片机应用的一个重要领域,在自动控制领 域中,除数字量之外,经常会遇到一种物理量,即模拟量,而声音就是一种模拟量。由于单片机只能处理数字量的转换,因此计算机系统中凡遇到有模拟量的地方,就需要进行模拟量向数字量或数字量向模拟量转换,伴随而来的就出现了单片机的A/D 、D/A 转换的接口问题,虽然这些接口都已集成化,体积小,功耗低,并能方便地与单片机连接,但在转换之后仍然有一定程度的误差,特别是对语音的转换,有明显的失真。因此,使语音能得到更好的还原是方案选择的最终出发点。 图1 方案原理框图 方案中采用了一片ISD2560语音芯片(如图1所示),这种突破性的EEPROM 存储方法可以将模拟语音数据直接写入单个存储单元,不需要经过A/D 或D/A 转换。这种技术产生了2个效果: 比同等的数字方式具有更大的集成度;存储的模拟数据不挥发,而且它具有高质量、自然的语音还原技术。语音芯片的控制采用的是89C51单片机,实现分段存储,本设计实现的是3段录音,由于ISD2560总录放时间是60s ,所以每段的录音时间是20s 。 这一方案的特点:能进行在现场的录音,随录随放,修改语音方便;修改录音内容时,可以通过更改软件程序,从其中任意一段开始修改其后的所有录音内容,不必从第一段开始全部修改;分段灵活,单片ISD 可分1~600个段,若多片级联还可更多,各个录音段的长度任意,只要总录音时间在所用器件的总时间之内即可;价格便宜,录制语音时,只需用软件立即可得到各段的地址进行录音,不需专用的设备。 2 电路设计 2.1 硬件电路设计 图2为AT89C51与ISD2560连接框图,语音芯片的低8 位地址与P0口相连,并有P0口给ISD2560录/放音的初始地址。 图3是89C51单片机的外围电路,用的是12M 晶振,即一个机器周期是1us ,采用的是按键复位方式,复位之后,录音或放音都是从第一段开始。 贾强(天津现代职业技术学院天津300222) 基于51单片机的语音控制系统 【摘要】介绍了由Flash 单片机AT89C51及数码语音芯片ISD2560组成的语音系统,设计出了系统的硬件电路。实现了语音的分段录取、组合回放,通过软件的修改还可以实现整段录取,循环播放,而且不必使用专门的ISD 语音开发设备。ISD2560不需要A/D 和D/A 转换, 并且集成度高,能实现复杂的信息处理功能,真实的再现语音。【关键词】AT89C51ISD2560分段录音组合回放 收稿日期:2009-01-09 创新技术 36

土木工程框架结构毕业设计开题报告

土木工程框架结构毕业设计开题报告

毕业设计(论文)开题报告 学生姓名:学号: 所在学院:土木学院 专业:土木工程 设计(论文)题目:常州市某培训中心实训大楼指导教师: -1-11

毕业设计(论文)开题报告 1.结合毕业设计(论文)课题情况,根据所查阅的文献资料,每人撰写字左右的文献综述: 文献综述 课题的目的及意义(含国内外的研究现状分析或设计方案比较、选型析等) 毕业设计是一个总结性的教学环节,是学生全面系统地融汇所学理论知识和专 业技能并运用于解决实际问题的过程。经过本教学环节,要加深学生对所学基本理 论知识的理解,培养学生综合分析和处理问题的能力以及设计创新精神,使学生得到 有关单位工程建设从方案制定到施工组织的全过程系统性的训练。经过毕业设计这一 重要的教学环节,培养土木工程专业本科毕业生正确的理论联系实际的工作作风,严 肃认真的科学态度。毕业设计要求我们在指导老师的指导下,独立系统的完成一项工 程设计,解决与之有关的所有问题,熟悉相关设计规范、手册、标准图以及工程实践 中常见的方法,具有实践性、综合性强的显著特点。因此毕业设计对于培养学生初步 的科学研究能力,提高其综合运用所学知识分析问题、解决问题能力有着重要意义。 在完成本次毕业设计过程中,我们需要运用感性和理性知识去把握整个建筑的处理, 这其中就包括建筑外观和结构两个方面。还需要我们更好的了解国内外建筑设计的发 展的历史、现状及趋势,更多的关注这方面的学术动态,以及我们在以后的土木工程 专业发展的方向。同时积极、独立的完成本次毕业设计也是为今后的实际工作做出的 必要的准备。 一、研究现状 土木工程是建造各类工程设施的科学,技术和工程的总称。土木工程是伴随着人类社会的发展而发展起来的。它所建造的工程设施反映出各个历史时期社会经济、文化、科学、技术发展的面貌,因而土木工程也就成为社会历史发展的见证之一。土木工程在中国能够分为:建筑工程、桥梁工程、公路和城市道路工程、铁路工程、隧道工程、水利工程、港口工程、给水和排水工程、环境工程。作为土木工程专业的学

基于单片机技术的语音控制小车设计

基于单片机技术的语音控制小车设计基于单片机技术的语音控制小车设计 1 基于单片机技术的语音控制小车设计 1、引言 语音处理技术是一门新兴的技术,它不仅包括语音的录制和播放,还涉及语音的压缩编码和解码,语音的识别等各种处理技术。以往做这方面的设计,一般有两个途径:一种方案是单片机扩展设计,另一种就是借助于专门的语音处理芯片。普通的单片机往往不能实现这么复杂的过程和算法,即使勉强实现也要加很多的外围器件。专门的语音处理芯片也比较多,如ISD 系列、PM50 系列等,但是专门的语音处理芯片功能比较单一,想在语音之外的其他方面应用基本是不可能的。 SPCE061A 是一款 16 位μ'nSP结构的微控制器。该芯片带有硬件乘法器,能够实现乘法运算、内积运算等复杂的运算。它不仅运算能力强,而且处理速度快,单周期最高可以达到 49MHz。

SPCE061A 内嵌 32K 字的 FLASH 程序存储器以及 2K 的SRAM。同时该 SOC 芯片具有 ADC 和 DAC 功能,其 MIC_ADC 通道带有AGC自动增益环节,能够很轻松的将语音信号采集到芯片内部,两路 10 位的电流输出型DAC,只要外接一个功放就可以完成声音的播放。以上介绍的这些硬件资源使得该SPCE061A 能够单芯片实现语音处理功能。 借助于 SPCE061A 的语音特色,“基于单片机技术的语音控制小车设计”实现了对小车前进、后退、左转、右转、停车等语音控制功能. 2、语音控制小车设计要求 2.1 功能要求: 1.可以通过简单的 I/O 操作实现小车的前进、后退、左转、右转功能; 2.配合 SPCE061A 的语音特色,利用系统的语音播放和语音识别资源,实现语音控制的功能; 3.可以在行走过程中声控改变小车运动状态; 4.在超出语音控制范围时能够自动停车。 2.2 参数说明 车体:双电机两轮驱动 供电:电池(四节AA:1.2V×4 或 1.5V×4) 工作电压:DC 4V~6V 工作电流:运动时约 200mA 3. SPCE061A特性简介 SPCE061A是一款性价比很高的十六位单片机,使用它可以非常方便灵活的实现语音的录放,该芯片拥有8路10位精度的 ADC,其中一路为音频转换通道,并且内置有自动增益电路。这为实现语音录入提供了方便的硬件条件。两路10位精度的DAC,只需要外接功放(SPY0030A)即可完成语音的播放。该单片机具有一套易学易用的指令系统和集成开发环境,在此环境中,它支持标准 C 语言编程,也支持

电子显示屏开题报告

通信工程学院 毕业设计开题报告 题目:大型显示屏设计 专业:自动化 学号: 学生姓名: 指导教师姓名: 指导老师职称:博士 日期:2009年1月26日

一、毕业设计题目背景和目的 1.1课题研究的背景 LED电子显示屏作为一个城市、一个地区的商业发达程度的标志之一,已广泛地出现于车站、码头、大型商场等公共场所,是一个理想的新闻、广告和信息媒体。其中大型的LED文字屏由于功能比较专一、工作稳定可靠等诸多优点。本论文设计的是通用型LED显示屏,该屏可适用于室内外,其工作温度为-40℃――85℃。该屏显示能力灵活多变,显示模式多样,显示单元为单色点阵LED模块。 LED就是light emitting diode ,发光二极管的英文缩写,简称LED。LED 的内在特征决定了它是最理想的光源去代替传统的光源,它有着广泛的用途。它是一种通过控制半导体发光二极管的显示方式,其大概的样子就是由很多个通常是红色的小灯组成,靠灯的亮灭来显示字符。用来显示文字、图形、图像、动画、行情、视频、录像信号等各种信息的显示屏幕。 LED显示屏分为图文显示屏和视频显示屏,均由LED矩阵块组成。图文显示屏可与计算机同步显示汉字、英文文本和图形;视频显示屏采用微型计算机进行控制,图文、图像并茂,以实时、同步、清晰的信息传播方式播放各种信息,还可显示二维、三维动画、录像、电视、VCD节目以及现场实况。LED显示屏显示画面色彩鲜艳,立体感强,静如油画,动如电影,广泛应用于金融、税务、工商、邮电、体育、广告、厂矿企业、交通运输、教育系统、车站、码头、机场、商场、医院、宾馆、银行、证券市场、建筑市场、拍卖行、工业企业管理和其它公共场所。 LED显示屏可以显示变化的数字、文字、图形图像;不仅可以用于室内环境还可以用于室外环境,具有投影仪、电视墙、液晶显示屏无法比拟的优点。 纵观LED的发展历史,其之所以具有巨大的市场吸引力,根本在于:LED 的内在特征决定了它是最理想的光源去代替传统的光源,它有着广泛的用途和无可比拟的优点。

语音控制小车使用说明资料

语音控制小车用户说明书

目录 一、语音控制小车概述 (3) 1.1 功能简介 (3) 1.2 参数说明 (3) 1.3 注意事项 (3) 二、小车实物 (4) 2.1 车体结构 (4) 2.2 小车实物图 (4) 2.3 动力电机驱动电路 (5) 2.4 方向电机控制电路 (6) 2.5 语音识别原理简介 (6) 三、软件流程 (7) 3.1 主程序流程图 (7) 四、如何使用 (9) 4.1 连接硬件 (9) 5.2 代码下载 (9) 5.3 训练小车 (9) 5.4 声控小车 (10) 5.5 重新训练 (11)

一、语音控制小车概述 1.1 功能简介 语音控制小车综合应用了SPCE061A的众多资源,打破了传统教学中单片机学习枯燥和低效的现状。小车采用语音识别技术,可通过语音命令对其行驶状态进行控制。 语音控制小车的主要功能: 1)可以通过简单的I/O操作实现小车的前进、后退、左转、右转功能; 2)配合SPCE061A的语音特色,利用系统的语音播放和语音识别资源,实现语音控制的功能; 3)可以在行走过程中声控改变小车运动状态; 4)在超出语音控制范围时能够自动停车。 1.2 参数说明 车体:双电机四轮驱动 供电:电池(四节AA:1.5V×4) 工作电压:DC 4V~6V 工作电流:运动时约200mA 1.3 注意事项 1)安装电池一定要注意电池的正负极性,切勿装反; 2)长期不用请将电池从电池盒中取出; 3)由于语音信号的不确定性,语音识别的过程会出现一定的误差和不准确性; 4)由于小车行动比较灵活,速度比较快,在使用时一定要注意保持场地足够大,且保证不会对周围的物体造成伤害; 5)不要让小车长时间运行在堵转状态(堵转状态:由于小车所受阻力过大,造成小车电机加电但并不转动的现象),这样会造成很大的堵转电流,有可能会损坏小车的控制电路。

土木工程框架结构毕业设计开题报告

毕业设计(论文)开题报告学生姓名:学号: 所在学院:土木学院 专业:土木工程 设计(论文)题目:常州市某培训中心实训大楼 指导教师: 2013-1-11

毕业设计(论文)开题报告 1.结合毕业设计(论文)课题情况,根据所查阅的文献资料,每人撰写2000字左右的文献综述: 文献综述 课题的目的及意义(含国内外的研究现状分析或设计方案比较、选型 析等) 毕业设计是一个总结性的教学环节,是学生全面系统地融汇所学理论知识和专业技能并运用于解决实际问题的过程。通过本教学环节,要加深学生对所学基本理论知识的理解,培养学生综合分析和处理问题的能力以及设计创新精神,使学生得到有关单位工程建设从方案制定到施工组织的全过程系统性的训练。通过毕业设计这一重要的教学环节,培养土木工程专业本科毕业生正确的理论联系实际的工作作风,严肃认真的科学态度。毕业设计要求我们在指导老师的指导下,独立系统的完成一项工程设计,解决与之有关的所有问题,熟悉相关设计规范、手册、标准图以及工程实践中常用的方法,具有实践性、综合性强的显着特点。因此毕业设计对于培养学生初步的科学研究能力,提高其综合运用所学知识分析问题、解决问题能力有着重要意义。在完成本次毕业设计过程中,我们需要运用感性和理性知识去把握整个建筑的处理,这其中就包括建筑外观和结构两个方面。还需要我们更好的了解国内外建筑设计的发展的历史、现状及趋势,更多的关注这方面的学术动态,以及我们在以后的土木工程专业发展的方向。同时积极、独立的完成本次毕业设计也是为今后的实际工作做出的必要的准备。 一、研究现状 土木工程是建造各类工程设施的科学,技术和工程的总称。土木工程是伴随着人类社会的发展而发展起来的。它所建造的工程设施反映出各个历史时期社会经济、文化、科学、技术发展的面貌,因而土木工程也就成为社会历史发展的见证之一。土木工程在我国可以分为:建筑工程、桥梁工程、公路和城市道路工程、铁路工程、隧道工程、水利工程、港口工程、给水和排水工程、环境工程。作为土木工程专业的学生,深知土木工程设计范围之广,以及和社会生活联系之密切。我们在校只是学习了土木工程这一个

基于单片机技术的语音控制小车设计

1、引言 语音处理技术是一门新兴的技术,它不仅包括语音的录制和播放,还涉及语音的压缩编码和解码,语音的识别等各种处理技术。以往做这方面的设计,一般有两个途径:一种方案是单片机扩展设计,另一种就是借助于专门的语音处理芯片。普通的单片机往往不能实现这么复杂的过程和算法,即使勉强实现也要加很多的外围器件。专门的语音处理芯片也比较多,如ISD 系列、PM50 系列等,但是专门的语音处理芯片功能比较单一,想在语音之外的其他方面应用基本是不可能的。 SPCE061A 是一款 16 位μ'nSP结构的微控制器。该芯片带有硬件乘法器,能够实现乘法运算、内积运算等复杂的运算。它不仅运算能力强,而且处理速度快,单周期最高可以达到 49MHz。 SPCE061A 内嵌 32K 字的 FLASH 程序存储器以及 2K 的SRAM。同时该 SOC 芯片具有 ADC 和DAC 功能,其 MIC_ADC 通道带有AGC自动增益环节,能够很轻松的将语音信号采集到芯片内部,两路 10 位的电流输出型DAC,只要外接一个功放就可以完成声音的播放。以上介绍的这些硬件资源使得该SPCE061A 能够单芯片实现语音处理功能。 借助于 SPCE061A 的语音特色,“基于单片机技术的语音控制小车设计”实现了对小车前进、后退、左转、右转、停车等语音控制功能. 2、语音控制小车设计要求 2.1 功能要求: 1.可以通过简单的 I/O 操作实现小车的前进、后退、左转、右转功能; 2.配合 SPCE061A 的语音特色,利用系统的语音播放和语音识别资源,实现语音控制的功能; 3.可以在行走过程中声控改变小车运动状态; 4.在超出语音控制范围时能够自动停车。 2.2 参数说明 车体:双电机两轮驱动 供电:电池(四节 AA:1.2V×4 或 1.5V×4) 工作电压:DC 4V~6V 工作电流:运动时约 200mA 3.SPCE061A特性简介 SPCE061A是一款性价比很高的十六位单片机,使用它可以非常方便灵活的实现语音的录放,该芯片拥有8路10位精度的 ADC,其中一路为音频转换通道,并且内置有自动增益电路。这为实现语音录入提供了方便的硬件条件。两路10位精度的DAC,只需要外接功放(SPY0030A)即可完成语音的播放。该单片机具有一套易学易用的指令系统和集成开发环境,在此环境中,它支持标准 C 语言编程,也支持 C 语言与汇编语言的互相调用。另外还提供了语音录放的库函数,只要了解库函数的使用,就可以很容易的完成语音的录放、识别等功能,这些都为软件开发提供了方便的条件。 SPCE061A特性: 16位μ’nSP微处理器; 工作电压:内核工作电压VDD为 3.0V~3.6V(CPU),I/O口工作电压VDDH为VDD~5.5V(I/O); CPU时钟:0.32MHz~49.152MHz; 内置2K 字 SRAM;

语音控制小车实验报告

语音控制小车实验报告 专业: 学号: 姓名: 2014年01月12日

一、实验目的 语音控制小车以SPCE061A单片机为核心,采用语音识别技术,可通过语音命令对其行驶状态进行控制。本次实验的主要目的: 1.通过简单的I/O 操作实现小车的前进、后退、左转、右转功能; 2.配合SPCE061A 的语音特色,利用系统的语音播放和语音识别资源,实现语音控制的功能; 3.在行走过程中声控改变小车运动状态; 4.在超出语音控制范围时使小车停车。 二、实验内容 1、SPCE061A简介 SPCE061A是一款性价比很高的十六位单片机,使用它可以非常方便灵活的实现语音的录放,该芯片拥有8路10位精度的ADC,其中一路为音频转换通道,并且内置有自动增益电路。这为实现语音录入提供了方便的硬件条件。两路10位精度的DAC,只需要外接功放(SPY0030A)即可完成语音的播放。该单片机具有一套易学易用的指令系统和集成开发环境,在此环境中,它支持标准 C 语言编程,也支持 C 语言与汇编语言的互相调用。另外还提供了语音录放的库函数,只要了解库函数的使用,就可以很容易的完成语音的录放、识别等功能,这些都为软件开发提供了方便的条件。 SPCE061A特性: 16位μ’nSP微处理器; 工作电压:内核工作电压VDD为 3.0V~3.6V(CPU),I/O口工作电压VDDH为VDD~5.5V(I/O); CPU时钟:0.32MHz~49.152MHz; 内置2K 字 SRAM; 内置32K 闪存 ROM; 可编程音频处理; 晶体振荡器; 系统处于备用状态下(时钟处于停止状态),耗电小于 2μA@3.6V; 2 个 16 位可编程定时器/计数器(可自动预置初始计数值); 2 个 10 位 DAC(数-模转换)输出通道; 32 位通用可编程输入/输出端口;

智能语音控制系统

作品说明书 题目:智能语音控制系统 目录 1. 开发背景 (2) 2. 原理 (2) 3. 设计方案 (2) 4. 硬件电路设计 (3) 5. 软件程序设计 (5) 6.理论分析与算法 (5)

1.开发背景 20世纪80年代初,随着大量采用电子技术的家用电器面市,家居系统电子化(HE,Homen Electronics),智能化越来越多。然而当今人们对日常设备的智能化控制要求越来越高,从原来的复杂化到简单话,在由简单化到傻瓜化,但是现在人们还是不满足,他们还想要更简单的更方便的更智能的方法来控制自己拥有的设备,这就是语音控制系统为什么会在现代社会如此流行,如此受到大家的欢迎,让语音控制系统成为当今最前沿的民用控制技术。 2. 原理 本系统采用r8c瑞萨单片机采集语音信号,再把语音信号通过通信传到电脑上去,通过电脑的高述的CPU对你说的话就是语音进行分析与计算,最终达到对语音识别的目的,当上位机识别到你说发出的语音后把信号通过通信传回单片机,通过单片机在来控制所有你想控制的设备,如电视、空调、冰箱、电饭锅、洗衣机等家用电器的工作。本系统运用了很多前沿性的技术,通信,单片机控制,对语音的分析,是本系统的三大主要内容,特别是对语音的分析才是本系统的灵魂。 3.设计方案 单片机经过一个音频接收电路把音频(声音)信号采集进单片机机系统中,在通过选用TL064CN语音芯片把音频信号转换成对应的电压值,再通过瑞萨单片机(16位)的AD采样把电压采集进来,同时为了提高采样频率,就采用直接把未处理的数据通过RS232接口上传到上位机软件中;在上位机程序中通过一定的算法处理采集到的数据流,然后把这些数据对应的“写”到窗体显示程序中(既分析仪界面),以实现音频信号的采集工作进行分析。最后得出结果,再由上位机传送控制信号回单片机,让单片机进行控制.

(完整版)土木工程毕业设计开题报告

题目:学生公寓 学院:应用技术学 院 专业:土木工程 学生姓名:李唯一学号: 指导老师:陈金陵、唐亮、农金龙、罗舟 2014年 3 月10 日

毕业设计(论文)开题报告1.文献综述:结合毕 业设计(论文)课题情 况,根据所查阅的文献 资料,每人撰写2500 字以上的文献综述,文 后应列出所查阅的文 献资料。

文献综述一、引言 建筑是人类最早的生产活动之一,是在一定的历史条件下,随着社会生产力发展而形成发展的。由于经济的发展、土地的减少,现代建筑趋向于多高层建筑,而砌体结构存在自重大、砌筑工作相当繁重、抗拉抗弯性能低、粘土砖用量很大,往往占用农田,影响农业生产等缺点,现代建筑多采用框架结构、框剪结构、框筒结构等结构体系。近年来框架结构在世界各地又有了很大的发展,许多城市普遍兴建了包括商场、住宅、旅馆、办公楼和多功能建筑等各种类型的框架建筑[1]。 土木工程专业学生毕业后参加或从事框架结构设计已成为必须面对的现实之一。而框架结构是多高层建筑的一种主要结构形式。框架结构

有钢筋混凝土框架和钢框架,而钢筋混凝土框架在教育建 筑中较为常用。框架结构内部可用轻型材料分隔,许多轻型、隔热、隔音材料不断出现,绿色建材不断涌现[2]。 我的毕业设计是做框架 结构,需要对该结构具有较为深入的了解。该学生的建筑要求设计4000平米左右,五~六层。建筑设计要求建筑物功能分区合理,布置适宜,满足各项使用功能要求;结构设计要求结构布置合理,构件设计安全经济合理。 二、建筑设计[3] 1、学生宿舍建筑的功能要求 宿舍的功能主要是满足学生睡眠、休息、学习、交往、研讨、储存及做饭用膳等多种要求。标准不同,则功能有所增减,但基本上可以归纳为住宿、学习及社交三大功能。学生宿舍需要的

基于单片机技术的语音控制小车设计--(

基于单片机技术的语音控制小车设计--( 附: 湘潭市技师学院 毕业论文(设计) 题目关于单片机控制语音小车的系统设计 专业机电一体化 班级:姓名 指导教师 2012 年 2 月27 日 关于单片机控制语音小车的系统设计 目录 1、引言 2、语音控制小车设计要求 2.1 功能要求 2.2 参数说明 3. SPCE061A特性简介 4、系统总体方案介绍 5、系统硬件设计 5.1 车体介绍

5.2 小车的行走原理 5.3 控制板原理图 6、系统软件设计 6.1 系统的主程序设计 6.2主控制源程序: 6.3 语音识别的原理简介 7、总结 8、结束语 基于单片机技术的语音控制小车设计 1、引言 语音处理技术是一门新兴的技术,它不仅包括语音的录制和播放,还涉及语音的压缩编码和解码,语音的识别等各种处理技术。以往做这方面的设计,一般有两个途径:一种方案是单片机扩展设计,另一种就是借助于专门的语音处理芯片。普通的单片机往往不能实现这么复杂的过程和算法,即使勉强实现也要加很多的外围器件。专门的语音处理芯片也比较多,如ISD 系列、PM50 系列等,但是专门的语音处理芯片功能比较单一,想在语音之外的其他方面应用基本是不可能的。 SPCE061A 是一款 16 位μ'nSP结构的微控制器。该芯片带有硬件乘法器,能够实现乘法运算、内积运算等复杂的运算。它不仅运算能力强,而且处理速度快,单周期最高可以达到 49MHz。 SPCE061A 内嵌 32K 字的 FLASH 程序存储器以及 2K 的SRAM。同时该 SOC 芯片具有 ADC 和 DAC 功能,其 MIC_ADC 通道带有AGC自动增益环节,能够很

语音控制的智能小车设计方案

语音控制的智能小车设计方案 根据美国玩具协会的调查统计,近年来全世界玩具销量增幅与全世界平均GDP增幅大致相当而全世界玩具市场的内在结构比重却发生了重大变化:传统玩具的市场比重正在逐步缩水,高科技含量的电子玩具则蒸蒸日上 美国玩具市场的高科技电子玩具的年销售额2004年较2003年增长52%,而传统玩具的年销售额仅增长3%英国玩具零售商协会选出的2001年圣诞最受欢迎的十大玩具中,有七款玩具配有电子元件从这些数字可以看出,高科技含量的电子互动式玩具已经成为玩具行业发展的主流本文设计一个具有语音识别功能的智能遥控小车该小车对传统的手动遥控小车的机械部分做了改进使之可以实现任意角度转向和以任意速度前进而不象一般的小车那样只能以固定角度转向和以固定速度前进因此更加接近真实的车辆 本文还在小车的控制系统中采用语音识别系统,使控制者可以用语音对小车进行控制,产生相应的动作,而且小车和控制者还具有一定的交互功能 1 智能小车总体结构框图 智能小车主要由转向机构、驱动机构、转向控制模块、驱动控制模块、遥控模块和语音控制模块六大部分组成,如图1所示

2 机械本体结构及工作原理 小车为轮式结构,如图2所示机械部分分为转向机构(图中椭圆内的部分)和驱动机构(图中椭圆外部分)转向机构主要由转向电机、转向架和两个前轮组成驱动机构采用玩具小车常用的双电机驱动方案,包括两个减速电机和两个后轮转向机构工作原理为:转向时由控制者向小车发出转向信号,转向电机根据转向信号正向或反向旋转一定角度,电机通过齿轮、齿条系统带动转向架摆动一定角度,最终带动与转向架固定在一起的前轮偏摆一定角度小车在转向时由于内、外侧的车轮的转弯半径不同,所以内外侧车轮的转速也不相同前轮为从动轮,会根据转弯角度的大小自动调节内、外侧车轮的转速;而后轮为主动轮,其转速分别由两个电机独立驱动,不会根据转弯半径自动调节转速因此小车转弯时,控制系统在控制转向电机的同时还需要根据转向角度的大小向两个驱动电机发出控制信号,

基于语音控制的智能小车商业计划书

基于语音控制的智能小车 商业计划书 This model paper was revised by the Standardization Office on December 10, 2020

2012年第六届美新杯中国大学生物联网创新创业大赛 商业计划书 作品题目:基于语音控制的智能小车 作品成员:莫邵文赖伟玮代贺苏静怡 学校:东北大学秦皇岛分校 目录 2 3 3 3.品牌战略 (9) 4.企业文化 (10) 5.管理战略 (10) 6.科技创新 (10) 1.产品营销 (13) 2.产品推广 (14) 3.制造计划 (14)

1.股本结构 (15) 2.主要财务假定 (16) 3.未来五年主要财务报表 (17) 4.财务指标分析 (26) 5.投资收益与风险分析 (27) 28 一、作品摘要 随着我国科学技术的进步,智能化和自动化技术越来越普及,各种高科技也广泛应用于智能小车和机器人玩具制造领域,使智能机器人越来越多样化。智能小车是一个多种高薪技术的集成体,它融合了机械、电子、传感器、计算机硬件、软件、人工智能等许多学科的知识,可以涉及到当今许多前沿领域的技术。 本小车设计主要由单片机控制系统模块、稳压电源模块、舵机驱动模块、红外传感器模块和射频模块组成,系统以STC89c52单片机为核心,对外设进行控制,利用线性稳压芯片对电压进行稳定控制,使用两节18650锂电池为单片机及其他外设进行稳定供电,利用红外对管模块实现自动避障功能,利用nrf24l01射频模块和ld3320语音模块的结合,对小车进行变速、角度转变、启动和终止的实现。 下为小车成品图 图1-1小车成品图 二、作品介绍 在机械结构上,对普通的玩具小车做了改进,使小车的转向更加灵活,并且在设计范围内可以实现多角度和多档速度移动;而在控制系统部

智能语音控制系统设计

目前,家居电气设备的常规控制方式有手动控制和红外遥控,随着智能设备的发展,已经出现了可智能控制的家居设备,但是这些设备面对的是具有正常行动能力的人群,而对于那些无人照顾、行动迟缓的老年人和残疾人来说,使用常规和智能终端来控制设备显然是不方便和不适用的,为此本课题设计了一种基于单片机的语音控制系统,采用了语音指令控制家具设备的开启或关闭,同时可以利用单片机获取传感器采集的环境参数来监测室内温度,从而使现代生活变得快速、便捷、安全[1]。1系统硬件设计 本系统主要由语音识别模块、按键控制模块、显示模块、电机控制模块、报警模块、无线控制模块构成,系统硬件总体设计模块如图1所示。 图1系统设计方案框图 本文将所有硬件设计按照模块来设计,模块化设计的好处在于能够将产品的组合与销量进行结合,为各个不同的消费者提供不同的消费等级。本设计主要包括以下几个方面: 1)显示模块:拟采用液晶显示屏和LED灯,前者可以实时为主老人提供必要的信息,如家居开关状态、时间等。LED灯可以模拟智能家居灯和其他模块启动指示灯。 2)语音识别模块:采用LD3320语音识别芯片和相关控制电路,在用户的语音进入语音识别部分后,LD3320将把处理过的数据并行传输到主控制器,主控制器处理后,发送命令数据到可扩展外围串行设备实现控制操作。 3)主控模块:拟采用STM32F103RCT6单片机作为系统控制器。 4)报警模块:提供蜂鸣器报警或语言报警两种模式,针对不同客户选用不同模式,防止家居出现问题时可以进行报警,一定程度上保证了老人的健康安全。 5)供电模块:拟采用锂电池+小型号光能电池板,保证整个系统正常运行。 6)按键控制模块:通过按键来控制系统,开启系统相关功能。 7)无线控制模块:控制其他一些智能设备,如智能衣架、机 库等。 8)电机控制模块:用来开通或者关闭门窗等。 2程序设计 2.1语音识别模块 LD3320模块为集成一体化设计,首先设置寄存器对芯片 进行初始化,然后通过设置寄存器把需要识别的关键词或句子 的拼音串传入LD3320芯片中,之后使寄存器控制芯片开始启 动一次识别过程[2],按键激活后,通过咪头和相关电路采集语音信息,通过与LD3320关键词语列表进行匹配比对,将相识度最 高的识别码直接通过串口输出到单片机进行处理,语音写入流 程图和语音识别流程图分别如图2和图3所示。 图2语音写入流程图图3语音识别流程图 2.2主控模块程序设计 主控模块采用STM32F103RCT6单片机来控制外围设备, 其工作电压为2.0V~3.6V,具有超强抗干扰、集成度高、低功耗 等优点,足以满足系统需要。主控模块主要控制四个部分,即显 示模块、无线控制模块、电机模块和报警模块。 当语音识别模块检测到“开灯”、“关灯”、“灯亮一点”、“灯暗 一点”关键词时,系统利用STM32系列单片机内部定时器的PWM模式产生PWM波形,通过PWM波的脉冲频率和其占空 智能语音控制系统设计 张敏杜丹阳李洪海(淮阴工学院,江苏淮安223003) Design of Intelligent Voice-Controled Systems 摘要:基于ARM芯片,设计一种智能语音控制系统。系统包括腕带式信息采集终端,拥有语音识别模块、按键控制模块、显示模块、电机控制模块、报警模块、无线控制模块,经随身佩戴,系统稳定,可靠性较高。 关键词:智能,语音控制,腕带式 Abstract押Based on ARM熏an intelligent voice control system device is designed in this paper.Wrist band type information ac?quisition terminal is included.The utility model is characterized in that the wrist band type information collection terminal is pro?vided with a speech recognition module熏a key button control module熏a liquid crystal display module熏a motor control module熏an alarm module熏a wireless control module熏and an operator only needs to wear it with him.The procedure is convenient and simple. Keywords押intelligence熏voice control熏wrist strap type 智能语音控制系统设计144

土木工程 毕业设计开题报告

学号毕业设计开题报告 课题名称:岳阳市恒大名都会所设计 (方案一) 学生姓名: 系别:建筑与化学工程系 专业:土木工程08级 指导教师: 2012年2月14日

一、综述国内外对本课题的研究动态,说明选题的依据和意义:(一)国内外对本课题的研究动态: 商务会所为广大的商务精英提供一个交流,互助的平台,让会员之间结成长期合作的战略伙伴关系。并以紧密联合体的形式去拓展市场,最大限度地相互支持,共同走可持续化发展的道路! 商务会所服务人群定位为商务人士,中小企业,艺术家和中等收入以上有一定文化品位人群。那么根据此次的设计题目,以及结合任务书所给定的各项条件,选择框架结构比较合理并且切合实际。 我国多层框架结构发展主要表现有采用轻质高强结构的设计,发展新兴先进的施工工艺,尤其在高层建筑领域的快速发展,提高效益和经济。 国外,在发达国家,多层混凝土框架结构已经形成各种不同的多功能建筑结构体系和工厂化生产体系同步发展的趋势。随着机械化生产不断提升,节约大量人力、材料、时间。结构材料也朝高强、轻质、多功能方向发展,如高性能混凝土的大量应用和发展;框架结构体系大跨度、大空间通用化方向发展。

(二)依据和意义: 国内外研究依据: 框架结构由梁柱构成,构件截面较小,因此框架结构的承载力和刚度都较低,它的受力特点类似于竖向悬臂剪切梁,楼层越高,水平位移越慢,高层框架在纵横两个方向都承受很大的水平力,这时,现浇楼面也作为梁共同工作的,装配整体式楼面的作用则不考虑,框架结构的墙体是填充墙,起围护和分隔作用,框架结构的特点是能为建筑提供灵活的使用空间,可提供较大的使用空间,也可构成丰富多变的立面造型。国外多用钢为框架材料,而国内主要为钢筋混凝土框架,框架结构可通过合理的设计,使之具有良好的延性,成为“延性框架”,在地震作用下,这种延性框架具有良好的抗震性能。 [1]钢筋混凝土多层框架结构作为一种常用的结构形式,具有传力明确、结构布置灵活、抗震性和整体性好的优点,目前已被广泛地应用于各类多层的工业与民用建筑中。随着社会的发展,多层框架结构的建筑越来越多了。但随着结构高度增加,水平作用使得框架底部梁柱构件的弯矩和剪力显著增加,从而导致梁柱截面尺寸和配筋量增加,到一定程度,将给建筑平面布置和空间处理带来困难,影响建筑空间的正常使用,在材料用量和造价方面也趋于不合理。框架结构住宅是指以钢筋混凝土浇捣成承重梁柱,再用预制的加气混凝土、膨胀珍珠岩、浮石、蛭石、陶烂等轻质板材隔墙分户装配成而的住宅。适合大规模工业化施工,效率较高,工程质量较好。 [2]框架结构房屋的布置应对称、均匀,减小抗侧刚度中与水平荷载合力作用线的距离,减小结构重心和刚度中心之间的距离,以减小结构发生的扭转。由于框架构件截面较小,抗侧刚度较小,在强震作用下结构整体位移和层间位移都较大,容易产生震害。此外,非结构性破坏如填充墙、建筑装修和设备管道等破坏较严重。因而其主要适用于非抗震区和层数较少的建筑,抗震设计的框架结构除需加强梁、柱和节点的抗震措施外,还需注意填充墙的材料以及填充墙与框架的连接方式等,以避免框架变形过大时填充墙的破坏。框架结构是柔性结构,有水平位移,房屋的总水平位移越大,人的感觉越不舒服,而层间位移会影响建筑物的装修和隔墙开裂,因而对这两种

基于51单片机的LED点阵显示屏系统的设计与实现毕业设计(论文)

毕业设计(论文) 题目名称:基于51单片机的LED点阵显示屏系统 的设计与实现

毕业设计(论文)原创性声明和使用授权说明 原创性声明 本人郑重承诺:所呈交的毕业设计(论文),是我个人在指导教师的指导下进行的研究工作及取得的成果。尽我所知,除文中特别加以标注和致谢的地方外,不包含其他人或组织已经发表或公布过的研究成果,也不包含我为获得及其它教育机构的学位或学历而使用过的材料。对本研究提供过帮助和做出过贡献的个人或集体,均已在文中作了明确的说明并表示了谢意。 作者签名:日期: 指导教师签名:日期: 使用授权说明 本人完全了解大学关于收集、保存、使用毕业设计(论文)的规定,即:按照学校要求提交毕业设计(论文)的印刷本和电子版本;学校有权保存毕业设计(论文)的印刷本和电子版,并提供目录检索与阅览服务;学校可以采用影印、缩印、数字化或其它复制手段保存论文;在不以赢利为目的前提下,学校可以公布论文的部分或全部内容。 作者签名:日期:

学位论文原创性声明 本人郑重声明:所呈交的论文是本人在导师的指导下独立进行研究所取得的研究成果。除了文中特别加以标注引用的内容外,本论文不包含任何其他个人或集体已经发表或撰写的成果作品。对本文的研究做出重要贡献的个人和集体,均已在文中以明确方式标明。本人完全意识到本声明的法律后果由本人承担。 作者签名:日期:年月日 学位论文版权使用授权书 本学位论文作者完全了解学校有关保留、使用学位论文的规定,同意学校保留并向国家有关部门或机构送交论文的复印件和电子版,允许论文被查阅和借阅。本人授权大学可以将本学位论文的全部或部分内容编入有关数据库进行检索,可以采用影印、缩印或扫描等复制手段保存和汇编本学位论文。 涉密论文按学校规定处理。 作者签名:日期:年月日 导师签名:日期:年月日

相关文档
最新文档