数字音频协议介绍

合集下载

数字音频协议介绍(DOC)

数字音频协议介绍(DOC)

数字音频协议介绍目录AES/EBU (1)ADAT (6)I2S (7)时分复用(TDM) (9)MIDI (11)AES/EBU简介:AES3: Audio Engineering Society Standard #3EBU: European Broadcasting UnionAES3 接口在1985 年已经被指定并在1992 年正式成为标准接口。

自从定为标准后,AES3 反复更新和调整以适应先进设备的要求,其应用非常普遍。

但另一方面来说这使得它有点复杂。

规格:•2 通道•平衡传输信号•XLR连接头•音频数据达24Bit / 192kHz•缆线长:100m 或更多•阻抗:110Ohm (±20%)•负载电平:输出端2 - 7 Vpp(110 Ohm ,缆线不能长)•大量的通道状态信息AES3 和AES/EBU 比较AES3 数字音频接口和AES/EBU 数字接口只在一个细节上有区别:EBU 标准规定在接口的发送端和接收端强制安装有耦合变压器,而这在AES3 标准中只是可选功能。

功能:发展AES3 标准的目的是为了使数字音频数据可以重复利用模拟音频信号传输网络,要构成一个传输网络需几万米的线来连接设备比如广播电台等。

这些都是平衡缆线,传输信号的频率可达10MHz,若进行适当的信号均衡的话缆线长度可达300m。

若需通过这些模拟信号音频线来传输数字信号的话,需满足以下几个条件,这些条件很容易就可以达到:•由于传输链可能有变压器,因此信号必须是不含直流分量。

•由于没有额外的缆线来传输位时钟(bit clock )和采样时钟(sample clock ),因此信号自身需携带有时钟信号。

•极性逆转对重拾音频信息无影响。

这些条件可以通过双向标记编码方案(bi-phase-mark coding scheme)来满足。

概述:通过双相标记编码,每个比特的边界都以切换信号极性的方法标记出来。

为了区分信号“1”与信号“0”,需在“1”位插入一个额外的过渡标记代码(如图所示)。

i2s协议的时钟频率

i2s协议的时钟频率

i2s协议的时钟频率介绍I2S(Inter-IC Sound)是一种数字音频传输协议,广泛应用于音频设备之间的数据传输。

I2S协议定义了音频数据的格式和传输时序,其中时钟频率是协议中的一个重要参数。

本文将深入探讨i2s协议的时钟频率。

I2S协议概述I2S协议是由飞利浦(Philips)公司于1986年开发的,旨在为数字音频设备提供一种标准的接口。

它通过三根线进行数据传输:时钟线(SCK),帧同步线(WS)和数据线(SD)。

其中,时钟频率是由时钟线控制的。

I2S协议的时钟频率I2S协议的时钟频率是指时钟线上的时钟信号的频率,它决定了音频数据的采样率和传输速度。

时钟频率通常以Hz为单位表示。

I2S协议的时钟频率与音频质量的关系时钟频率对音频质量有直接影响。

较高的时钟频率意味着更高的采样率和传输速度,可以提供更高质量的音频信号。

然而,较高的时钟频率也需要更高的传输带宽和处理能力,因此在实际应用中需要权衡音频质量和系统资源之间的关系。

I2S协议的时钟频率设置在使用I2S协议传输音频数据时,需要正确设置时钟频率以确保数据的准确传输。

时钟频率的设置通常包括以下几个方面:1. 采样率采样率是指每秒钟采集的音频样本数。

常见的采样率包括44.1kHz、48kHz等。

在设置时钟频率时,需要根据采样率来确定时钟信号的频率。

2. 位深度位深度是指每个音频样本的比特数,它决定了音频的动态范围和分辨率。

常见的位深度包括16位、24位等。

时钟频率的设置也需要考虑位深度的影响。

3. 数据格式I2S协议支持多种数据格式,如左对齐(Left-Justified)、右对齐(Right-Justified)和标准I2S格式。

不同的数据格式对应不同的时钟频率设置。

I2S协议的时钟频率计算公式根据I2S协议的规范,可以使用以下公式计算时钟频率:时钟频率 = 采样率× 位深度× 2其中,采样率为每秒钟的采样数,位深度为每个样本的比特数,乘以2是因为I2S协议每个样本需要两个时钟周期。

BISS协议简介

BISS协议简介

BISS协议简介一、引言BISS(Basic Interoperable Scrambling System)是一种用于加密和解密数字视频和音频信号的协议。

该协议广泛应用于广播、电视和网络传输领域,旨在保护内容的安全性和版权。

本协议简介旨在提供对BISS协议的基本了解,并介绍其主要特点和应用场景。

二、协议背景随着数字媒体技术的发展,音视频内容的传输和分发方式也在不断演进。

然而,数字内容的安全性和版权保护成为一个重要的问题。

为了解决这一问题,BISS协议应运而生。

BISS协议通过加密和解密信号,确保只有具备相应解密密钥的接收方才能正常解码和播放。

三、协议原理BISS协议基于对称加密算法,使用相同的密钥进行加密和解密操作。

具体原理如下:1. 发送方使用密钥对音视频信号进行加密。

2. 接收方使用相同的密钥对加密信号进行解密。

3. 加密和解密过程中,密钥必须保密,并且只有授权的接收方才能获得密钥。

四、协议特点BISS协议具有以下特点:1. 安全性高:采用对称加密算法,确保传输内容的安全性和保密性。

2. 灵活性强:支持多种加密算法和密钥长度,可根据实际需求进行配置。

3. 兼容性好:BISS协议可以与现有的数字传输设备和系统无缝集成,不需要进行大规模的改造和升级。

4. 扩展性强:协议支持多种信号类型和传输协议,适用于广播、电视和网络传输等多个领域。

五、协议应用BISS协议广泛应用于以下场景:1. 广播电视行业:用于保护广播电视节目的安全性和版权,防止未经授权的信号窃听和盗播。

2. 付费电视:用于加密和解密付费电视节目,限制只有付费用户才能观看。

3. 网络传输:用于保护在线视频的安全性,防止未经授权的拷贝和传播。

4. 远程监控:用于加密和解密视频监控信号,确保监控内容的安全性和保密性。

六、协议实施BISS协议的实施需要以下步骤:1. 确定加密算法和密钥长度:根据实际需求,选择合适的加密算法和密钥长度。

2. 生成密钥:由授权方生成密钥,并确保密钥的安全性和保密性。

天翼爱音乐数字音乐版权使用协议

天翼爱音乐数字音乐版权使用协议

天翼爱音乐数字音乐版权使用协议一、协议概述二、定义与解释在本协议中,除非上下文另有明确说明,下列术语具有以下含义:“数字音乐”:指以数字化形式存储、传播和使用的音乐作品,包括但不限于音频文件、音乐视频等。

“版权”:指著作权人对其创作的作品依法享有的权利,包括但不限于复制权、发行权、表演权、广播权、信息网络传播权等。

“使用”:指乙方对甲方提供的数字音乐进行播放、下载、分享、制作衍生品等行为。

三、甲方的权利和义务1、甲方有权对其拥有版权或经合法授权的数字音乐进行管理和授权使用。

2、甲方应保证所提供的数字音乐的版权合法性和有效性,不侵犯任何第三方的合法权益。

3、甲方应向乙方提供必要的技术支持和服务,确保乙方能够正常使用数字音乐。

4、甲方有权根据法律法规和业务需要,对数字音乐的使用规则和服务内容进行调整和变更,但应提前通知乙方。

四、乙方的权利和义务1、乙方有权在本协议约定的范围内使用甲方提供的数字音乐。

2、乙方应遵守国家法律法规和本协议的约定,合法使用数字音乐,不得从事任何违法、侵权或损害甲方及第三方合法权益的行为。

3、乙方不得将数字音乐用于商业盈利目的,除非事先获得甲方的书面授权。

4、乙方应按照甲方的要求,如实提供使用数字音乐的相关信息和数据。

五、使用范围和限制1、乙方仅可在个人非商业用途范围内使用数字音乐,例如个人娱乐、学习、研究等。

2、乙方不得对数字音乐进行修改、剪辑、改编或制作混音等操作,除非获得甲方的书面授权。

3、乙方不得将数字音乐提供给第三方使用,包括但不限于共享、转让、出租、出借等。

4、乙方不得在未经甲方许可的情况下,将数字音乐用于公开表演、广播、网络直播等活动。

六、知识产权保护1、甲乙双方应尊重对方的知识产权,未经对方书面许可,不得擅自使用、复制、传播对方的知识产权成果。

2、乙方在使用数字音乐过程中,应注明音乐的版权归属信息,如“本音乐由天翼爱音乐提供版权”等。

七、保密条款1、双方应对在履行本协议过程中知悉的对方商业秘密、技术秘密和个人隐私等信息予以保密,未经对方书面许可,不得向任何第三方披露或使用。

I2S音频通信协议

I2S音频通信协议

I2S音频通信协议I2S有3个主要信号:1.串行时钟SCLK,也叫位时钟(BCLK),即对应数字音频的每一位数据,SCLK都有1个脉冲。

SCLK 的频率=2×采样频率×采样位数2. 帧时钟LRCK,用于切换左右声道的数据。

LRCK为“1”表示正在传输的是左声道的数据,为“0”则表示正在传输的是右声道的数据。

LRCK的频率等于采样频率。

3.串行数据SDATA,就是用二进制补码表示的音频数据。

I2S(Inter-IC Sound Bus)是飞利浦公司为数字音频设备之间的音频数据传输而制定的一种总线标准。

在飞利浦公司的I2S标准中,既规定了硬件接口规范,也规定了数字音频数据的格式。

有时为了使系统间能够更好地同步,还需要另外传输一个信号MCLK,称为主时钟,也叫系统时钟(Sys Clock),是采样频率的256倍或384倍。

三种信号的概略图如下:I2S格式的信号无论有多少位有效数据,数据的最高位总是出现在LRCK变化(也就是一帧开始)后的第2个SCLK脉冲处(如上)。

这就使得接收端与发送端的有效位数可以不同。

如果接收端能处理的有效位数少于发送端,可以放弃数据帧中多余的低位数据;如果接收端能处理的有效位数多于发送端,可以自行补足剩余的位。

这种同步机制使得数字音频设备的互连更加方便,而且不会造成数据错位。

随着技术的发展,在统一的 I2S接口下,出现了多种不同的数据格式。

根据SDATA数据相对于LRCK 和SCLK的位置不同,分为左对齐(较少使用)、I2S格式(即飞利浦规定的格式)和右对齐(也叫日本格式、普通格式)。

这些格式如上说描述,综上为了保证数字音频信号的正确传输,发送端和接收端应该采用相同的数据格式和长度。

当然,对I2S格式来说数据长度可以不同。

TS协议解析范文

TS协议解析范文

TS协议解析范文TS(Transport Stream)协议是一种用于传输音视频数据的协议,主要用于广播和传输领域。

它是MPEG(Moving Picture Experts Group)组织制定的一种标准,用于在数字电视中传送视频和音频数据。

TS协议解析主要包括协议的基本介绍、协议格式、协议应用和协议的优势等方面。

下面将对TS协议进行详细解析。

一、基本介绍TS协议是一种用于传输音视频数据的协议,它的全称是Transport Stream。

TS协议最早是在数字广播和数字电视领域中应用的,后来也被广泛用于互联网传输领域。

TS协议是一种基于分组的传输协议,它将音视频数据分割成小的数据包进行传输。

每个数据包包含了以时间为基准的音视频帧数据。

二、协议格式1.数据包格式:每个数据包由188字节组成。

前4个字节是同步字节,用于标识数据包的起始位置。

紧接着的1个字节是传输错误指示位,用于指示数据包是否有错误。

接下来的1个字节是每个数据包的有效载荷单元开始指示位,用于指示有效载荷单元的开始位置。

剩下的184个字节是有效载荷单元。

2.数据包层次结构:每个数据包分为三个层次,包头、适配字段和有效负载。

包头的长度是4个字节,包含了同步字节和控制信息。

适配字段的长度是0~183个字节,用于对不同的数据包做适配处理。

有效负载包含了音视频数据。

3. 多路复用:在TS协议中,可以将多个音视频数据流进行多路复用,并通过PID(Packet ID)进行区分。

每个音视频数据流占用一个PID,并且在数据包的包头中进行标识。

接收端可以通过PID来识别不同的音视频数据。

三、协议应用1.数字广播:TS协议广泛应用于数字广播领域,例如地面数字电视、卫星数字电视和有线数字电视等。

在数字广播中,TS协议被用于将音视频数据进行传输,以提供高清晰度的视频和高音质的音频。

2.视频点播:TS协议也可以应用于视频点播领域。

在视频点播中,TS协议可以将视频文件进行分割,并通过网络进行传输。

AES

AES

AES/EBU是一种通过基于单根绞合线对来传输数字音频数据的串行位传输协议,其全称是Audio Engineering Society/European Broadcast Union(音频工程师协会/欧洲广播联盟),其《双通道线性表示的数字音频数据串行传输格式》,EBU是指EBU 中AES是指AES3-1992标准:发表的数字音频接口标准EBU3250,两者内容在实质上是相同的,统称为AES/EBU数字音频接口。

AES/EBU标准传输数据时低阻抗,信号强度大,波形振幅在3-10V之间,传送速率为6Mbps,抗干扰能力很强,减小了通道间的极性偏移、不平衡、噪音、高频衰减和增益漂移等问题造成的影响,适合较远距离的传输。

整栋大楼内全部以AES/EBU格式电缆进行音频信号的长距离数字化传输,最远的单根信号线传输距离超过400米AES/EBU与网络系统相比的优势1、传输距离更远。

基于局域网的音频传输系统单根网线最长100米,接入路由器后,两点之间最长也就200米的传输距离,超过这个距离就必须使用光纤系统。

而AES/EBU格式在没有中继的情况下,根据AES协会在1995年出台并在2001年更新的AES-3id -1995补充文件规定,最长可以传输超过1000米的距离。

2、传输延时可以忽略。

而AES/EBU格式没有可计的延时,在实际应用中完全可以忽略。

3、系统构成简单可靠4、系统总体造价更低,更为经济选用的LS9/16是06年底新面市的一款专门针对现场扩声应用而设计的数字调音台,在其机背的扩展槽内插入一块MY8-AE的扩展卡,即具备8路AES/EBU信号输出。

而SP2060是一款自带2路AES/EBU信号输入接口,6路模拟输出的多功能音频处理器,可以完成全部的通道分配、均衡、分频和延时等处理功能,并完成数字信号到模拟信号的转换。

该系统中,LS9调音台每两路AES/EBU格式信号输出通过长距离电缆送至功放机柜内的SP2060,实现了数百米的完全无损的高可靠性的数字音频传输。

民用数字音频接口协议

民用数字音频接口协议

S/PDIFS/PDIF是索尼与飞利浦公司合作开发的一种民用数字音频接口协议。

可用RCA(莲花线)传输一路立体声信号,单向传输或用Optical(单模光纤)传输一路立体声信号,单向传输S/PDIF的全称是Sony/Philips Digital Interconnect Format,由于被广泛采用,它成为事实上的民用数字音频格式标准,大量的消费类音频数字产品如民用CD机、DAT、MD机、计算机声卡数字口等都支持S/PDIF,在不少专业设备上也有该标准的接口。

S/PDIF格式和AES/EBU有略微不同的结构。

音频信息在数据流中占有相同位置,使得两种格式在原理上是兼容的。

在某些情况下AES/EBU的专业设备和S/PDIF的用户设备可以直接连接,但是并不推荐这种做法,因为在电气技术规范和信道状态位中存在非常重要的差别,当混用协议时可能产生无法预知的后果。

S/PDIF的普通物理连接媒质主要是采用捆紧式/光学波导连接设备,如采用BNC连接器的75Ω同轴电缆,电平范围0.2V~5Vpp,距离在10m内;还可选用光学Toslink接头和塑料光缆,距离小于1.5m;如果大于1km的距离,可使用玻璃光缆和使用编解码器。

认识与应用声卡S/PDIF接口许多朋友都听说过S/PDIF接口,但它究竟是什么?有什么用处?恐怕许多朋友都并不了解。

今天我们就简单对S/PDIF接口做一介绍,大家会发现,这真的是一项非常实用的技术。

初识S/PDIF接口市面上许多好一点的声卡上都提供了S/PDIF接口,S/PDIF (Sony/Philips Digital Interconnect Format:索尼和飞利浦数字接口的英文缩写)接口是由Sony与Philips公司联合制定的一种数字音频输出接口。

广泛应用在CD、声卡及家用电器等方面。

其主要作用就是改善CD音质,提高信噪比,给我们更纯正的听觉效果。

S/PDIF技术应用在声卡上的表现即是声卡提供了S/PDIF In、S/PDIF Out接口。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

数字音频协议介绍目录AES/EBU (2)ADAT (6)I2S (7)时分复用(TDM) (10)MIDI (12)AES/EBU简介:AES3: Audio Engineering Society Standard #3EBU: European Broadcasting UnionAES3 接口在1985 年已经被指定并在1992 年正式成为标准接口。

自从定为标准后,AES3 反复更新和调整以适应先进设备的要求,其应用非常普遍。

但另一方面来说这使得它有点复杂。

规格:•2 通道•平衡传输信号•XLR连接头•音频数据达24Bit / 192kHz•缆线长:100m 或更多•阻抗:110Ohm (±20%)•负载电平:输出端2 - 7 Vpp(110 Ohm ,缆线不能长)•大量的通道状态信息AES3 和AES/EBU 比较AES3 数字音频接口和AES/EBU 数字接口只在一个细节上有区别:EBU 标准规定在接口的发送端和接收端强制安装有耦合变压器,而这在AES3 标准中只是可选功能。

功能:发展AES3 标准的目的是为了使数字音频数据可以重复利用模拟音频信号传输网络,要构成一个传输网络需几万米的线来连接设备比如广播电台等。

这些都是平衡缆线,传输信号的频率可达10MHz,若进行适当的信号均衡的话缆线长度可达300m。

若需通过这些模拟信号音频线来传输数字信号的话,需满足以下几个条件,这些条件很容易就可以达到:•由于传输链可能有变压器,因此信号必须是不含直流分量。

•由于没有额外的缆线来传输位时钟(bit clock )和采样时钟(sample clock ),因此信号自身需携带有时钟信号。

•极性逆转对重拾音频信息无影响。

这些条件可以通过双向标记编码方案(bi-phase-mark coding scheme)来满足。

概述:通过双相标记编码,每个比特的边界都以切换信号极性的方法标记出来。

为了区分信号“1”与信号“0”,需在“1”位插入一个额外的过渡标记代码(如图所示)。

这个代码是对极性反转的证明,其不含直流分量。

因此其可以通过变压器。

即使比特流中含有很长的“0”或“1”的序列,但其信号状态还是持续改变的。

因此位时钟很容易就可以得到恢复。

在AES3 中,每个音频通道样本都是所谓的子帧的一部分。

一个子帧包含有32bits 的数据排列在格式中。

概述:AES3 子帧。

位元传输时间很短,我们可以想象成位元被移动到了子帧的右边•Audio data: 20 bits 可用于音频数据。

如果需要更多位元来存放数据,则4 Aux bits (辅助位元)可以用来扩大样本分辨率。

独立于样本数据,最高有效位元(MSB) 在最左边位置(如图,位元27)。

若位元位置未被用到,则用0填满。

•AUX: 4 Aux 位元主要用来将样本分辨率扩展到24位元或者置0(位元未用到时)。

只是偶尔用4位元来传输低质量的音频信号,如讲话(记录等)信号。

•Parity Bit (P): 奇偶校验位。

这个位元有助于检测传输错误。

它通过检测发送端传输过来的数据中4 -31位元的´1´的数目是否为偶数来确定是否有传输错误。

若接收机检测到偶数个1,则数据传导输入端。

反之,检测到的不是偶数则是一个传输错误。

•Validity (V): 有效位元此位元是为了标记错误或有缺陷的样本值。

指示数字音频位元能否被转为模拟音频信号。

若位元值为0则表明进来的数据是有效的。

若样本标记无效,那么样本不应该进入下一步处理(比如数模转换D/A)。

通常也有一些不同的处理方法来检验位元。

比如,一个CD机通常都可以非常正确的纠正样本错误,但有时却不行。

在这种情况下,有效位元位置“1”。

数字接口也可以传输经过压缩的音频数据如MP3,Dolby Digital.这种数据也不能通过数模转换器进行直接转换,因此此类数据的有效位元也置“1”。

•User Bit (U): 用户位元在每个子帧中还会有一个用户位元被传递(详情请查阅“重要条款的进一步信息”)•Channel Status (C): 通道状态位元AES3 通道状态包含有24字节或24字节* 8 位/字节= 192位的信息。

因为每个子帧只含有一个通道状态位元,为了传输完整的通道状态信息则需要有192 个子帧。

通道状态区域的始端用一个SYNC 标记,以表明子帧的开始部分。

•概述:每个子帧只能传输192 位元状态信息中的1位元.在一个频率为48kHz 的样本中,传输所有的位元需4ms。

•Synchronisation (SYNC): 同步双相标志编码意味着位元时钟信息,但子帧的始终并不在编码方案中。

现在只要一根信号线(平衡或不平衡)就可以满足要求,时钟信号从传输信号中提取。

为了达到这个目的,每个子帧都由一个含有4 位元的SYNC 头文件开始。

现确定有3 种不同的头文件,每个都在串行数据流中标志着特殊的意义:X-头文件:通道A子帧的开始Y-头文件:通道B子帧的开始Z-头文件:通道A子帧的开始,同时192位通道状态区域开始头文件位元的编码方法不符合双相位元标志编码规格。

因此接收机可以区分头文件与普通编码位元。

两个随后的子帧-我们只在现在讨论子帧-在AES3 架构中。

因为每个子帧只能传输一个通道的信号,因此AES3 架构含有两个独立的独立的通道A和B。

很显然,AES3 可以用来传输立体声信号。

通道A传输立体声的左声道信号,而通道B则传输右声道信号。

这两个通道A和B,不仅可以接受立体声信号,还可以传输两个完全独立的具有相同的采样频率的单声道信号。

这就是为什么通道不是以左/右声道命名的原因了。

同样的,它也可以两通道的信号整合成一个信号来传输,但需用更高的采样率(96kHz, 192kHz). 这种技术称为S/MUX 模式,双线模式或根据AES 的”单通道双频”模式。

(更多信息参考DL1 用户手册中关于“1C2F Mode”部分)必须谨记:因为两个通道都分别嵌入在适当的子帧中,每通道都携带有其通道状态信息和用户数据。

通道状态通道状态信息可以针对两种不同用户群:专业级和业余级。

两种不同用户的应用不同其通道状态信息也不一样。

从这里我们可以知道,每个用户群都有一个子码列表(也叫帧或架构)存在,以确定如何来解读通道状态信息:Consumer Area: 业余区域通道状态信息主要致力于防止受版权保护的音频资料的复件超过一份。

Professional Area: 专业区域音频质量、信号类型及来源等可靠的信息。

进一步的信息在同步时都会得到。

概述:通道状态的第一位元显示了需如何解读通道状态信息,业余或专业格式。

NTi Audio 公司的数字音频分析仪DL1 可以自动显示所有状态信息。

通过与AES3 格式达成一致,可以传输专业格式的通道状态信息。

而业余格式则与S/PDIF 和TOSLINK 等接口形式一致。

但这不是不可能通过AES3 接口根据业余格式传输业余格式的通道状态信息。

最坏情况下的后果可能是设备完全不能识别输入音频数据。

缆线标准平衡模拟音频线在很长一段时间内都应用的很普遍。

有人可能会遇到阻抗在40 Ohm到110 Ohm 范围内的不同的缆线,绝大多数老的缆线阻抗都在70 Ohm 以下。

因此我们可能会经常遇到平衡缆线阻抗不匹配110 Ohm 规格的数字音频缆线。

尽管如此,在不用电缆均衡的条件下,通过这些不匹配的缆线仍可以传输长达80m的距离。

在好的均衡条件下可达300m。

用符合110 Ohm 规格的缆线可以传输更远的距离。

不用缆线均衡条件下可达240m,良好的缆线均衡条件下甚至可达750m.模拟和数字缆线结交情况:引脚1 =屏蔽线,引脚2 =正(+),引脚3 =负(-).ADATI2S概述串行数字音频总线(I2S) 是用于将数字音频器件连接在一起的串行总线接口标准。

此规范来自于Philips® Semiconductor(I2S 总线规范;1986 年 2 月,修订时间为1996 年 6 月 5 日)。

I2S 组件仅在主控模式下运行。

它还可在两个方向上运行:作为发射器(Tx) 和接收器(Rx)。

Tx和Rx 的数据是独立的字节流。

字节流首先包含最高有效字节,并且第一个字的第7 位中存放最高有效位。

用于每次采样的字节数(左/右声道的采样)是保持样品所需的最少字节数。

何时使用I2S组件为立体声音频数据提供串行总线接口。

此接口是音频ADC 和DAC 组件最常用的接口。

特性仅用于主控每次采样8 到32 数据位16、32、48 或64 位字选择周期数据速率高达96 kHz,64 位字选择周期:6.144 MHzTx 和Rx FIFO 中断DMA 支持独立的左右声道FIFO +3或交错立体声FIFO独立启用Rx 和Tx8/+输入/输出连接本节介绍I2S 组件的各种输入和输出连接。

I/O 列表中的星号(*) 表示,在I/O 说明中列出的情况下,该I/O 可能不可见。

sdi —输入*串行数据输入。

如果您针对Direction(方向)参数选择了一个Rx 选项,则显示此信息。

如果此信号连接到输入引脚,则应禁用此引脚的“Input Synchronized”(同步输入)选择。

此信号应已同步到SCK,所以,用输入引脚同步器延迟信号会导致信号移入下一个时钟周期中。

时钟—输入提供的时钟频率必须是输出串行时钟(SCK) 所需时钟频率的两倍。

例如,要产生64 位字选择周期的48 kHz 音频,时钟频率应为:2 × 48 kHz × 64 = 6.144 MHzsdo —输出*串行数据输出。

如果您针对Direction(方向)参数选择了一个Tx 选项,则显示此信息。

sck —输出输出串行时钟。

ws —输出字选择输出指示要传输的通道。

rx_interrupt —输出*Rx 方向中断。

如果您针对Direction(方向)参数选择了一个Rx 选项,则显示此信息。

tx_interrupt —输出*Tx 方向中断。

如果您针对Direction(方向)参数选择了一个Tx 选项,则显示此信息。

rx_DMA0 —输出*Rx 方向DMA 请求FIFO 0(左侧或交错)。

如果选择了DMA Request(DMA 请求)参数下的Rx DMA,则显示此信息。

rx_DMA1 —输出*Rx 方向DMA 请求FIFO 1(右侧)。

如果针对Rx 选择了DMA Request(DMA 请求)参数下的Rx DMA 和Data Interleaving(数据交错)参数下的Separated L/R(单独的L/R),则显示此信息。

tx_DMA0 —输出*Tx 方向DMA 请求FIFO 0(左侧或交错)。

如果选择了DMA Request(DMA 请求)参数下的Tx DMA,则显示此信息。

相关文档
最新文档