账号:
密码:
最新动态
 
产业快讯
CTIMES / 文章 /
H.264技术特色与广播视讯应用方案
 

【作者: Faouzi Kossentini,Foued Ben Amara,Ali Jerbi】2003年12月05日 星期五

浏览人次:【6163】

H.264之介绍


数字视频的应用范围日益广泛,从影像电话和视频会议到DVD和数字电视都能见到它的踪迹,而且随着以不同应用领域为目标的许多视讯编码标准不断出现,采用数字视频的各种应用更有增加的趋势;对于不同制造商所发展的不同系统,无论它们的应用领域为何,这些标准都让它们得以相互操作,进而带动整个视讯市场的成长。国际电信联盟的电信标准化部门(International Telecommunications Union,Telecommunications Standardization Sector,ITU-T)是目前专门发展视讯编码标准的两个国际正式组织之一,另一个机构是国际标准化组织/国际电工委员会第一联合技术委员会(International Standardization Organization/International Electrotechnical Commission,Joint Technical Committee 1;ISO/IEC JTC1)。ITU-T视讯编码标准被称为「规范」(recommendations),它们的名称都采用H.26x,例如H.261、H.262、H.263以及H.264;ISO/IEC则采用MPEG-x做为标准名称,例如MPEG-1、MPEG-2以及MPEG-4。



绝大多数的ITU-T规范都是针对实时视讯通讯应用,例如视频会议和影像电话;另一方面,MPEG标准主要则是为了支持视讯储存(DVD)、广播视讯(有线电视、DSL和卫星电视)以及视讯串流(例如透过因特网或是无线通信来传输视讯)等各种应用。在绝大多数情形下,这两个标准化委员会是独立工作,各自发展不同的标准,唯一例外是H.262/MPEG-2标准,它是由这两个单位共同发展。ITU-T和ISO/IEC JTC1最近又同意结合双方力量,共同发展由ITU-T委员会首先提出的H.264标准;H.264又称为MPEG-4 Part 10或是MPEG-4 AVC,这项标准能获得两个委员会采用,是因为它在效能上已经超越了目前所有的视讯编码标准。(图一)总结ITU-T规范和ISO/IEC MPEG标准的演进历程。




《图一 ITU-T规范和ISO/IEC MPEG标准的演进历程》



H.264之概述


H.264计划背后的主要目标是发展一种高效能的视讯编码标准,方法则是从最基本原理出发,利用众所熟悉的建构方块,完成最简单直接的设计。ITU-T的视讯编码专家工作小组(Video Coding Experts Group;VCEG)是从1997年开始发展H.264标准;到了2001年底,ISO/IEC MPEG工作小组有鉴于H.264软件所提供的视讯质量已经超过(现有的)优化MPEG-4软件,因此决定与ITU-T VCEG携手合作,组成一个联合视讯工作小组(Joint Video Team;JVT),由它接管ITU-T的H.264计划。JVT的目标是创造一套视讯编码标准,并让它同时成为MPEG-4标准的一部份(也就是Part-10)以及最新的ITU-T规范(也就是H.264)。H.264发展工作正积极进行中,这项标准的第一个版本预计在2003年初完成技术制定,并于2003年底前正式定案。



发展中的H.264标准有多项独特优点,使它卓然不同于其它现有标准;另一方面,它也与现有标准分享许多共同特色。以下是H.264的部份重点:




  • (1)最多节省50%比特率:相较于H.263v2(H.263+)或是MPEG-4 Simple Profile,在相同编码器优化的条件下,以H.264最多可节省50%的比特率。



  • (2)高质量视讯:无论比特率的高低,H.264都提供稳定一致的良好视讯质量。



  • (3)抗错性(error resilience):H.264提供多种必要工具,不但能处理封包网络的封包遗失,还能针对容易发生错误的无线网络,处理其中可能出现的位错误。



  • (4)网络友善性:透过网络适应层(Network Adaptation Layer),H.264位串流很容易就能在不同网络上传输。





上述优点使得H.264成为许多应用的理想标准,例如视频会议和广播视讯。



H.264技术说明


H.264标准的主要目标是提供一套方法,使得视讯质量超越现有视讯编码标准所能达到的水平;另一方面,H.264的基本方法则类似于现有标准所采用的方法,例如H.263和MPEG-4,并且包含以下四个主要阶段:




  • (1)把每个视讯图框分割成多个像素区块,使得视讯图框的处理能够在区块层级上进行。



  • (2)利用视讯图框内部的空间冗余性,方法则是透过空间预测、转换、量化以及熵编码 (entropy-coding)或是可变长度编码(variable-length coding)技术,对某些原始区块进行编码。



  • (3)利用区块在连续图框中的时间相关联性(temporal dependencies),这样就只需对连续图框之间的变动部份进行编码,这可藉由移动估算(motion estimation)和补偿来达成。对于任何特定区块,它会搜寻先前的一个或多个编码图框,或是下一个图框,根据搜寻结果来决定移动向量,再由编码器和译码器利用这些向量来预测对象区块。



  • (4)利用视讯图框内剩余的任何空间冗余性,方法是对残值区块(residual blocks)进行编码;残值区块是原始区块和预测区块之间的差值,编码方式还是透过转换、量化以及熵编码技术。






《图二 H.264编码器方块图》



如(图二)所示,透过一个编码器方块图,从编码的角度来总结H.264和其它标准间的主要差异;在移动估算/补偿部份,H.264采用不同大小和形状的区块、分辨率的更高1/4画素移动估算(1/4-pel motion estimation)、多重参考图框选择以及复杂的多重双向模式选择。在转换部份,H.264采用以整数为基础的转换方式,它像是既有标准所使用的离散余弦转换(Discrete Cosine Transform;DCT),但在逆向转换时不会发生失配的问题。在新出现的H.264标准中,有两种方法可以执行熵编码,第一种方法是使用通用可变长度码(Universal Variable Length Code;UVLC)表格和情境适应性可变长度码 (Context Adaptive Variable Length Codes;CAVLC),并将它们用于系数转换,第二种方法则是使用以情境为基础的适应性二位算术编码(Context-based Adaptive Binary Arithmetic Coding;CABAC)。



比特流的组成方式


每格视讯画面会被分割成多个较小的区块,称为宏区块(macroblock),例如(图三)就把QCIF分辨率(176(144)的画面分割成99个16(16宏区块,其它大小的图框也采用类似的宏区块分割方式。画面亮度会在图框分辨率下进行取样,色差讯号Cb和Cr的取样率则会沿着水平和垂直方向减少两倍;除此之外,每格画面也可分割成整数个「切片」(slices),当某些数据遗失时,这些切片对于画面再同步会有很大帮助。



《图三 将QCIF画面分割成16(16宏区块》


框内预测和编码(Intra Prediction and Coding)


框内编码只会利用视讯画面内的空间冗余性,所得到的图框称为I-画面(I-picture),这种编码方式通常是直接对图框内的不同宏方块进行转换,所以编码后的I-画面通常也会很大,因为图框内会包含大量信息,编码过程也不会使用任何时间信息。H.264为了提高框内编码程序的执行效率,会利用图框内相邻宏区块之间的空间关联性,这种想法源自于一个观察结果:相邻的宏区块通常都有类似的性质,可以根据环绕四周的宏区块来预测目标区块(通常会选择目标区块上方和左边的宏区块,因为这些区块应已完成编码),并以此做为宏区块编码程序的第一步。接着则是对实际区块和预测值之间的差异值进行编码,相较于直接对宏区块进行转换,这种方式只需要较少的位计数,就能代表目标宏区块。



《图四 4x4亮度区块的框内预测模式》


为了执行上述的框内预测,H.264总共提供九种模式来预测4(4亮度区块,包括直流预测 (模式2)以及八种方向性模式,如(图四)所示,它们在图中的编号是0、1、3、4、5、6、7和8,图四即是说明这个程序,其中像素A至M来自相邻区块,并已完成编码,可于预测过程中使用。举例来说,若选择使用模式0(垂直预测),它会依下列方式指定像素a到p的值:




  • ●a、e、i和m等于A



  • ● b、f、j和n等于B



  • ● c、g、k和o等于C



  • ● d、h、l和p等于D





如果选择使用模式3(左下对角预测),则会依下列方式指定像素a到p的值:




  • ●a等于(A + 2B + C + 2)/4



  • ● b和e等于(B + 2C + D + 2)/4



  • ● c、f和i等于(C + 2D + E + 2)/ 4



  • ● d、g、j和m等于(D + 2E + F + 2)/4



  • ● h、k和n等于(E + 2F + G + 2)/4



  • ● l和o等于(F + 2G + H + 2/)4



  • ● p等于(G + 3H + 2)/4





对于空间细节较少的区域(也就是平坦区),H.264也支持16(16框内预测,其中有四种预测模式可供选择(直流、垂直、水平和平面),可以预测宏区块的整个亮度值;此外,H.264还支持8(8色度区块的框内预测,并提供四种预测模式(直流、垂直、水平和平面)。最后,为了以更高效率对每个区块的预测模式进行编码,它会把较短的符号指定给出现机率较高的模式,每个模式的出现机率则是由周围区块编码时所使用的预测模式来决定。



框间预测和编码(Inter Prediction and Coding)


框间预测和编码会使用移动估算和补偿,它们会利用连续图框之间的时间冗余性,故能提供极高效率的视讯影片编码。若利用前面已完成编码的(一个或多个)图框做为移动估算的参考图框,接受编码的图框就称为P-画面(P-picture),或参考图框包括(一个或多个)已编码图框和一个未来图框,那么目标图框就称为B-画面(B-picture)。H.264的移动估算可以支持早期视讯标准所采用的绝大多数重要特色,它还会透过更强大的弹性和功能来改善运算效率。除了支持P-画面(使用一个或多个参考图框)以及B-画面(使用多种预测模式),H.264还支持新的串流间转移画面(inter-stream transitional picture),称为SP-画面(SP-picture);把SP-画面加入比特流后,不但能很有效率的在多个内容相似而编码比特率不同的比特流之间进行切换,还可以支持随机存取和高速播放模式。



区块大小



《图五 H.264为移动估算提供的各种宏区块分割模式》



如(图五)所示,我们可利用不同的区块大小和形状来执行每个16(16宏区块的移动补偿。可以传送个别移动向量的最小区块为4(4,所以每个宏区块最多能传送16个移动向量,从图中可看出,获得支持的区块大小包括16(8、8(16、8(8、8(4以及4(8;整体来说,提供更小的移动补偿区块可以改善预测结果,特别是小区块可以提高模型处理移动细节的能力,达成更良好的主观视觉质量,因为它们不会像大区块一样产生假影噪声 (artifacts)。



不但如此,透过最近获得采用的树状结构分割法(tree structure segmentation method),就有可能在8( 8子区块内使用4( 8、8 ( 4或是4 ( 4子区块组合,(图六)即是16 ( 16宏区块采用这类组合方式的范例。



《图六 根据H.264的树状结构分割法来规划宏区块内的子区块》


移动估算的精准度


H.264可以利用高于现有标准的空间精准度来决定移动向量,进而改善移动补偿算法的预测能力;在H.264标准中,四分之一像素精准度的移动补偿是精准度最低的移动补偿(相形之下,既有标准大多采用半像素精准度,只有最新的MPEG-4标准才提供四分之一像素精准度)。



多重参考画面选择


H.264标准还提供选项,可于框间编码过程中使用多个参考图框,这样不但能得到更良好的主观视讯质量,目标视讯图框的编码也将更有效率;此外,采用多个参考图框也会让 H.264比特流具备更强大的抗错性。另一方面,若从实作角度而言,采用多个参考图框会影响编码器和译码器,使得处理作业的延迟时间更长,内存需求也更高。



消除区块(回路)滤波器


H.264指定使用一种适应性消除区块滤波器(de-blocking filter),它会在预测回路内对水平和垂直区块边缘进行处理,以便消除区块预测误差所造成的假影噪声。这种滤波通常是以4×4区块的边界为运算基础,边界两侧各有两个像素,可以利用不同的滤波器将它们更新。消除区块滤波器的运用规则非常微妙复杂,它在每个切片(较宽松的定义是整数个宏区块)上面的使用却是可选择的;即便如此,主观质量的改善程度通常都会使得复杂性的增加值回票价。



整数转换


不论是框内预测或框间预测,预测误差区块中所包含的信息最后都会以转换系数的形式重新表示,H.264独特之处在于它采用纯整数空间转换(类似于离散余弦转换),它的形状主要是4(4区块,而不是常见的浮点8(8离散余弦转换──早期标准会利用舍入误差容忍范围来定义此转换。小区块有助于减少块状和环状假影噪声,高精准度的整数转换则能消除逆转换过程中,编码器和译码器之间的失配问题。



量化和转换系数扫描


数据压缩有很大部份是在量化步骤完成。H.264是采用无扩展死区(no widened dead-zone)的纯量量化方式来执行转换系数的量化,针对个别宏区块,还有52种不同的量化步阶(step sizes)可供选择--这与以前的标准并不相同(例如H.263仅支持31种);除此之外,在H.264标准里,量化步阶大约是以12.5%的复合速率增加,而不是每次都增加某个固定量。相较于亮度系数所用的量化步阶,色差讯号会使用更小的量化步阶,以便改善它们的传真度,特别是当亮度系数的量化很粗糙时。



《图七 H.264为图框编码所提供的扫描图案(scan pattern)》


量化后的转换系数对应于各种不同频率,如(图七)所示,左上角的系数就代表直流值,其它系数则代表各种非零的频率值。编码程序的下个步骤就是将量化后系数排成数组,直流系数排在最前面。H.264已提供一个系数扫描图案图七给图框编码使用,目前还在增加另一个系数扫描图案,可用于图场编码(field coding)。图七描绘的锯齿状扫描可用于所有的图框编码方式,它和早期视讯编码标准使用的传统扫描方式完全相同,锯齿状扫描会根据频率上升顺序来安排对应的系数值。



熵编码(Entropy Coding)


视讯编码程序的最后一个步骤是熵编码,它的基本原理是为出现机率较高的符号指定较短的字码(codeword),然后把较长的字码指定给较少出现的符号。采用熵编码的部份参数包括残值数据(residual data)的转换系数、移动向量和其它的编码器信息。目前已有两种熵编码方法获得采用,第一种方法是通用可变长度码(UVLC)以及情境适应性可变长度码(CAVLC)的组合,第二种方法则是采用以情境为基础的适应性二位算术编码 (CABAC)。



UVLC/CAVLC


某些视讯编码标准会把符号以及相关字码安排成多个查询表,这些查询表又称为可变长度编码(Variable Length Coding;VLC)表格,它们会同时储存在编码器和译码器里面。随着目标数据的型态不同(例如转换系数或移动向量),H.263会使用多个不同的可变长度编码表;H.263还提供一个通用可变长度编码(Universal VLC;UVLC)表格,可用来对编码器内的所有符号进行熵编码──除了转换系数以外。虽然使用一个通用可变长度编码表很简单,但它却有项重大缺点:这个表格通常是利用静态机率分布模型推导而得,因此会忽略编码器符号之间的关联性。



在H.264标准当中,转换系数的编码是使用情境适应性可变长度编码(CAVLC),它是专门设计来利用已量化4(4区块的多项特性。首先,锯齿状扫描结束时的非零系数通常会等于±1,CAVLC会以很精简的方式对这些系数(尾随的1值)的数目进行编码;其次,CAVLC还采用run-level编码方式,可以很有效率的代表已量化4(4区块中的零值字符串。此外,相邻区块内的非零系数数目通常都会互相关,因此在对非零系数的数目进行编码时,就会使用与相邻区块内非零系数数目有关的查询表。最后,越接近直流系数的非零系数,它们的振幅(位准)就越大,高频系数附近的非零系数就较小,CAVLC会利用这项特性,在为该位准选择VLC查询表时,以最新编码的位准做为选择参考。



H.264 Profiles


到目前为止,已有三个Profiles获得同意:Baseline Profile,主要用于视频会议以及电话和行动应用;Main Profile,主要用于广播视讯应用;以及X Profile,主要用于串流和行动视讯应用。




《图八 Baseline Profile和Main Profile的特色》



(图八)是Baseline Profile以及Main Profile的共同特色以及他们各自独有的其它特色,Baseline Profile允许使用任意切片顺序(Arbitrary Slice Ordering;ASO)来减少实时通讯应用的延迟时间,它还允许使用弹性宏区块顺序(Flexible Macroblock Ordering;FMO)以及冗余切片,以提高编码比特流的抗错性。Main Profile则能透过更先进的双向预测(B-画面)、CABAC和加权预测等方式,使得所需带宽少于Baseline Profile。



Baseline Profile


任意切片顺序(Arbitrary Slice Ordering)


利用任意切片顺序功能,无论切片以任何顺序抵达,译码器都能处理这些切片;此项功能使得译码器不必等到所有切片都安排妥当,就能先行处理所收到的切片。这能减少译码器的处理作业延迟时间,使得实时视讯通讯应用的总延迟时间变得更短。



弹性宏区块顺序(Flexible Macroblock Ordering;FMO)


特定图框内的宏区块通常都是按照逐行扫描(raster scan)顺序进行编码,FMO则能根据宏区块配置图执行宏区块编码,这个配置图会将图框内属于同一个切片、但是空间位置不同的所有宏区块集合在一起。这种安排可以增强编码比特流的抗错性,因为它能减少数据间的互关联性──如果对图框内彼此相邻的宏区块进行编码,这种数据间的互关联性就会存在。如果发生封包遗失的现象,数据损失也会分散至整个画面,使得它们的隐藏更容易。



冗余切片


冗余切片功能可在容易发生错误的网络上重复传送相同切片,让接收端有更高机率收到没有错误的正确切片。



Main Profile


B-画面


相较于P-画面,B-画面提供更大的压缩优势,因为它能替每个宏区块提供更多的预测模式。此处是将两个参考区块的取样值平均,再将所得结果做为预测值;在绝大多数情形下,其中一个参考区块的时间会在目前画面之前,另一个区块则在它之后,但这并不是强制要求。除此之外,它还支持「直接模式」预测,这种方法会在相邻的参考图框中找出同样位置的宏区块,然后根据这个宏区块在编码时所使用的移动向量,利用内插法来计算目标宏区块的移动向量,因此它不必传送任何移动信息。透过支持许多种的预测模式,预测精准度将获得改善,比特率通常也能节省5~10%。



加权预测(weighted prediction)


它能利用一个全局乘数(global multiplier)以及全局位移值(global offset),修改完成移动补偿的取样亮度,这些乘数和位移值可直接传送,也能透过隐含方法推导产生。使用乘数和位移值是为了减少预测残值,这些残值有许多可能来源,例如全局亮度的改变;对于包含淡出(fades)、光源改变和其它特殊效果的视讯影片,减少预测残值可以提高它们的编码效率。



情境适应性可变长度编码(CABAC)


CABAC利用编码器和译码器的机率模型来处理所有语法元素(syntax elements),包括转换系数、移动向量和其它。为了提高算术编码的编码效率,它所使用的基础机率模型会透过情境模型分析(context modeling)程序,来适应视讯图框内不断改变的统计特性。



情境模型分析提供编码符号的条件机率估算值,只要利用适当的情境模型,就能根据待编码符号周围的已编码符号,在不同的机率模型间进行切换,进而充份利用符号间的冗余性。相较于VLC熵编码方法(UVLC/CAVLC),CABAC能多节省10%比特率,而这绝大部份都要归功于情境模型分析技术。



应用范例:视频会议


在全世界各地,视频会议系统正成为日益有用的工具,不但提供低成本而高效率的通讯方式,还能减少支出,提高生产力。视频会议系统几乎都用于企业环境,它能交换音频和视讯信息,又能做为协作工具,使它成为极具吸引力的商业旅行替代方案。



视频会议产业:挑战


要让视讯成为视频会议应用的一部份,就带宽和质量角度而言会牵涉到许多挑战,以下将对这些问题进行讨论。




  • ●有效率的带宽利用:配置给典型视频会议使用的带宽当中,绝大多数都会被传输数据的视讯部份所占用,因此在维持适当视讯质量的前题下,若能减少所需的视讯带宽,即可带来多项好处,例如让更多人参与视频会议,并且在会议期间交换更多数据。不但如此,视频会议应用还必须在低比特率下执行,这项事实让最有效视频压缩工具的使用更为重要,因为这样才能在视频会议的低速率下,继续维持良好的视讯质量。



  • ●处理作业的延迟时间很短:必须把数据处理和传输的延迟时间减到最短,让译码视讯仍拥有高画质,这是很重要的一点;编码器若造成很长的处理作业延迟时间,重建完成的视讯影片看起来就很不流畅。总延迟时间等于编码、网络和译码延迟时间的总和,在实时互动应用中,如果来回时间超过250毫秒,用户就会察觉到某些令人不愉快的延迟现象。为了将延迟时间减至最少,关键是让编码器和译码器都只有很小的处理作业延迟时间。



  • ●更良好的视讯质量:会议应用的视讯质量会受到多项因素的负面冲击,包括来源视讯的噪声和亮度改变、视讯重建后出现尾随假影(trailing artifacts)以及网络封包的遗失。



  • ●前处理(Pre-processing):无论是视讯图框出现噪声,或是前后连续的视讯图框出现亮度改变情形,它们都会使得框间编码程序的效率大幅降低,因此必须加入前处理工具,使得噪声和亮度改变对于视讯质量的影响减至最小。



  • ●避免尾随假影:尾随假影看起来像是许多杂点,尾随着移动中的物体,低比特率时尤其容易察觉,因此必须侦测以及消除(或至少降低)这类的假影噪声。



  • ●抗错性:视讯编码器产生的压缩比特流首先会被分割成固定或可变长度封包,与音频或其它类型的数据多任务在一起,然后透过网络传送。受到网络拥挤或实体信道损坏的影响,封包在网络传输过程中可能会遗失或是毁损,导致音频和视讯数据出现失真。因此,通常都必须在编码器中采用抗错性工具,确保能对传输错误提供最起码的抗错能力。





应用范例:广播视讯


广播视讯应用正经历转换阶段,越来越多内容的产生和供应都是透过数字格式,而不是传统模拟格式,广播产业的服务供货商也面临前所未有的观众争夺战。这个领域过去是由有线电视业者所独家掌控,但是卫星和DSL公司现在也开始争夺同样客户;面对着激烈竞争的市场态势,服务供货商被迫发展新方法,以便将他们的服务内容差异化,同时采用新解决方案来产生和提供数字视频。



广播视讯产业:挑战


数字广播视讯服务供货商必须克服许多重大技术障碍,才能在市场上推出独特不同的服务内容。就视讯编码的角度而言,这个产业必须解决三项主要的挑战,分别是有效率的带宽利用、确保很高的再生视讯质量、以及提供低成本的嵌入式译码器解决方案。另一项挑战来自H.264 Main Profile标准,虽然这项标准可以改善带宽和质量之间的取舍,但它目前却仍未定案,而且未来几个月内还可能被大幅修改。以下将详细讨论前述的四项挑战。




  • ●有效率的带宽利用:对于服务供货商来说,既定传输带宽所能容纳的信道数目是项关键区隔要素,因为它会对营收总额造成影响。对于不同的服务供货商,无论他们是透过有线电视、卫星或DSL提供服务,只要传输带宽的利用更有效率,就等于是为客户提供更多的可用信道或是额外服务,使得服务供货商的服务内容获得进一步加强。对于某些广播视讯应用,例如透过DSL线路传输视讯(video over DSL),可用带宽早已非常有限,这意味着它们更需要节省带宽。但无论要如何节省数字视频广播的可用带宽,都不能以视讯质量做为代价,因为客户期望这些服务提供他们过去曾经拥有的广播视讯质量,或许还要更好,因此唯一解决方案就是使用最有效的压缩工具。



  • ●广播视讯质量:观众习惯DVD播放器的超高画质后,将无法接受质量低于这个水平的任何广播视讯,因此要在有限信道带宽下(也就是1.5 Mbps的DSL信道)提供标准画质分辨率(720(480)的广播视讯质量,这将是相当大的挑战,特别是视讯内容包含大量动作画面、场景变换、淡出(fades)以及溶镜(dissolves)时更是如此。除此之外,对于绝大多数的广播视讯应用,空间和时间噪声将会对视讯质量造成很大影响,它们通常会产生令人不愉快的假影噪声,例如轮廓浮凸(contouring)以及块状现象(blocking),这在高亮度部份尤其明显。因此要确保高阶视讯质量,就必须对来源视讯进行前处理,预先将这些噪声消除。



  • ●译码器复杂性:H.264标准比先前的任何视讯编码标准都复杂许多,例如移动补偿就使用七种区块大小,从16(16往下到4(4,因此H.264译码器的运算和内存需求必然会更为严格。任何译码器都应能处理所有的「合法」比特流(也就是在最恶劣条件下),这使得译码器的实作更加复杂。此外,嵌入式译码器的实作也是项困难挑战,因为它的内部存储器容量非常有限;举例来说,对于使用双向预测技术进行编码的宏区块,当译码器要对它们执行移动补偿时,必须利用目标画面之前和之后的多个参考图框,但为了传送移动补偿所要求的宏方块,译码器的作业却可能受到拖累,因为内存数据传输可能需要过多的周期时间。



  • ●H.264 Main Profile状态:H.264虽处于发展过程的最后阶段,但这项标准仍有可能被修改,特别是在Main Profile独有的功能特色部份。因此广播基础设施公司通常虽然都要求硬件解决方案,但现在也开始寻找完全可程序的解决方案,以便迅速支持不断演进的标准。(作者任职于UB Video)






相关文章
针对可调式视讯之影像编码器
影音光碟之视讯压缩规格比较
行动影音应用关键 - 串流技术
神奇的魔术 - 影音压缩技术
comments powered by Disqus
相关讨论
  相关新闻
» 晶创台湾办公室揭牌 打造台湾次世代科技国力
» 工研院突破3D先进封装量测成果 获德律、研创资本、新纤注资共创欧美科技
» A+计划补助电动车产业 驱动系统、晶片和SiC衍生投资3亿元
» 工研院主办VLSI TSA研讨会登场 聚焦异质整合与小晶片、高速运算、AI算力
» 国科会扩大国际半导体人才交流 首座晶创海外基地拍板布拉格


刊登廣告 新聞信箱 读者信箱 著作權聲明 隱私權聲明 本站介紹

Copyright ©1999-2024 远播信息股份有限公司版权所有 Powered by O3  v3.20.1.HK85BB48GRESTACUK2
地址:台北数位产业园区(digiBlock Taipei) 103台北市大同区承德路三段287-2号A栋204室
电话 (02)2585-5526 #0 转接至总机 /  E-Mail: webmaster@ctimes.com.tw