视频压缩算法
1、基于块的方式的运动补偿:运动补偿技术就是在动态序列图像实时编码中运用信息以及像素的位移向量进行图像高效编码的一种方法。活动图像的帧与帧之间不仅存在基于像素的线性相关性,仅是前景改变,还在宏观上存在着很大的运动相关性。
2、DCT变换:相当于一个长度大概是它两倍的离散傅里叶变换,这个离散傅里叶变换是对一个实偶函数进行的(因为一个实偶函数的傅里叶变换仍然是一个实偶函数),在有些变形里面需要将输入或者输出的位置移动半个单位。
(1)视频压缩算法扩展阅读:
MPEG的原理及优点:
MPEG 的基本原理是对比前后帧,第一帧被压缩图像将被用作参考,第二帧图像中只有与参考帧不同的部分才会被存储。播放时在参考帧图像和“差异数据”的基础上重建所有图像。这样的方法叫“差分编码”(包括H.264在内的大多数视频压缩标准都采用这种方法)。
1、兼容性好,主要因为在一开始就被作为一个国际化的标准来研究制定。
2、能够达到更高的压缩比,最高可达200比1.
3、在提供高压缩比的同时,数据损失造成的音、视频失真很小。
2. 关于视频码率的问题,怎么压缩不影响画质,减小体积
最大限度保证清晰度这个很难有统一标准,清晰度是个比较主观的指标。
编码可选xvid或H264,码流选1200以上,一般情况下清晰度是有保证的。建议不要改动分辨率和帧速,那样转换速度会慢很多。
计算公式:
基本的算法是:码率(kbps)=文件大小(KB) * 8 / 时间(秒),举例,D5碟,容量4.3G,其中考虑到音频的不同格式,算为600M,所以视频文件应不大于3.7G。
本例中取视频文件的容量为3.446G,视频长度100分钟(6000秒),计算结果:码率约等于4818kbps(3.446 * 1024 * 1024 * 8 / 6000 = 4817.857)。
码率几点原则:
1、码率和质量成正比,但是文件体积也和码率成正比。
2、码率超过一定数值,对图像的质量没有多大影响。
3、DVD的容量有限,无论是标准的4.3G,还是超刻,或是D9,都有极限。计算机中的信息都是二进制的0和1来表示,其中每一个0或1被称作一个位,用小写b表示,即bit(位);大写B表示byte,即字节,一个字节=八个位,即1B=8b。
前面的大写K表示1024的意思,即1024个位(Kb)或1024个字节(KB)。表示文件的大小单位,一般都使用字节(KB)来表示文件的大小。
Kbps:ps指的是/s,即每秒。Kbps指的是网络速度,也就是每秒钟传送多少个千位的信息(K表示千位,Kb表示的是多少千个位),为了在直观上显得网络的传输速度较快,一般公司都使用kb(千位)来表示。1KB/S=8Kbps。
ADSL上网时的网速是512Kbps,如果转换成字节,就是512/8=64KB/S(即64千字节每秒)。
4、一般来说,如果是1M的宽带,在网上只能看不超过1024kbps的视频,超过1024kbps的视频只能等视频缓冲才能流畅的观看。
以上内容参考:网络-视频码率
3. 常用的视频压缩标准是什么啊
视频压缩标准如下:
1、H.261
H.261标准是为ISDN设计,主要针对实时编码和解码设计,压缩和解压缩的信号延时不超过150ms,码率px64kbps(p=1~30)。
H.261标准主要采用运动补偿的帧间预测、DCT变换、自适应量化、熵编码等压缩技术。只有I帧和P帧,没有B帧,运动估计精度只精确到像素级。支持两种图像扫描格式:QCIF和CIF。
2、H.263
H.263标准是甚低码率的图像编码国际标准,它一方面以H.261为基础,以混合编码为核心,其基本原理框图和H.261十分相似,原始数据和码流组织也相似;另一方面,H.263也吸收了MPEG等其它一些国际标准中有效、合理的部分,如:半像素精度的运动估计、PB帧预测等,使它性能优于H.261。
H.263使用的位率可小于64Kb/s,且传输比特率可不固定(变码率)。H.263支持多种分辨率:SQCIF(128x96)、 QCIF、CIF、4CIF、16CIF。
3、H.264/AVC
视频压缩国际标准主要有由ITU-T制定的H.261、H.262、H.263、H.264和由MPEG制定的MPEG-1、MPEG-2、MPEG-4,其中H.262/MPEG-2和H.264/MPEG-4 AVC由ITU-T与MPEG联合制定。
从简单来说H.264就是一种视频编码技术,与微软的WMV9都属于同一种技术也就是压缩动态图像数据的“编解码器”程序。
一般来说,如果动态图像数据未经压缩就使用的话,数据量非常大,容易造成通信线路故障及数据存储容量紧张。
因此,在发送动态图像时、或者把影像内容保存在DVD上时、以及使用存储介质容量较小的数码相机或相机手机拍摄映像时,就必须使用编解码器。虽然编解码器有许多种类,但DVD-Video与微波数字电视等使用的主要是MPEG2,数码相机等摄像时主要使用MPEG4。
既然作为压缩视频编码技术,H.264最大的作用对视频的压缩了。我们熟悉的MPEG2也就是最常用的DVD视频编码技术已经比较落后。
MPEG-4
MPEG-4标准并非是MPEG-2的替代品,它着眼于不同的应用领域。MPEG-4的制定初衷主要针对视频会议、可视电话超低比特率压缩(小于64Kb/s)的需求。在制定过程中,MPEG组织深深感受到人们对媒体信息,特别是对视频信息的需求由播放型转向基于内容的访问、检索和操作。
MPEG-4与前面提到的JPEG、MPEG-1/2有很大的不同,它为多媒体数据压缩编码提供了更为广阔的平台,它定义的是一种格式、一种框架,而不是具体算法,它希望建立一种更自由的通信与开发环境。
于是MPEG-4新的目标就是定义为:支持多种多媒体的应用,特别是多媒体信息基于内容的检索和访问,可根据不同的应用需求,现场配置解码器。编码系统也是开放的,可随时加入新的有效的算法模块。应用范围包括实时视听通信、多媒体通信、远地监测/监视、VOD、家庭购物/娱乐等。
MPEG-4视频压缩算法相对于MPEG-1/2在低比特率压缩上有着显着提高,在CIF(352*288)或者更高清晰度(768*576)情况下的视频压缩,无论从清晰度还是从存储量上都比MPEG1具有更大的优势,也更适合网络传输。另外MPEG-4可以方便地动态调整帧率、比特率,以降低存储量。
MPEG-4由于系统设计过于复杂,使得MPEG-4难以完全实现并且兼容,很难在视频会议、可视电话等领域实现,这一点有点偏离原来地初衷。
4. 摄像头视频采集压缩及传输 基本原理
摄像头视频采集压缩及传输
引言 :
摄像头基本的功能还是视频传输,那么它是依靠怎样的原理来实现的呢?所谓视频传输:
就是将图片一张张传到屏幕,由于传输速度很快,所以可以让大家看到连续动态的画面,就像放电影一样。一般当画面的传输数量达到 每秒24帧 时,画面就有了连续性。
下边我们将介绍摄像头视频采集压缩及传输的整个过程。
一.摄像头的工作原理(获取视频数据)
摄像头的工作原理大致为:景物通过 镜头(LENS) 生成的 光学图像 投射到 图像传感器 表面上,然后转为 电信号 ,经过 A/D (模数转换)转换后变为 数字图像信号 ,再送到 数字信号处理芯片 (DSP)中加工处理,再通过 USB接口 传输到电脑中处理,通过显示器就可以看到图像了。下图是摄像头工作的流程图:
注1:图像传感器(SENSOR)是一种半导体芯片,其表面包含有几十万到几百万的光电二极管。光电二极管受到光照射时,就会产生电荷。
注2:数字信号处理芯片DSP(DIGITAL SIGNAL PROCESSING)功能:主要是通过一系列复杂的数学算法运算,对数字图像信号参数进行优化处理,并把处理后的信号通过USB等接口传到PC等设备。
1. ISP(image signal processor)(镜像信号处理器)
2. JPEG encoder(JPEG图像解码器)
3. USB device controller(USB设备控制器)
而视频要求将获取的视频图像通过互联网传送到异地的电脑上显示出来这其中就涉及到对于获得的视频图像的传输。
在进行这种图片的传输时,必须将图片进行压缩,一般压缩方式有如H.261、JPEG、MPEG等,否则传输所需的带宽会变得很大。大家用RealPlayer不知是否留意,当播放电影的时候,在播放器的下方会有一个传输速度250kbps、400kbps、1000kbps…画面的质量越高,这个速度也就越大。而摄像头进行视频传输也是这个原理,如果将摄像头的分辨率调到640×480,捕捉到的图片每张 大小约为50kb左右,每秒30帧,那么摄像头传输视频所需的速度为50×30/s=1500kbps=1.5Mbps。而在实际生活中,人们一般用于网络视频聊天时的分辨率为320×240甚至更低,传输的帧数为每秒24帧。换言之,此时视频传输速率将不到300kbps,人们就可以进行较为流畅的视频传输聊天。如果采用更高的压缩视频方式,如MPEG-1等等,可以将传输速率降低到200kbps不到。这个就是一般视频聊天时,摄像头所需的网络传输速度。
二.视频压缩部分
视频的压缩 是视频处理的核心,按照是否实时性可以分为非实时压缩和实时压缩。而视频传输(如QQ视频即时聊天)属于要求视频压缩为实时压缩。
下面对于视频为什么能压缩进行说明。
视频压缩是有损压缩,一般说来,视频压缩的压缩率都很高,能够做到这么高的压缩率是因为视频图像有着非常大的 时间和空间的冗余度 。所谓的 时间冗余度 指的是两帧相邻的图像他们相同位置的像素值比较类似,具有很大的相关性,尤其是静止图像,甚至两帧图像完全相同,对运动图像,通过某种运算(运动估计),应该说他们也具有很高的相关性;而空间相关性指的是同一帧图像,相邻的两个像素也具备一定的相关性。这些相关性是视频压缩算法的初始假设,换句话说,如果不满足这两个条件(全白噪声图像,场景频繁切换图像等),视频压缩的效果是会很差的。
去除时间相关性的关键算法是运动估计,它找出当前图像宏块在上一帧图像中最匹配的位置,很多时候,我们只需要把这个相对坐标记录下来,就够了,这样就节省了大量码字,提高了压缩率。视频压缩算法中,运动估计永远是最关键最核心的部分。去除空间相关性是通过DCT变换来实现的,把时域上的数据映射到频域上,然后对DCT系数进行量化处理,基本上,所有的有损压缩,都会有量化,它提高压缩率最明显。
图像的原始文件是比较大的,必须经过图像压缩才能够进行快速的传输以及顺畅的播放。而压缩比正是来衡量影像压缩大小的参数。 一般来说,摄像头的压缩比率大都是5:1。也就是说,如果在未压缩之前30秒的图像的容量是30MB,那么按照摄像头5:1的压缩比率来对图像进行压缩以后,它的大小就变成了6MB了。
主要的视频压缩算法包括:M-JPEG、Mpeg、H.264、Wavelet(小波压缩)、JPEG 2000、AVS。
基本上视频压缩的核心就这些。
三.视频传输部分
为了保证数字视频网络传输的实时性和图像的质量,传输层协议的选择是整个设计和实现的关键。Internet在IP层上使用两种传输协议:一种是TCP(传输控制协议),它是面向连接的网络协议;另一种是UDP(用户数据报协议),它是无连接的网络协议。
TCP 传输 :TCP(传输控制协议)是一种面向连接的网络传输协议。支持多数据流操作,提供流控和错误控制,乃至对乱序到达报文的重新排序,因此,TCP传输提供了可靠的数据传输服务。
使用TCP传输的一般的过程:
客户机向服务器发出连接的请求后,服务器接收到后,向客户机发出连接确认,实现连接后,双方进行数据传输。
UDP 传输 : UDP(用户数据报协议)是一种无连接的网络传输协议。提供一种基本的低延时的称谓数据报的传输服务。不需要像TCP传输一样需预先建立一条连接。UDP无计时机制、流控或拥塞管理机制。丢失的数据不会重传。因此提供一种不可靠的的应用数据传输服务。但在一个良好的网络环境下如 局域网内,使用UDP传输数据还是比较可靠,且效率很高。
IP 组播技术: 组播技术是一种允许一个或多个发送者发送单一或多个发送者的数据包到多个接收者的网络技术。组播源把数据报发送到特定的组播组,而只有加入到该组播组的主机才能接收到这些数据包。组播可大大节省网络宽带,因为无论有多少个目标地址,在整个网络的任何一条链路上只船送单一的数据包。
1.TCP/IP 协议和实时传输
TCP/IP协议最初是为提供非实时数据业务而设计的。IP协议负责主机之间的数据传输,不进行检错和纠错。因此,经常发生数据丢失或失序现象。为保证数据的可靠传输,人们将TCP协议用于IP数据的传输,以提高接收端的检错和纠错能力。当检测到数据包丢失或错误时,就会要求发送端重新发送,这样一来就不可避免地引起了传输延时和耗用网络的带宽。因此传统的TCP/IP协议传输实时音频、视频数据的能力较差。当然在传输用于回放的视频和音频数据时,TCP协议也是一种选择。如果有足够大的缓冲区、充足的网络带宽,在TCP协议上,接近实时的视音频传输也是可能的。然而,如果在丢包率较高、网络状况不好的情况下,利用TCP协议进行视频或音频通信几乎是不可能的。
TCP和其它可靠的传输层协议如XTP不适合实时视音频传输的原因主要有以下几个方面:
1 .TCP的重传机制
我们知道,在TCP/IP协议中,当发送方发现数据丢失时,它将要求重传丢失的数据包。然而这将需要一个甚至更多的周期(根据TCP/IP的快速重传机制,这将需要三个额外的帧延迟),这种重传对于实时性要求较高的视音频数据通信来说几乎是灾难性的,因为接收方不得不等待重传数据的到来,从而造成了延迟和断点(音频的不连续或视频的凝固等等)。
2 . TCP的拥塞控制机制
TCP的拥塞控制机制在探测到有数据包丢失时,它就会减小它的拥塞窗口。而另一方面,音频、视频在特定的编码方式下,产生的编码数量(即码率)是不可能突然改变的。正确的拥塞控制应该是变换音频、视频信息的编码方式,调节视频信息的帧频或图像幅面的大小等等。
3 . TCP报文头的大小
TCP不适合于实时视音频传输的另一个缺陷是,它的报文头比UDP的报文头大。TCP的报文头为40个字节,而UDP的报文头仅为12个字节。并且,这些可靠的传输层协议 不能提供时间戳(Time Stamp)和编解码信息(Encoding Information) ,而这些信息恰恰是接收方(即客户端)的应用程序所需要的。因此TCP是不适合于视音频信息的实时传输的。
4 . 启动速度慢
即便是在网络运行状态良好、没有丢包的情况下,由于TCP的启动需要建立连接,因而在初始化的过程中,需要较长的时间,而在一个实时视音频传输应用中,尽量少的延迟正是我们所期望的。
由此可见,TCP协议是不适合用来传输实时视音频数据的,为了实现视音频数据的实时传输,我们需要寻求其它的途径。
2.RTP 协议适合实时视音频传输
RTP(Real-Time Transport Protocol)/RTCP(Real-Time Transport Control Protocol)是一种应用型的传输层协议,它并不提供任何传输可靠性的保证和流量的拥塞控制机制。它是由IETF(Internet Engineering Task Force)为视音频的实时传输而设计的传输协议。RTP协议位于UDP协议之上,在功能上独立于下面的传输层(UDP)和网络层,但不能单独作为一个层次存在,通常是利用低层的UDP协议对实时视音频数据进行组播(Multicast)或单播(Unicast),从而实现多点或单点视音频数据的传输。
UDP是一种无连接的数据报投递服务,虽然没有TCP那么可靠,并且无法保证实时视音频传输业务的服务质量(QoS),需要RTCP实时监控数据传输和服务质量,但是,由于UDP的传输延时低于TCP,能与音频和视频流很好地匹配。因此,在实际应用中,RTP/RTCP/UDP用于音视频媒体,而TCP用于数据和控制信令的传输。
总结 :如果接收端和发送端处于同一个局域网内,由于有充分的带宽保证,在满足视频传输的实时性方面,TCP也可以有比较好的表现,TCP和基于UDP的RTP的视频传输性能相差不大。由于在局域网内带宽不是主要矛盾,此时视频数据传输所表现出来的延时主要体现为处理延时,它是由处理机的处理能力以及采用的处理机制所决定的 。但是当在广域网中进行视频数据传输时,此时的传输性能极大地取决于可用的带宽,由于TCP是面向连接的传输层协议,它的重传机制和拥塞控制机制,将使网络状况进一步恶化,从而带来灾难性的延时。同时,在这种网络环境下,通过TCP传输的视频数据,在接收端重建、回放时,断点非常明显,体现为明显的断断续续,传输的实时性和传输质量都无法保障。相对而言,采用RTP传输的视频数据的实时性和传输质量就要好得多。
四.视频图像的异地显示
当压缩过的视频通过互联网传输到异地的时候,对于互联网传输过来的视频信息,首先是要进行解码,然后才是显示。解码的芯片有一定的性能要求,比编码器低些,但是毕竟是视频数据处理,通用的芯片(不支持MMX等多媒体指令)可能会比较吃力。显示设备主要有电视、监视器和显示器,他们的信号接口是不一样的,电视监视器是模拟的电信号,显示器的输入应该是数字信号。
以上是摄像头如何获取图像数据及获取的数据存放在什么地方,如何压缩和传输及如何在异地释放和播放出来的整个过程
5. IP视频通信中视频压缩编码方法介绍【详解】
和一般的业务不同,视频是流特性业务,数据量很大。例如,数字电视图像中的SIF格式、NTSC制式、彩色、4∶4∶4采样,每帧的数据量为2028Kb,每秒的数据流量可达60.8Mb;CCIR格式、PAL制式、4∶4∶4采样的彩色视频的数据流量可达148.8Mbps。实验表明,176& TI mes;144的YUV原始视频在10Mbps的LAN上传送速率是3帧/秒左右。可见,未压缩的视频在Internet上传输的效果是无法容忍的,而且会很容易地将Internet资源吞没,造成网络拥塞甚至崩溃。因此,IP视频通信的第一步就是视频压缩。
视频压缩编码的理论基础是信息论。压缩就是从时域、空域两方面去除冗余信息,即将可推知的确定信息去掉。编码方法大致可分为三类:
1.考虑到图像信源的统计特性采用的预测编码方法、变换编码方法、液谨矢量量化编码方法、子带-小波编码方法及神经网络编码方法等;
2.考虑到视觉特性采用的基于方向滤波的图像编码方法、基于图像轮廓/纹理的编码方法;
3.考虑到图像传递的景物特征,采用的分形编码、基于模块的编码方法。
在IP视频通信应用中,编码方法的选择不但要考虑到压缩比、信噪比,还要考虑到算法的复杂性。太复杂的编码算法可能会产生较高的压缩比,但也会带来较大的计算开销,软件实现时会影响通信的实时性。目前,在众多视频编码算法中,影响最大并被广泛应用的算法是MPEG和H.26x。
MPEG编码
MPEG是国际标准化组织ISO/IEC下的一个制定动态 视频压缩 编码标准的组织,它为视频压缩编码技术的标准化、实用化做出了巨大贡献。如针对CD-ROM的1.5Mbps传输率的MPEG-1、针对HDTV的6Mbps以上传输速率的MPEG-2都已成功地得到应州橘用,并创造了巨大的商业价值。MPEG-4是针对视频会议、可视电话的甚低速率编码标准,它闹迹基融入了基于内容的检索与编码,可对压缩数据内容直接访问;即将于2001年制定完毕的MPEG-7标准被称为"多媒体内容描述接口",这种标准化的描述可以加到任何类型的媒体信息上。不管视频信息的表达形式或压缩形式如何,具有这种标准化描述的多媒体数据均可被检索。因此,MPEG-7的应用领域主要是数字化图书馆和广播式媒体。
H.263编码
H.261编码是一种帧间预测减少时域冗余、变换编码减少空域冗余的混合编码方法,具有压缩比高、算法复杂度低等优点,得到较为广泛的应用。Mbone的重要应用工具之一IVS的视频编码采用的就是H.261编码算法。在H.261的基础上,1996年ITU-T推出了H.263编码标准。H.263在许多方面对H.261进行了改进和扩充,如在编码算法复杂度增加很少的基础上,H.263能提供更好的图像质量、更低的速率,十分适合于IP视频会议、可视电话应用。目前,H.263编码是IP视频通信采用最多的一种编码方法,并已被许多多媒体通信终端标准所吸收, 如:ITU-TH.310(B-ISDN)、H.320(ISDN)、H.324(PSTN)、H.323(LAN、 WAN、Internet)。
随着计算机性能的快速提高,对于可视电话和视频会议等应用(一般使用QCIF图像),纯软件编码器(codec)即可以满足应用要求。我们实现的H.263纯软件编码器在主频为166MHz的主机上编码帧率可达60帧/秒以上,平均图像质量(用信噪比表示)大于38dB。
1998年ITU-T推出的H.263+是H.263建议的第二版,它提供了12个新的可协商模式和其他特征,进一步提高了压缩编码性能。如H.263只有5种视频源格式,H.263+允许使用更多的源格式,图像形状和时钟频率也有多种选择,拓宽了应用范围;另一重要的改进是可扩展性,它允许多显示率、多速率及多分辨率,增强了视频信息在易误码、易丢包异构网络环境下的传输。另外,H.263+的图像分段依赖性也可以是受限的,以减少差错传播。H.263+对H.263中的不受限运动矢量模式进行了改进,加上12个新增的可选模式,不仅提高了编码性能,而且增强了应用的灵活性。
6. 视频服务器的算法标准
网络视频服务器的压缩算法标准不外乎有MJPEG、MPEG-1、MPEG-4三种。
MJPEG压缩技术标准源于JPEG图片压缩技术,是一种简单的帧内JPEG压缩,压缩后图像清晰度较好。但由于这种方式本身的技术限制,无法作大比例压缩,数据量较高,录像每小时1-2G空间,网络传输耗费大量的带宽资源,不大适用于移动物体图像的压缩,也不大适用于国内长时间保安录像的需求。
MPEG-1压缩技术标准采用前后帧多帧预测的压缩算法,具有很大的压缩灵活性,应用最为广泛,这种算法技术发展成熟,数据压缩率相比MJPEG要高,但数据量还是较大,录像每小时300-400M空间,若用于银行长时间实时录像,占用硬盘空间较大,尤其是网络传输占用带宽较大,不大实用于视频图像远程传输。
MPEG-4压缩技术标准是目前进入实用阶段的最为先进的压缩技术,它利用很窄的带宽,通过帧重建技术压缩和传送图像,以求以最少的数据获得最佳的图像质量。MPEG-4的特点使其更适于交互AV服务以及远程监控,采用MPEG-4压缩算法,图像压缩比较高,录像每小时100-200M空间,图像清晰度高,网络传输占用带宽小,能通过各种传输方式进行远程视频图像传输。 由于网络视频监控服务器多用于对多个分散网点的远程、实时、集中监控,因此,监控中心可以同时监控、录像的视频路数是衡量远程集中监控效果的重要指标。
在理论上可同时对无限多个监控位点图像实施远程实时监控、录像。但在实际应用中受监控中心实际网络带宽的限制,如中心网络带宽为10M的话,假设每路视频占用250K,则最多可实现40路视频的录像,除非降低每路视频带宽或增加网络带宽。 在基于网络视频服务器的大型网络视频集中监控系统中,监控中心通常设置了多个监控客户端,往往存在同一时间段访问某一个前端监控网点并发出实时监控或录像调用请求的情况。当监控中心有N个监控客户端需要同时观看远程某一个监控点图像时(假设一路图像带宽占用为250K),常规模式下外网带宽占用为(N*250)K,通常会导致数据堵塞从而影响监控效果,因此常规的网络视频服务器系统一般只能支持三、四个客户端的同时访问要求。
是否支持本地录像资料的远程在线智能化检索、回放和转录 针对于多个分散网点的远程、实时、集中监控系统应用情况,由于公网带宽资源的稀缺性和有偿性,出于经济方面的考虑,多数用户会采用ADSL宽带线路进行远程数字视频信号的传输。电信部门提供的包月ADSL线路带宽理论值为上行带宽512K,下行2M,但实际的上行带宽往往只有200多K。为充分满足监控应用需求,实际系统中多采用“中心远程实时轮巡监控、网点本地实时录像、中心远程随时调看录像”的功能模式。
对于网点本地录像资料的远程调看应用,多数网络视频服务器软件还不能提供有效的解决方案,多数由网点本地的工作人员选择所需的录像资料文件并远程拷贝或E-MAIL给中心监控人员,中心监控人员接收到后再打开观看,操作繁琐费时。 在基于ADSL宽带线路的网络应用环境下,电信公司提供给用户的接入方式是动态IP接入方式,即用户通过虚拟拨号技术动态获得IP地址来上网的方式:用户通过本地电脑安装的拨号程序,驱动ADSL Modem拨号接入INTERNET时,ISP通常会随机分配给用户一个公共IP地址,在断线之前这个IP地址是唯一的,其他用户可以通过这个IP地址来 访问该用户,但是一旦断线后再次连接时,ISP会重新随机分配另外一个IP地址给该用户。
在利用网络视频服务器 实现远程视频集中监控应用中,在基于ADSL宽带线路的网络应用环境下,如何简便地实现在动态IP地址条件下监控中心对监控前端的实时访问,仍是困扰诸多工程商、系统集成商以及 网络视频服务器 生产厂家的难题之一。许多网络视频服务器 不能提供动态IP接入的解决方案,一旦工程商或用户利用 网络视频服务器并通过ADSL来组建远程监控系统,很可能会导致系统无法实现预期的功能。 在某些系统应用情况下,视频监控系统仅仅是整个大型系统的一个应用子系统,如果能将视频监控系统和其它系统进行有机整合,将大大方便用户的系统操作使用。
7. 关于视频压缩的原理
视频压缩的原理是视频图像数据有很强的相关性,也就是说有大量的冗余信息。其中冗余信息可分为空域冗余信息和时域冗余信息。压缩技术就是将数据中的冗余信息去掉(去除数据之间的相关性),压缩技术包含帧内图像数据压缩技术、帧间图像数据压缩技术和熵编码压缩技术。
(7)视频压缩算法扩展阅读:
视频是连续的图像序列,由连续的帧构成,一帧即为一幅图像。由于人眼的视觉暂留效应,当帧序列以一定的速率播放时,我们看到的就是动作连续的视频。由于连续的帧之间相似性极高,为便于储存传输,我们需要对原始的视频进行编码压缩,以去除空间、时间维度的冗余。
视频压缩技术是计算机处理视频的前提。视频信号数字化后数据带宽很高,通常在20MB/秒以上,因此计算机很难对之进行保存和处理。采用压缩技术通常数据带宽降到1-10MB/秒,这样就可以将视频信号保存在计算机中并作相应的处理。