當前位置:首頁 » 文件管理 » 監控顯示壓縮

監控顯示壓縮

發布時間: 2024-08-06 00:51:10

1. 監控里的圖象壓縮技術都有什麼

MPEG-1
MPEG視頻 壓縮編碼後包括三種元素:I幀(I-frames)、P幀(P-frames)和B幀(B-frames)。在MPEG編碼的過程中,部分視頻 幀序列壓縮成為I幀;部分壓縮成P幀;還有部分壓縮成B幀。I幀法是幀內壓縮法,也稱為「關鍵幀」壓縮法。I幀法是基於離散餘弦變換DCT( Discrete Cosine Transform )的壓縮技術,這種演算法與JPEG壓縮演算法類似。採用I幀壓縮可達到1/6的壓縮比而無明顯的壓縮痕跡。

在保證圖像質量的前提下實現高壓縮的壓縮演算法,僅靠幀內壓縮是不能實現的,MPEG採用了幀間和幀內相結合的壓縮演算法。 P幀法是一種前向預測演算法,它考慮相鄰幀之間的相同信息或數據,也即考慮運動的特性進行幀間壓縮。P幀法是根據本幀與相鄰的前一幀(I幀或P幀)的不同點來壓縮本幀數據。採取P幀和I幀聯合壓縮的方法可達到更高的壓縮且無明顯的壓縮痕跡。

然而,只有採用B幀壓縮才能達到200:1的高壓縮。B幀法是雙向預測的幀間壓縮演算法。當把一幀壓縮成B幀時,它根據相鄰的前一幀、本幀以及後一幀數據的不同點來壓縮本幀,也即僅記錄本幀與前後幀的差值。B幀數據只有I幀數據的百分之十五、P幀數據的百分之五十以下。

MPEG標准採用類似4:2:2的採用格式,壓縮後亮度信號的解析度為352×240,兩個色度信號解析度均為176×120,這兩種不同解析度信息的幀率都是每秒30幀。其編碼的基本方法是在單位時間內,首先採集並壓縮第一幀的圖像為I幀。然後對於其後的各幀,在對單幀圖像進行有效壓縮的基礎上,只存儲其相對於前後幀發生變化的部分。幀間壓縮的過程中也常間隔採用幀內壓縮法,由於幀內(關鍵幀)的壓縮不基於前一幀,一般每隔15幀設一關鍵幀,這樣可以減少相關前一幀壓縮的誤差積累。MPEG編碼器首先要決定壓縮當前幀為I幀或P幀或B幀,然後採用相應的演算法對其進行壓縮。一個視頻 序列經MPEG全編碼壓縮後可能的格式為:......

壓縮成B幀或P幀要比壓縮成I幀需要多得多的計算處理時間。有的編碼器不具備B幀甚至P幀的壓縮功能,顯然其壓縮效果不會很好。
MPEG-2
MPEG組織在1994年推出MPEG-2壓縮標准,以實現視/音頻服務與應用互操作的可能性。MPEG-2標準是針對標准數字電視和高清晰度電視在各種應用下的壓縮方案和系統層的詳細規定,編碼碼率從每秒3兆比特~100兆比特,標準的正式規范在ISO/IEC13818中。MPEG-2不是MPEG-1的簡單升級,MPEG-2在系統和傳送方面作了更加詳細的規定和進一步的完善。MPEG-2特別適用於廣播級的數字電視的編碼和傳送,被認定為SDTV和HDTV的編碼標准。MPEG-2還專門規定了多路節目的復分接方式。MPEG-2標准目前分為9個部分,統稱為ISO/IEC13818國際標准。

MPEG-2圖像壓縮的原理是利用了圖像中的兩種特性:空間相關性和時間相關性。一幀圖像內的任何一個場景都是由若干像素點構成的,因此一個像素通常與它周圍的某些像素在亮度和色度上存在一定的關系,這種關系叫作空間相關性;一個節目中的一個情節常常由若干幀連續圖像組成的圖像序列構成,一個圖像序列中前後幀圖像間也存在一定的關系,這種關系叫作時間相關性。這兩種相關性使得圖像中存在大量的冗餘信息。如果我們能將這些冗餘信息去除,只保留少量非相關信息進行傳輸,就可以大大節省傳輸頻帶。而接收機利用這些非相關信息,按照一定的解碼演算法,可以在保證一定的圖像質量的前提下恢復原始圖像。一個好的壓縮編碼方案就是能夠最大限度地去除圖像中的冗餘信息。

MPEG-2的編碼圖像被分為三類,分別稱為I幀,P幀和B幀。

I幀圖像採用幀內編碼方式,即只利用了單幀圖像內的空間相關性,而沒有利用時間相關性。I幀使用幀內壓縮,不使用運動補償,由於I幀不依賴其它幀,所以是隨機存取的入點,同時是解碼的基準幀。I幀主要用於接收機的初始化和信道的獲取,以及節目的切換和插入,I幀圖像的壓縮倍數相對較低。I幀圖像是周期性出現在圖像序列中的,出現頻率可由編碼器選擇。

P幀和B幀圖像採用幀間編碼方式,即同時利用了空間和時間上的相關性。P幀圖像只採用前向時間預測,可以提高壓縮效率和圖像質量。P幀圖像中可以包含幀內編碼的部分,即P幀中的每一個宏塊可以是前向預測,也可以是幀內編碼。B幀圖像採用雙向時間預測,可以大大提高壓縮倍數。值得注意的是,由於B幀圖像採用了未來幀作為參考,因此MPEG-2編碼碼流中圖像幀的傳輸順序和顯示順序是不同的。

P幀和B幀圖像採用幀間編碼方式,即同時利用了空間和時間上的相關性。P幀圖像只採用前向時間預測,可以提高壓縮效率和圖像質量。P幀圖像中可以包含幀內編碼的部分,即P幀中的每一個宏塊可以是前向預測,也可以是幀內編碼。B幀圖像採用雙向時間預測,可以大大提高壓縮倍數。值得注意的是,由於B幀圖像採用了未來幀作為參考,因此MPEG-2編碼碼流中圖像幀的傳輸順序和顯示順序是不同的。

MPEG-2的編碼碼流分為六個層次。為更好地表示編碼數據,MPEG-2用句法規定了一個層次性結構。它分為六層,自上到下分別是:圖像序列層、圖像組(GOP)、圖像、宏塊條、宏塊、塊。

MPEG-4
MPEG-4於1998年11月公布, MPEG-4是針對一定比特率下的視頻 、音頻編碼,更加註重多媒體系統的交互性和靈活性。MPEG-4標准力求做到兩個目標:低比特率下的多媒體通信;是多工業的多媒體通信的綜合。為此,MPEG-4引入了AV對象(Audio/Visual Objects),使得更多的交互操作成為可能:
"AV對象"可以是一個孤立的人,也可以是這個人的語音或一段背景音樂等。它具有高效編碼、高效存儲與傳播及可交互操作的特性。

MPEG-4對AV對象的操作主要有:採用AV對象來表示聽覺、視覺或者視聽組合內容;組合已有的AV對象來生成復合的AV對象,並由此生成AV場景;對AV對象的數據靈活地多路合成與同步,以便選擇合適的網路來傳輸這些AV對象數據;允許接收端的用戶在AV場景中對AV對象進行交互操作等。
MPEG-4標准則由6個主要部分構成:
① DMIF(The Dellivery Multimedia Integration Framework)
DMIF 即多媒體傳送整體框架,它主要解決交互網路中、廣播環境下以及磁碟應用中多媒體應用的操作問題。 通過傳輸多路合成比特信息來建立客戶端和伺服器端的交互和傳輸。 通過DMIF,MPEG4可以建立起具有特殊品質服務(QoS)的信道和面向每個基本流的帶寬。
② 數據平面
MPEG4中的數據平面可以分為兩部分:傳輸關系部分和媒體關系部分。
為了使基本流和AV對象在同一場景中出現,MPEG4引用了對象描述(OD)和流圖桌面(SMT) 的概念。OD 傳輸與特殊AV對象相關的基本流的信息流圖。桌面把每一個流與一個CAT(Channel Assosiation Tag)相連,CAT可實現該流的順利傳輸。
③ 緩沖區管理和實時識別
MPEG4定義了一個系統解碼模式(SDM),該解碼模式描述了一種理想的處理比特流句法語義的解碼裝置,它要求特殊的緩沖區和實時模式。通過有效地管理,可以更好地利用有限的緩沖區空間。
④ 音頻編碼
MPEG4的優越之處在於--它不僅支持自然聲音,而且支持合成聲音。MPEG4的音頻部分將音頻的合成編碼和自然聲音的編碼相結合,並支持音頻的對象特徵。
⑤ 視頻 編碼
與音頻編碼類似,MPEG4也支持對自然和合成的視覺對象的編碼。 合成的視覺對象包括2D、3D 動畫和人面部表情動畫等。
⑥ 場景描述
MPEG4提供了一系列工具,用於組成場景中的一組對象。一些必要的合成信息就組成了場景描述,這些場景描述以二進制格式BIFS(Binary Format for Scene description)表示,BIFS與AV對象一同傳輸、編碼。場景描述主要用於描述各AV對象在一具體AV場景坐標下,如何組織與同步等問題。同時還有AV對象與AV場景的知識產權保護等問題。MPEG4為我們提供了豐富的AV場景。
與MPEG-1和MPEG-2相比,MPEG-4更適於交互AV服務以及遠程監控,它的設計目標使其具有更廣的適應性和可擴展性: MPEG-4傳輸速率在4800-64000bps之間,解析度為176×144,可以利用很窄的帶寬通過幀重建技術壓縮和傳輸數據,從而能以最少的數據獲得最佳的圖像質量。因此,它將在數字電視、動態圖像、互聯網、實時多媒體監控、移動多媒體通信、Internet/Intranet上的視頻 流與可視游戲、DVD上的交互多媒體應用等方面大顯身手。

H.264
H.264是ITU-T的VCEG(視頻 編碼專家組)和ISO/IEC的MPEG(活動圖像編碼專家組)的聯合視頻 組(JVT:joint video team)開發的一個新的數字視頻 編碼標准,它既是ITU-T的H.264,又是ISO/IEC的MPEG-4的第10 部分。1998年1月份開始草案徵集,1999年9月,完成第一個草案,2001年5月制定了其測試模式TML-8,2002年6月的 JVT第5次會議通過了H.264的FCD板。目前該標准還在開發之中,預計明年上半年可正式通過。

H.264和以前的標准一樣,也是DPCM加變換編碼的混合編碼模式。但它採用「回歸基本」的簡潔設計,不用眾多的選項,獲得比H.263++好得多的壓縮性能;加強了對各種信道的適應能力,採用「網路友好」的結構和語法,有利於對誤碼和丟包的處理;應用目標范圍較寬,以滿足不同速率、不同解析度以及不同傳輸(存儲)場合的需求;它的基本系統是開放的,使用無需版權。

H.264的演算法在概念上可以分為兩層:視頻 編碼層(VCL:Video Coding Layer)負責高效的視頻 內容表示,網路提取層(NAL:Network Abstraction Layer)負責以網路所要求的恰當的方式對數據進行打包和傳送。 H.264支持1/4或1/8像素精度的運動矢量。在1/4像素精度時可使用6抽頭濾波器來減少高頻雜訊,對於1/8像素精度的運動矢量,可使用更為復雜的8抽頭的濾波器。在進行運動估計時,編碼器還可選擇「增強」內插濾波器來提高預測的效果。H.264中熵編碼有兩種方法,一種是對所有的待編碼的符號採用統一的VLC(UVLC :Universal VLC),另一種是採用內容自適應的二進制算術編碼。H.264 草案中包含了用於差錯消除的工具,便於壓縮視頻 在誤碼、丟包多發環境中傳輸,如移動信道或IP信道中傳輸的健壯性。

在技術上,H.264標准中有多個閃光之處,如統一的VLC符號編碼,高精度、多模式的位移估計,基於4×4塊的整數變換、分層的編碼語法等。這些措施使得H.264演算法具有很的高編碼效率,在相同的重建圖像質量下,能夠比H.263節約50%左右的碼率。H.264的碼流結構網路適應性強,增加了差錯恢復能力,能夠很好地適應IP和無線網路的應用。

H.264具有廣闊的應用前景,例如實時視頻 通信、網際網路視頻 傳輸、視頻 流媒體服務、異構網上的多點通信、壓縮視頻 存儲、視頻 資料庫等。H.264優越性能的獲得不是沒有代價的,其代價是計算復雜度的大大增加,據估計,編碼的計算復雜度大約相當於H.263的3倍,解碼復雜度大約相當於H.263的2倍。

H.264建議的技術特點可以歸納為三個方面,一是注重實用,採用成熟的技術,追求更高的編碼效率,簡潔的表現形式;二是注重對移動和IP網路的適應,採用分層技術,從形式上將編碼和信道隔離開來,實質上是在源編碼器演算法中更多地考慮到信道的特點;三是在混合編碼器的基本框架下,對其主要關鍵部件都做了重大改進,如多模式運動估計、幀內預測、多幀預測、統一VLC、4×4二維整數變換等。

迄今為止,H.264尚未最後定稿,但因其更高的壓縮比,更好的信道適應性,必將在數字視頻 的通信或存儲領域得到越來越廣泛的應用,其發展潛力不可限量。

歡迎了解採用最新H.264壓縮演算法的硬碟錄像機:http://www.21yh.net/cpzs-n.asp?id=20

2. 攝像頭視頻採集壓縮及傳輸 基本原理

攝像頭視頻採集壓縮及傳輸

引言 :

攝像頭基本的功能還是視頻傳輸,那麼它是依靠怎樣的原理來實現的呢?所謂視頻傳輸:

就是將圖片一張張傳到屏幕,由於傳輸速度很快,所以可以讓大家看到連續動態的畫面,就像放電影一樣。一般當畫面的傳輸數量達到 每秒24幀 時,畫面就有了連續性。

下邊我們將介紹攝像頭視頻採集壓縮及傳輸的整個過程。

一.攝像頭的工作原理(獲取視頻數據)

攝像頭的工作原理大致為:景物通過 鏡頭(LENS) 生成的 光學圖像 投射到 圖像感測器 表面上,然後轉為 電信號 ,經過 A/D (模數轉換)轉換後變為 數字圖像信號 ,再送到 數字信號處理晶元 (DSP)中加工處理,再通過 USB介面 傳輸到電腦中處理,通過顯示器就可以看到圖像了。下圖是攝像頭工作的流程圖:

注1:圖像感測器(SENSOR)是一種半導體晶元,其表麵包含有幾十萬到幾百萬的光電二極體。光電二極體受到光照射時,就會產生電荷。

注2:數字信號處理晶元DSP(DIGITAL SIGNAL PROCESSING)功能:主要是通過一系列復雜的數學演算法運算,對數字圖像信號參數進行優化處理,並把處理後的信號通過USB等介面傳到PC等設備。

1. ISP(image signal processor)(鏡像信號處理器)

2. JPEG encoder(JPEG圖像解碼器)

3. USB device controller(USB設備控制器)

而視頻要求將獲取的視頻圖像通過互聯網傳送到異地的電腦上顯示出來這其中就涉及到對於獲得的視頻圖像的傳輸。

在進行這種圖片的傳輸時,必須將圖片進行壓縮,一般壓縮方式有如H.261、JPEG、MPEG等,否則傳輸所需的帶寬會變得很大。大家用RealPlayer不知是否留意,當播放電影的時候,在播放器的下方會有一個傳輸速度250kbps、400kbps、1000kbps…畫面的質量越高,這個速度也就越大。而攝像頭進行視頻傳輸也是這個原理,如果將攝像頭的解析度調到640×480,捕捉到的圖片每張 大小約為50kb左右,每秒30幀,那麼攝像頭傳輸視頻所需的速度為50×30/s=1500kbps=1.5Mbps。而在實際生活中,人們一般用於網路視頻聊天時的解析度為320×240甚至更低,傳輸的幀數為每秒24幀。換言之,此時視頻傳輸速率將不到300kbps,人們就可以進行較為流暢的視頻傳輸聊天。如果採用更高的壓縮視頻方式,如MPEG-1等等,可以將傳輸速率降低到200kbps不到。這個就是一般視頻聊天時,攝像頭所需的網路傳輸速度。

二.視頻壓縮部分

視頻的壓縮 是視頻處理的核心,按照是否實時性可以分為非實時壓縮和實時壓縮。而視頻傳輸(如QQ視頻即時聊天)屬於要求視頻壓縮為實時壓縮。

下面對於視頻為什麼能壓縮進行說明。

視頻壓縮是有損壓縮,一般說來,視頻壓縮的壓縮率都很高,能夠做到這么高的壓縮率是因為視頻圖像有著非常大的 時間和空間的冗餘度 。所謂的 時間冗餘度 指的是兩幀相鄰的圖像他們相同位置的像素值比較類似,具有很大的相關性,尤其是靜止圖像,甚至兩幀圖像完全相同,對運動圖像,通過某種運算(運動估計),應該說他們也具有很高的相關性;而空間相關性指的是同一幀圖像,相鄰的兩個像素也具備一定的相關性。這些相關性是視頻壓縮演算法的初始假設,換句話說,如果不滿足這兩個條件(全白雜訊圖像,場景頻繁切換圖像等),視頻壓縮的效果是會很差的。

去除時間相關性的關鍵演算法是運動估計,它找出當前圖像宏塊在上一幀圖像中最匹配的位置,很多時候,我們只需要把這個相對坐標記錄下來,就夠了,這樣就節省了大量碼字,提高了壓縮率。視頻壓縮演算法中,運動估計永遠是最關鍵最核心的部分。去除空間相關性是通過DCT變換來實現的,把時域上的數據映射到頻域上,然後對DCT系數進行量化處理,基本上,所有的有損壓縮,都會有量化,它提高壓縮率最明顯。

圖像的原始文件是比較大的,必須經過圖像壓縮才能夠進行快速的傳輸以及順暢的播放。而壓縮比正是來衡量影像壓縮大小的參數。 一般來說,攝像頭的壓縮比率大都是5:1。也就是說,如果在未壓縮之前30秒的圖像的容量是30MB,那麼按照攝像頭5:1的壓縮比率來對圖像進行壓縮以後,它的大小就變成了6MB了。

主要的視頻壓縮演算法包括:M-JPEG、Mpeg、H.264、Wavelet(小波壓縮)、JPEG 2000、AVS。

基本上視頻壓縮的核心就這些。

三.視頻傳輸部分

為了保證數字視頻網路傳輸的實時性和圖像的質量,傳輸層協議的選擇是整個設計和實現的關鍵。Internet在IP層上使用兩種傳輸協議:一種是TCP(傳輸控制協議),它是面向連接的網路協議;另一種是UDP(用戶數據報協議),它是無連接的網路協議。

TCP 傳輸 :TCP(傳輸控制協議)是一種面向連接的網路傳輸協議。支持多數據流操作,提供流控和錯誤控制,乃至對亂序到達報文的重新排序,因此,TCP傳輸提供了可靠的數據傳輸服務。

使用TCP傳輸的一般的過程:

客戶機向伺服器發出連接的請求後,伺服器接收到後,向客戶機發出連接確認,實現連接後,雙方進行數據傳輸。

UDP 傳輸 : UDP(用戶數據報協議)是一種無連接的網路傳輸協議。提供一種基本的低延時的稱謂數據報的傳輸服務。不需要像TCP傳輸一樣需預先建立一條連接。UDP無計時機制、流控或擁塞管理機制。丟失的數據不會重傳。因此提供一種不可靠的的應用數據傳輸服務。但在一個良好的網路環境下如 區域網內,使用UDP傳輸數據還是比較可靠,且效率很高。

IP 組播技術: 組播技術是一種允許一個或多個發送者發送單一或多個發送者的數據包到多個接收者的網路技術。組播源把數據報發送到特定的組播組,而只有加入到該組播組的主機才能接收到這些數據包。組播可大大節省網路寬頻,因為無論有多少個目標地址,在整個網路的任何一條鏈路上只船送單一的數據包。

1.TCP/IP 協議和實時傳輸

TCP/IP協議最初是為提供非實時數據業務而設計的。IP協議負責主機之間的數據傳輸,不進行檢錯和糾錯。因此,經常發生數據丟失或失序現象。為保證數據的可靠傳輸,人們將TCP協議用於IP數據的傳輸,以提高接收端的檢錯和糾錯能力。當檢測到數據包丟失或錯誤時,就會要求發送端重新發送,這樣一來就不可避免地引起了傳輸延時和耗用網路的帶寬。因此傳統的TCP/IP協議傳輸實時音頻、視頻數據的能力較差。當然在傳輸用於回放的視頻和音頻數據時,TCP協議也是一種選擇。如果有足夠大的緩沖區、充足的網路帶寬,在TCP協議上,接近實時的視音頻傳輸也是可能的。然而,如果在丟包率較高、網路狀況不好的情況下,利用TCP協議進行視頻或音頻通信幾乎是不可能的。

TCP和其它可靠的傳輸層協議如XTP不適合實時視音頻傳輸的原因主要有以下幾個方面:

1 .TCP的重傳機制

我們知道,在TCP/IP協議中,當發送方發現數據丟失時,它將要求重傳丟失的數據包。然而這將需要一個甚至更多的周期(根據TCP/IP的快速重傳機制,這將需要三個額外的幀延遲),這種重傳對於實時性要求較高的視音頻數據通信來說幾乎是災難性的,因為接收方不得不等待重傳數據的到來,從而造成了延遲和斷點(音頻的不連續或視頻的凝固等等)。

2 . TCP的擁塞控制機制

TCP的擁塞控制機制在探測到有數據包丟失時,它就會減小它的擁塞窗口。而另一方面,音頻、視頻在特定的編碼方式下,產生的編碼數量(即碼率)是不可能突然改變的。正確的擁塞控制應該是變換音頻、視頻信息的編碼方式,調節視頻信息的幀頻或圖像幅面的大小等等。

3 . TCP報文頭的大小

TCP不適合於實時視音頻傳輸的另一個缺陷是,它的報文頭比UDP的報文頭大。TCP的報文頭為40個位元組,而UDP的報文頭僅為12個位元組。並且,這些可靠的傳輸層協議 不能提供時間戳(Time Stamp)和編解碼信息(Encoding Information) ,而這些信息恰恰是接收方(即客戶端)的應用程序所需要的。因此TCP是不適合於視音頻信息的實時傳輸的。

4 . 啟動速度慢

即便是在網路運行狀態良好、沒有丟包的情況下,由於TCP的啟動需要建立連接,因而在初始化的過程中,需要較長的時間,而在一個實時視音頻傳輸應用中,盡量少的延遲正是我們所期望的。

由此可見,TCP協議是不適合用來傳輸實時視音頻數據的,為了實現視音頻數據的實時傳輸,我們需要尋求其它的途徑。

2.RTP 協議適合實時視音頻傳輸

RTP(Real-Time Transport Protocol)/RTCP(Real-Time Transport Control Protocol)是一種應用型的傳輸層協議,它並不提供任何傳輸可靠性的保證和流量的擁塞控制機制。它是由IETF(Internet Engineering Task Force)為視音頻的實時傳輸而設計的傳輸協議。RTP協議位於UDP協議之上,在功能上獨立於下面的傳輸層(UDP)和網路層,但不能單獨作為一個層次存在,通常是利用低層的UDP協議對實時視音頻數據進行組播(Multicast)或單播(Unicast),從而實現多點或單點視音頻數據的傳輸。

UDP是一種無連接的數據報投遞服務,雖然沒有TCP那麼可靠,並且無法保證實時視音頻傳輸業務的服務質量(QoS),需要RTCP實時監控數據傳輸和服務質量,但是,由於UDP的傳輸延時低於TCP,能與音頻和視頻流很好地匹配。因此,在實際應用中,RTP/RTCP/UDP用於音視頻媒體,而TCP用於數據和控制信令的傳輸。

總結 :如果接收端和發送端處於同一個區域網內,由於有充分的帶寬保證,在滿足視頻傳輸的實時性方面,TCP也可以有比較好的表現,TCP和基於UDP的RTP的視頻傳輸性能相差不大。由於在區域網內帶寬不是主要矛盾,此時視頻數據傳輸所表現出來的延時主要體現為處理延時,它是由處理機的處理能力以及採用的處理機制所決定的 。但是當在廣域網中進行視頻數據傳輸時,此時的傳輸性能極大地取決於可用的帶寬,由於TCP是面向連接的傳輸層協議,它的重傳機制和擁塞控制機制,將使網路狀況進一步惡化,從而帶來災難性的延時。同時,在這種網路環境下,通過TCP傳輸的視頻數據,在接收端重建、回放時,斷點非常明顯,體現為明顯的斷斷續續,傳輸的實時性和傳輸質量都無法保障。相對而言,採用RTP傳輸的視頻數據的實時性和傳輸質量就要好得多。

四.視頻圖像的異地顯示

當壓縮過的視頻通過互聯網傳輸到異地的時候,對於互聯網傳輸過來的視頻信息,首先是要進行解碼,然後才是顯示。解碼的晶元有一定的性能要求,比編碼器低些,但是畢竟是視頻數據處理,通用的晶元(不支持MMX等多媒體指令)可能會比較吃力。顯示設備主要有電視、監視器和顯示器,他們的信號介面是不一樣的,電視監視器是模擬的電信號,顯示器的輸入應該是數字信號。

以上是攝像頭如何獲取圖像數據及獲取的數據存放在什麼地方,如何壓縮和傳輸及如何在異地釋放和播放出來的整個過程

熱點內容
安卓輔助腳本如何寫 發布:2025-01-15 13:42:50 瀏覽:123
壓縮褲的穿法 發布:2025-01-15 13:39:24 瀏覽:314
支付寶如何設支付密碼 發布:2025-01-15 13:39:24 瀏覽:257
ea編程入門 發布:2025-01-15 13:30:11 瀏覽:412
應繳費檔次配置異常怎麼回事 發布:2025-01-15 13:20:34 瀏覽:617
成都php招聘 發布:2025-01-15 13:12:16 瀏覽:381
怎麼調用伺服器資料庫 發布:2025-01-15 13:06:25 瀏覽:656
人人網設置訪問許可權 發布:2025-01-15 13:02:06 瀏覽:563
崩壞學園2腳本 發布:2025-01-15 12:58:43 瀏覽:459
我的世界伺服器等級如何升 發布:2025-01-15 12:45:55 瀏覽:689