服務熱線: 400-990-5789
合作機構
Left
Right

視頻會議的主要功能

   一般而言,視頻會議的主要核心功能是:多人語音聊天、多人視頻聊天、公共電子白板、會議房間管理。

視頻會議

一.語音通話

1.基礎模型

在視頻會議中,網絡語音通話通常多對多的的,但就模型層面來說,我們討論一個方向的通道就可以了。一方說話,另一方則聽到聲音??此坪唵味附?,但是其背后的流程卻是相當復雜的。我們將其經過的各個主要環節簡化成下圖所示的概念模型:

這是一個最基礎的模型,由五個重要的環節構成:采集、編碼、傳送、解碼、播放。

語音采集指的是從麥克風采集音頻數據,即聲音樣本轉換成數字信號。其涉及到幾個重要的參數:采樣頻率、采樣位數、聲道數。

假設我們將采集到的音頻幀不經過編碼,而直接發送,那么我們可以計算其所需要的帶寬要求,仍以上例:320*100 =32KBytes/s,如果換算為bits/s,則為256kb/s。這是個很大的帶寬占用。而通過網絡流量監控工具,我們可以發現采用類似QQ等IM軟件進行語音通話時,流量為3-5KB/s,這比原始流量小了一個數量級。而這主要得益于音頻編碼技術。 所以,在實際的語音通話應用中,編碼這個環節是不可缺少的。目前有很多常用的語音編碼技術,像G.729、iLBC、AAC、SPEEX等等。

當一個音頻幀完成編碼后,即可通過網絡發送給通話的對方。對于語音對話這樣Realtime應用,低延遲和平穩是非常重要的,這就要求我們的網絡傳送非常順暢。

當對方接收到編碼幀后,會對其進行解碼,以恢復成為可供聲卡直接播放的數據。

完成解碼后,即可將得到的音頻幀提交給聲卡進行播放。

 

2.高級功能

如果僅僅依靠上述的技術就能實現一個效果良好的應用于廣域網上的語音對話系統,那就太easy了。正是由于很多現實的因素為上述的概念模型引入了眾多挑戰,使得網絡語音系統的實現不是那么簡單,其涉及到很多專業技術。一個“效果良好”的語音對話系統應該達到如下幾點:低延遲,背景噪音小,聲音流暢、沒有卡、停頓的感覺,沒有回音。

對于低延遲,只有在低延遲的情況下,才能讓通話的雙方有很強的Realtime的感覺。當然,這個主要取決于網絡的速度和通話雙方的物理位置的距離,就單純軟件的角度,優化的可能性很小。

 

(1)回音消除

現在大家幾乎都已經都習慣了在語音聊天時,直接用PC或筆記本的聲音外放功能。當使用外放功能時,揚聲器播放的聲音會被麥克風再次采集,傳回給對方,這樣對方就聽到了自己的回音。

回音消除的原理簡單地來說就是,回音消除模塊依據剛播放的音頻幀,在采集的音頻幀中做一些類似抵消的運算,從而將回聲從采集幀中清除掉。這個過程是相當復雜的,因為它還與你聊天時所處的房間的大小、以及你在房間中的位置有關,因為這些信息決定了聲波反射的時長。 智能的回音消除模塊,能動態調整內部參數,以最佳適應當前的環境。

(2)噪聲抑制

噪聲抑制又稱為降噪處理,是根據語音數據的特點,將屬于背景噪音的部分識別出來,并從音頻幀中過濾掉。有很多編碼器都內置了該功能。

(3)抖動緩沖區

抖動緩沖區(JitterBuffer)用于解決網絡抖動的問題。所謂網絡抖動,就是網絡延遲一會大一會小,在這種情況下,即使發送方是定時發送數據包的(比如每100ms發送一個包),而接收方的接收就無法同樣定時了,有時一個周期內一個包都接收不到,有時一個周期內接收到好幾個包。如此,導致接收方聽到的聲音就是一卡一卡的。

JitterBuffer工作于解碼器之后,語音播放之前的環節。即語音解碼完成后,將解碼幀放入JitterBuffer,聲卡的播放回調到來時,從JitterBuffer中取出最老的一幀進行播放。

JitterBuffer的緩沖深度取決于網絡抖動的程度,網絡抖動越大,緩沖深度越大,播放音頻的延遲就越大。所以,JitterBuffer是利用了較高的延遲來換取聲音的流暢播放的,因為相比聲音一卡一卡來說,稍大一點的延遲但更流暢的效果,其主觀體驗要更好。

當然,JitterBuffer的緩沖深度不是一直不變的,而是根據網絡抖動程度的變化而動態調整的。當網絡恢復到非常平穩通暢時,緩沖深度會非常小,這樣因為JitterBuffer而增加的播放延遲就可以忽略不計了。

 

(4)靜音檢測

在語音對話中,要是當一方沒有說話時,就不會產生流量就好了。靜音檢測就是用于這個目的的。靜音檢測通常也集成在編碼模塊中。靜音檢測算法結合前面的噪聲抑制算法,可以識別出當前是否有語音輸入,如果沒有語音輸入,就可以編碼輸出一個特殊的的編碼幀(比如長度為0)。特別是在多人視頻會議中,通常只有一個人在發言,這種情況下,利用靜音檢測技術而節省帶寬還是非??捎^的。

 

(5)混音

在視頻會議中,多人同時發言時,我們需要同時播放來自于多個人的語音數據,而聲卡播放的緩沖區只有一個,所以,需要將多路語音混合成一路,這就是混音算法要做的事情。

二.視頻通話

1.基礎模型

視頻通話的概念模型與語音完全一致:

攝像頭采集指的是從捕捉攝像頭采集到的每一幀視頻圖像。在windows系統上,通常使用VFW技術或DirectShow技術來實現。采集視頻的兩個關鍵參數是幀頻(fps)和分辨率。

一般而言,一個攝像頭可以支持多種不同的采集分辨率和采集幀頻,而不同的攝像頭支持的分辨率的集合不一樣。比如現在有很多高清攝像頭可以支持30fps的1920*1080的圖像采集。

編碼用于壓縮視頻圖像,同時也決定了圖像的清晰度。視頻編碼常用的技術是H.263、H.264、MPEG-4、XVID等。

當對方接收到編碼的視頻幀后,會對其進行解碼,以恢復成一幀圖像,然后在UI的界面上繪制出來。

 

2.高級功能

相比于語音,視頻的相關處理要簡單一些。

(1)動態調整視頻的清晰度

在Internet上,網絡速度是實時動態變化的,所以,在視頻會議中,為了優先保證語音的通話質量,需要實時調整視頻的相關參數,其最主要的就是調整編碼的清晰度,因為清晰度越高,對帶寬要求越高,反之亦然。

比如,當檢測網絡繁忙時,就自動降低編碼的清晰度,以降低對帶寬的占用。

(2)自動丟棄視頻幀

同樣網絡繁忙時,還有一個方法,就是發送方是主動丟棄要發送的視頻幀,這樣在接收方看來,就是幀頻fps降低了。

 

三.電子白板

在視頻會議中,電子白板的功能是很重要的。通常會議的主持人會在白板上畫圖進行講解,然后其它的人能同步觀看和操作電子白板的內容。

通常的電子白板都支持如下功能:線段、箭頭線、雙箭頭線,水平肘型連接符、垂直肘型連接符,矩形、三角形、橢圓(圓),文本,自由曲線,插入圖片,激光筆。

在實現上,電子白板主要是使用GDI+技術。

對于電子白板的同步,其原理是這樣的:比如,當操作者在白板上繪制一個圖像時,這個操作會被封裝成一個Command對象(命令模式),然后,通過網絡廣播發送給會議中的其它人。當其他人接收到這個Command對象時,就將其轉換成一個白板操作來執行,這樣各個白板的內容就自動同步了。

 

四.會議房間管理

對于那些動態創建視頻會議室,在用完之后就動態將其銷毀的通常的視頻會議應用場景來說,使用動態組來表示會議房間,是非常恰當的。

所謂“動態組”,就是在服務器內存中動態創建的組,不需要序列化存儲到比如數據庫或磁盤中,需要的時候就創建一個,然后加入多個成員進行組內溝通,當不再使用的時候,就直接從內存中銷毀了。

基于Socket技術,我們可以在服務端實現DynamicGroupManager類來對動態組進行管理。

雖然,動態組僅僅存在于內存之中,但是,在項目需要時,我們仍然可以將其某些重要的信息持久化到數據庫中存儲。然后,在服務器重啟時,可以從DB中加載重要的房間信息。

1、高清流暢的音視頻

1080P高清視頻圖像,以及多種音頻技術實現唇音同步;高保真語音的傳輸,讓您身臨其境,如同面對面開會一般

視頻會議

 

2、數據快速共享

無論是office文檔、PDF、應用程序,還是音視頻文件,均可同步展示給所有與會者觀看,先進的矢量技術確保數據文檔共享的清晰度

視頻會議

 

3、多種互動交流方式

多種身份權限,群聊、私聊、舉手發言等多種聊天方式,文字、語音、視頻多種溝通渠道讓互動交流豐富多彩

視頻會議

 

 

4、電話邀請參會

采用PSTN通訊技術,電信級的通話質量,會議組織者一鍵邀請, 接通電話就能參會,隨時隨地開會不缺席

視頻會議

 

 

 

 

奧維互聯通信技術有限公司
聯系方式:010-57416666
關注我們 · 攜手通信未來
Copyright ©2018 - 2020 奧維互聯(北京)通訊技術有限公司
在線客服
微信咨詢
電話咨詢
亚洲AV无码国产丝袜在线观看,真实处破女流血,8848AA 4HC44四虎WWW,体验区试看120秒啪啪免费