• 【WebRTC】简介


    WebRTC

    名称源自网页实时通信英语Web Real-Time Communication)的缩写,是一个支持网页浏览器进行实时语音对话或视频对话的API。它于2011年6月1日开源并在GoogleMozillaOpera支持下被纳入万维网联盟W3C推荐标准[1][2][3]

    架构组件介绍

    (1) Your Web App
    Web开发者开发的程序,Web开发者可以基于集成WebRTC的浏览器提供的web API开发基于视频、音频的实时通信应用。[1] 
    (2)Web API
    面向第三方开发者的WebRTC标准API(Javascript),使开发者能够容易地开发出类似于网络视频聊天的web应用,最新的标准化进程可以查看这里。[2] 
    这些API可分成Network Stream API、 RTCPeerConnection、Peer-to-peer Data API三类,详细的API说明可以看这里。
    Network Stream API
    MediaStream:MediaStream用来表示一个媒体数据流。
    MediaStreamTrack在浏览器中表示一个媒体源。
    RTCPeerConnection
    RTCPeerConnection: 一个RTCPeerConnection对象允许用户在两个浏览器之间直接通讯。
    RTCIceCandidate :表示一个ICE协议的候选者。
    RTCIceServer:表示一个ICE Server。
    Peer-to-peer Data API
    DataChannel:数据通道( DataChannel)接口表示一个在两个节点之间的双向的数据通道 。
    (3)WebRTC Native C++ API
    本地C++ API层,使浏览器厂商容易实现WebRTC标准的Web API,抽象地对数字信号过程进行处理。
    (4)Transport / Session
    传输/会话层
    会话层组件采用了libjingle库的部分组件实现,无须使用xmpp/jingle协议
    a. RTP Stack协议栈
    Real Time Protocol
    b. STUN/ICE
    可以通过STUN和ICE组件来建立不同类型网络间的呼叫连接。
    c. Session Management
    一个抽象的会话层,提供会话建立和管理功能。该层协议留给应用开发者自定义实现。
    (5)VoiceEngine
    音频引擎是包含一系列音频多媒体处理的框架,包括从视频采集卡网络传输端等整个解决方案。
    PS:VoiceEngine是WebRTC极具价值的技术之一,是Google收购GIPS公司后开源的。在VoIP上,技术业界领先,后面的文章会详细了解
    a. iSAC
    Internet Speech Audio Codec
    针对VoIP和音频流的宽带和超宽带音频编解码器,是WebRTC音频引擎的默认的编解码器
    采样频率:16khz,24khz,32khz;(默认为16khz)
    自适应速率为10kbit/s ~ 52kbit/;
    自适应包大小:30~60ms;
    算法延时:frame + 3ms
    b.iLBC
    Internet Low Bitrate Codec
    VoIP音频流的窄带语音编解码器
    采样频率:8khz;
    20ms帧比特率为15.2kbps
    30ms帧比特率为13.33kbps
    标准由IETF RFC3951和RFC3952定义
    c.NetEQ for Voice
    针对音频软件实现的语音信号处理元件
    NetEQ算法:自适应抖动控制算法以及语音包丢失隐藏算法。使其能够快速且高解析度地适应不断变化的网络环境,确保音质优美且缓冲延迟最小。
    是GIPS公司独步天下的技术,能够有效的处理由于网络抖动和语音包丢失时候对语音质量产生的影响。
    PS:NetEQ 也是WebRTC中一个极具价值的技术,对于提高VoIP质量有明显效果,加以AECNRAGC等模块集成使用,效果更好。
    d.Acoustic Echo Canceler (AEC)
    回声消除器是一个基于软件的信号处理元件,能实时的去除mic采集到的回声。
    e.Noise Reduction (NR)
    噪声抑制也是一个基于软件的信号处理元件,用于消除与相关VoIP的某些类型的背景噪声(嘶嘶声,风扇噪音等等… …)
    f.Opus
    Opus编码器 是一个有损声音编码的格式,由互联网工程任务组(IETF)进来开发,适用于网络上的实时声音传输,标准格式为RFC 6716。Opus 格式是一个开放格式,使用上没有任何专利或限制。
    Opus 集成了两种声音编码的技术:以语音编码为导向的 SILK 和低延迟的 CELT。Opus 可以无缝调节高低比特率。在编码器内部它在较低比特率时使用线性预测编码在高比特率时候使用变换编码(在高低比特率交界处也使用两者结合的编码方式)。Opus 具有非常低的算法延迟(默认为22.5 ms),非常适合用于低延迟语音通话的编码,像是网络上的实时声音流、实时同步声音旁白等等,此外 Opus 也可以通过降低编码比特率,达成更低的算法延迟,最低可以到5 ms。相比其他常见的声音压缩格式,像是 MP3、AAC、Ogg Vorbis,延迟都超过100 ms,而 Opus 可以在低延迟下提供和这些声音压缩格式更好的音质压缩率。
    (6)VideoEngine
    WebRTC视频处理引擎
    VideoEngine是包含一系列视频处理的整体框架,从摄像头采集视频到视频信息网络传输再到视频显示整个完整过程的解决方案。
    a. VP8
    视频图像编解码器,是WebRTC视频引擎的默认的编解码器
    VP8适合实时通信应用场景,因为它主要是针对低延时而设计的编解码器
    PS:VPx编解码器是Google收购ON2公司后开源的,VPx现在是WebM项目的一部分,而WebM项目是Google致力于推动的HTML5标准之一
    b. Video Jitter Buffer
    视频抖动缓冲器,可以降低由于视频抖动和视频信息包丢失带来的不良影响。
    c. Image enhancements
    图像质量增强模块
    对网络摄像头采集到的图像进行处理,包括明暗度检测、颜色增强、降噪处理等功能,用来提升视频质量

    视频

    WebRTC的视频部分,包含采集、编解码(I420/VP8)、加密、媒体文件、图像处理、显示、网络传输与流控(RTP/RTCP)等功能。
    视频采集---video_capture
    源代码在webrtcmodulesvideo_capturemain目录下,包含接口和各个平台的源代码。
    在windows平台上,WebRTC采用的是dshow技术,来实现枚举视频的设备信息和视频数据的采集,这意味着可以支持大多数的视频采集设备;对那些需要单独驱动程序的视频采集卡(比如海康高清卡)就无能为力了。
    视频采集支持多种媒体类型,比如I420、YUY2、RGB、UYUY等,并可以进行帧大小和帧率控制。
    视频编解码---video_coding
    源代码在webrtcmodulesvideo_coding目录下。
    WebRTC采用I420/VP8编解码技术。VP8是google收购ON2后的开源实现,并且也用在WebM项目中。VP8能以更少的数据提供更高质量的视频,特别适合视频会议这样的需求。
    视频加密--video_engine_encryption
    视频加密是WebRTC的video_engine一部分,相当于视频应用层面的功能,给点对点的视频双方提供了数据上的安全保证,可以防止在Web上视频数据的泄漏。
    视频加密在发送端和接收端进行加解密视频数据,密钥由视频双方协商,代价是会影响视频数据处理的性能;也可以不使用视频加密功能,这样在性能上会好些。
    视频加密的数据源可能是原始的数据流,也可能是编码后的数据流。估计是编码后的数据流,这样加密代价会小一些,需要进一步研究。
    视频媒体文件--media_file
    源代码在webrtcmodulesmedia_file目录下。
    该功能是可以用本地文件作为视频源,有点类似虚拟摄像头的功能;支持的格式有Avi
    另外,WebRTC还可以录制音视频到本地文件,比较实用的功能。
    视频图像处理--video_processing
    源代码在webrtcmodulesvideo_processing目录下。
    视频图像处理针对每一帧的图像进行处理,包括明暗度检测、颜色增强、降噪处理等功能,用来提升视频质量。
    视频显示--video_render
    源代码在webrtcmodulesvideo_render目录下。
    在windows平台,WebRTC采用direct3d9和directdraw的方式来显示视频,只能这样,必须这样。
    网络传输与流控
    对于网络视频来讲,数据的传输与控制是核心价值。WebRTC采用的是成熟的RTP/RTCP技术。

    音频

    WebRTC的音频部分,包含设备、编解码(iLIBC/iSAC/G722/PCM16/RED/AVT、NetEQ)、加密、声音文件、声音处理、声音输出、音量控制、音视频同步、网络传输与流控(RTP/RTCP)等功能。
    音频设备---audio_device
    源代码在webrtcmodulesaudio_devicemain目录下,包含接口和各个平台的源代码。
    在windows平台上,WebRTC采用的是Windows Core Audio和Windows Wave技术来管理音频设备,还提供了一个混音管理器。
    利用音频设备,可以实现声音输出,音量控制等功能。
    音频编解码---audio_coding
    源代码在webrtcmodulesaudio_coding目录下。
    WebRTC采用iLIBC/iSAC/G722/PCM16/RED/AVT编解码技术。
    WebRTC还提供NetEQ功能---抖动缓冲器及丢包补偿模块,能够提高音质,并把延迟减至最小。
    另外一个核心功能是基于语音会议的混音处理。
    声音加密--voice_engine_encryption
    和视频一样,WebRTC也提供声音加密功能。
    声音文件
    该功能是可以用本地文件作为音频源,支持的格式有Pcm和Wav。
    同样,WebRTC也可以录制音频到本地文件。
    声音处理--audio_processing
    源代码在webrtcmodulesaudio_processing目录下。
    声音处理针对音频数据进行处理,包括回声消除(AEC)、AECM(AEC Mobile)、自动增益(AGC)、降噪(NS)、静音检测(VAD)处理等功能,用来提升声音质量。
    网络传输与流控
    和视频一样,WebRTC采用的是成熟的RTP/RTCP技术。

  • 相关阅读:
    1055 The World's Richest (25 分)
    1048 Find Coins (25 分)散列
    经典多线程问题(三)-子线程与主线程的循环打印
    经典多线程问题(二)-生产者消费者问题
    源码分析 CurrentHashMap 1.8
    源码分析 CurrentHashMap 1.7
    源码分析 HashTable与CurrentHashMap1.7与currentHashMap1.8对比
    源码分析 HashMap 1.8
    源码分析 HashMap 1.7
    Linux复习(常用命令)
  • 原文地址:https://www.cnblogs.com/maxiaodoubao/p/4463017.html
Copyright © 2020-2023  润新知