• android中OpenMax的实现【3】OMX中主要成员


    原文 http://blog.csdn.net/tx3344/article/details/8117908

    通过上文知道了,每个AwesomePlayer 只有一个OMX服务的入口,但是AwesomePlayer不一定就只需要1种解码器。有可能音视频都有,或者有很多种。这个时候这些解码器都需要OMX的服务,也就是OMX那头需要建立不同的解码器的组件来对应着AwesomePlayer中不同的code。OMX中非常重要的2个成员就是 OMXMaster 和 OMXNodeInstance。OMX通过这俩个成员来创建和维护不同的openmax 解码器组件,为AwesomePlayer中不同解码提供服务。让我们看看他们是怎么实现这些工作的。

    1. OMX中 OMXNodeInstance 负责创建并维护不同的实例,这些实例是根据上面需求创建的,以node作为唯一标识。这样播放器中每个OMXCodec在OMX服务端都对应有了自己的OMXNodeInstance实例。

    2.OMXMaster 维护底层软硬件解码库,根据OMXNodeInstance中想要的解码器来创建解码实体组件。

    接下来我们假设视频解码器需要的是AVC,来看看解码器创建的流程。

    (默认走软解码)

    1.准备工作初始化OMXMaster

    OMX构造函数中会进行初始化。

    [cpp] view plaincopy
     
    1. OMXMaster *mMaster;  
    [cpp] view plaincopy
     
    1. OMX::OMX()  
    2.     : mMaster(new OMXMaster),  
    3.       mNodeCounter(0) {  
    4. }  
    [cpp] view plaincopy
     
    1. OMXMaster::OMXMaster()  
    2.     : mVendorLibHandle(NULL) {  
    3.     addVendorPlugin();  
    4.     addPlugin(new SoftOMXPlugin);  
    5. }  
    OMXMaster 负责OMX中编解码器插件管理,软件解码和硬件解码都是使用OMX标准,挂载plugins的方式来进行管理。
    软解通过 addPlugin(new SoftOMXPlugin);会把这些编解码器的名字都放在mPluginByComponentName中。
    android 默认会提供一系列的软件解码器。目前支持这些格式的软编解码。
    [cpp] view plaincopy
     
    1. kComponents[] = {  
    2.     { "OMX.google.aac.decoder", "aacdec", "audio_decoder.aac" },  
    3.     { "OMX.google.aac.encoder", "aacenc", "audio_encoder.aac" },  
    4.     { "OMX.google.amrnb.decoder", "amrdec", "audio_decoder.amrnb" },  
    5.     { "OMX.google.amrnb.encoder", "amrnbenc", "audio_encoder.amrnb" },  
    6.     { "OMX.google.amrwb.decoder", "amrdec", "audio_decoder.amrwb" },  
    7.     { "OMX.google.amrwb.encoder", "amrwbenc", "audio_encoder.amrwb" },  
    8.     { "OMX.google.h264.decoder", "h264dec", "video_decoder.avc" },  
    9.     { "OMX.google.h264.encoder", "h264enc", "video_encoder.avc" },  
    10.     { "OMX.google.g711.alaw.decoder", "g711dec", "audio_decoder.g711alaw" },  
    11.     { "OMX.google.g711.mlaw.decoder", "g711dec", "audio_decoder.g711mlaw" },  
    12.     { "OMX.google.h263.decoder", "mpeg4dec", "video_decoder.h263" },  
    13.     { "OMX.google.h263.encoder", "mpeg4enc", "video_encoder.h263" },  
    14.     { "OMX.google.mpeg4.decoder", "mpeg4dec", "video_decoder.mpeg4" },  
    15.     { "OMX.google.mpeg4.encoder", "mpeg4enc", "video_encoder.mpeg4" },  
    16.     { "OMX.google.mp3.decoder", "mp3dec", "audio_decoder.mp3" },  
    17.     { "OMX.google.vorbis.decoder", "vorbisdec", "audio_decoder.vorbis" },  
    18.     { "OMX.google.vpx.decoder", "vpxdec", "video_decoder.vpx" },  
    19.     { "OMX.google.raw.decoder", "rawdec", "audio_decoder.raw" },  
    20.     { "OMX.google.flac.encoder", "flacenc", "audio_encoder.flac" },  
    21. };  
    硬件编解码是通过 addVendorPlugin();加载libstagefrighthw.so.各个芯片平台可以遵循openmax 标准,生成libstagefrighthw.so的库来提供android应用。
    [cpp] view plaincopy
     
    1. void OMXMaster::addVendorPlugin() {  
    2.     addPlugin("libstagefrighthw.so");  
    3. }  

    然后通过dlopen、dlsym来调用库中的函数。

    这部分准备工作是在AwesomePlayer的构造函数中
    CHECK_EQ(mClient.connect(), (status_t)OK); 已经完成了。

    2.创建mVideoSource

    有了上面的OMX,接下来会在AwesomePlayer::initVideoDecoder中创建mVideoSource 实例,下面代码只保留的主要部分:
    [cpp] view plaincopy
     
    1. status_t AwesomePlayer::initVideoDecoder(uint32_t flags) {  
    2.     ATRACE_CALL();  
    3.     mVideoSource = OMXCodec::Create(  
    4.             mClient.interface(), mVideoTrack->getFormat(),  
    5.             false, // createEncoder  
    6.             mVideoTrack,  
    7.             NULL, flags, USE_SURFACE_ALLOC ? mNativeWindow : NULL);  
    8.     status_t err = mVideoSource->start();  
    9.     return mVideoSource != NULL ? OK : UNKNOWN_ERROR;  
    10. }  
    保留主要部分,去除编码相关
    [cpp] view plaincopy
     
    1. sp<MediaSource> OMXCodec::Create(  
    2.         const sp<IOMX> &omx,  
    3.         const sp<MetaData> &meta, bool createEncoder,  
    4.         const sp<MediaSource> &source,  
    5.         const char *matchComponentName,  
    6.         uint32_t flags,  
    7.         const sp<ANativeWindow> &nativeWindow) {  
    8.     int32_t requiresSecureBuffers;  
    9.       
    10.     const char *mime;  
    11.     bool success = meta->findCString(kKeyMIMEType, &mime);  
    12.     CHECK(success);  
    13.   
    14.     Vector<String8> matchingCodecs;  
    15.     Vector<uint32_t> matchingCodecQuirks;  
    16.     findMatchingCodecs(  
    17.             mime, createEncoder, matchComponentName, flags,  
    18.             &matchingCodecs, &matchingCodecQuirks);  
    19.   
    20.     sp<OMXCodecObserver> observer = new OMXCodecObserver;  
    21.     IOMX::node_id node = 0;  
    22.   
    23.     for (size_t i = 0; i < matchingCodecs.size(); ++i) {  
    24.         const char *componentNameBase = matchingCodecs[i].string();  
    25.         uint32_t quirks = matchingCodecQuirks[i];  
    26.         const char *componentName = componentNameBase;  
    27.   
    28.         AString tmp;  
    29.      
    30.         status_t err = omx->allocateNode(componentName, observer, &node);  
    31.         if (err == OK) {  
    32.             ALOGV("Successfully allocated OMX node '%s'", componentName);  
    33.   
    34.             sp<OMXCodec> codec = new OMXCodec(  
    35.                     omx, node, quirks, flags,  
    36.                     createEncoder, mime, componentName,  
    37.                     source, nativeWindow);  
    38.   
    39.             observer->setCodec(codec);  
    40.   
    41.             err = codec->configureCodec(meta);  
    42.   
    43.             if (err == OK) {  
    44.                 if (!strcmp("OMX.Nvidia.mpeg2v.decode", componentName)) {  
    45.                     codec->mFlags |= kOnlySubmitOneInputBufferAtOneTime;  
    46.                 }  
    47.   
    48.                 return codec;  
    49.             }  
    50.   
    51.             ALOGV("Failed to configure codec '%s'", componentName);  
    52.         }  
    53.     }  
    54.   
    55.     return NULL;  
    56. }  

    1.根据mVideoTrack传进来的视频信息,查找相匹配的解码器。

    [cpp] view plaincopy
     
    1. bool success = meta->findCString(kKeyMIMEType, &mime);  
    2. findMatchingCodecs(  
    3.            mime, createEncoder, matchComponentName, flags,  
    4.            &matchingCodecs, &matchingCodecQuirks);  

    2. 创建OMXCodecObserver 实例,OMXCodecObserver功能后续会详细介绍。创建一个node 并初始化为0.
    [cpp] view plaincopy
     
    1. sp<OMXCodecObserver> observer = new OMXCodecObserver;  
    2.     IOMX::node_id node = 0;  

    3. 通过omx入口 依靠binder 机制调用OMX服务中的allocateNode(),这一步把匹配得到的解码器组件名、OMXCodecObserver实例和初始化为0的node一并传入。
    [cpp] view plaincopy
     
    1. status_t err = omx->allocateNode(componentName, observer, &node);  
    这个allocateNode 就是文章最开始讲的,在OMX那头创建一个和mVideoSource相匹配的解码实例。用node值作为唯一标识。
    让我们来看看真正的omx中allocateNode做了啥?
    [cpp] view plaincopy
     
    1. status_t OMX::allocateNode(  
    2.         const char *name, const sp<IOMXObserver> &observer, node_id *node) {  
    3.     Mutex::Autolock autoLock(mLock);  
    4.   
    5.     *node = 0;  
    6.   
    7.     OMXNodeInstance *instance = new OMXNodeInstance(this, observer);  
    8.   
    9.     OMX_COMPONENTTYPE *handle;  
    10.     OMX_ERRORTYPE err = mMaster->makeComponentInstance(  
    11.             name, &OMXNodeInstance::kCallbacks,  
    12.             instance, &handle);  
    13.   
    14.     if (err != OMX_ErrorNone) {  
    15.         ALOGV("FAILED to allocate omx component '%s'", name);  
    16.   
    17.         instance->onGetHandleFailed();  
    18.   
    19.         return UNKNOWN_ERROR;  
    20.     }  
    21.   
    22.     *node = makeNodeID(instance);  
    23.     mDispatchers.add(*node, new CallbackDispatcher(instance));  
    24.   
    25.     instance->setHandle(*node, handle);  
    26.   
    27.     mLiveNodes.add(observer->asBinder(), instance);  
    28.     observer->asBinder()->linkToDeath(this);  
    29.   
    30.     return OK;  
    31. }  

    创建一个OMXNodeInstance实例。
    通过mMaster->makeComponentInstance创建真正解码器的组件,并通过handle与OMXNodeInstance关联。
    所以说mMaster->makeComponentInstance这里是建立解码器组件的核心。会把mVideoSource需要的解码器name一直传递下去。
    [cpp] view plaincopy
     
    1. OMX_ERRORTYPE OMXMaster::makeComponentInstance(  
    2.         const char *name,  
    3.         const OMX_CALLBACKTYPE *callbacks,  
    4.         OMX_PTR appData,  
    5.         OMX_COMPONENTTYPE **component) {  
    6.     Mutex::Autolock autoLock(mLock);  
    7.   
    8.     *component = NULL;  
    9.   
    10.     ssize_t index = mPluginByComponentName.indexOfKey(String8(name));  
    11.   
    12.     if (index < 0) {  
    13.         return OMX_ErrorInvalidComponentName;  
    14.     }  
    15.   
    16.     OMXPluginBase *plugin = mPluginByComponentName.valueAt(index);  
    17.     OMX_ERRORTYPE err =  
    18.         plugin->makeComponentInstance(name, callbacks, appData, component);  
    19.   
    20.     if (err != OMX_ErrorNone) {  
    21.         return err;  
    22.     }  
    23.   
    24.     mPluginByInstance.add(*component, plugin);  
    25.   
    26.     return err;  
    27. }  

    最开始OMXMaster通过 addPlugin(new SoftOMXPlugin);把支持的软解码放在mPluginByComponentName中,在makeComponentInstance中通过上面传下来的解码器的name值从mPluginByComponentName找到相对应的plugin,然后调用  plugin->makeComponentInstance(name, callbacks, appData, component);
    这里的plugin 值得就是软解SoftOMXPlugin 也就是调用了
    [cpp] view plaincopy
     
    1. OMX_ERRORTYPE SoftOMXPlugin::makeComponentInstance(  
    2.         const char *name,  
    3.         const OMX_CALLBACKTYPE *callbacks,  
    4.         OMX_PTR appData,  
    5.         OMX_COMPONENTTYPE **component) {  
    6.     ALOGV("makeComponentInstance '%s'", name);  
    7.   
    8.     for (size_t i = 0; i < kNumComponents; ++i) {  
    9.         if (strcmp(name, kComponents[i].mName)) {  
    10.             continue;  
    11.         }  
    12.   
    13.         AString libName = "libstagefright_soft_";  
    14.         libName.append(kComponents[i].mLibNameSuffix);  
    15.         libName.append(".so");  
    16.   
    17.         void *libHandle = dlopen(libName.c_str(), RTLD_NOW);  
    18.   
    19.         if (libHandle == NULL) {  
    20.             ALOGE("unable to dlopen %s", libName.c_str());  
    21.   
    22.             return OMX_ErrorComponentNotFound;  
    23.         }  
    24.   
    25.         typedef SoftOMXComponent *(*CreateSoftOMXComponentFunc)(  
    26.                 const char *, const OMX_CALLBACKTYPE *,  
    27.                 OMX_PTR, OMX_COMPONENTTYPE **);  
    28.   
    29.         CreateSoftOMXComponentFunc createSoftOMXComponent =  
    30.             (CreateSoftOMXComponentFunc)dlsym(  
    31.                     libHandle,  
    32.                     "_Z22createSoftOMXComponentPKcPK16OMX_CALLBACKTYPE"  
    33.                     "PvPP17OMX_COMPONENTTYPE");  
    34.   
    35.         if (createSoftOMXComponent == NULL) {  
    36.             dlclose(libHandle);  
    37.             libHandle = NULL;  
    38.   
    39.             return OMX_ErrorComponentNotFound;  
    40.         }  
    41.   
    42.         sp<SoftOMXComponent> codec =  
    43.             (*createSoftOMXComponent)(name, callbacks, appData, component);  
    44.   
    45.         if (codec == NULL) {  
    46.             dlclose(libHandle);  
    47.             libHandle = NULL;  
    48.   
    49.             return OMX_ErrorInsufficientResources;  
    50.         }  
    51.   
    52.         OMX_ERRORTYPE err = codec->initCheck();  
    53.         if (err != OMX_ErrorNone) {  
    54.             dlclose(libHandle);  
    55.             libHandle = NULL;  
    56.   
    57.             return err;  
    58.         }  
    59.   
    60.         codec->incStrong(this);  
    61.         codec->setLibHandle(libHandle);  
    62.   
    63.         return OMX_ErrorNone;  
    64.     }  
    65.   
    66.     return OMX_ErrorInvalidComponentName;  
    67. }  
    通过上面传下来的解码器的name,找到对应库的名字。假如是264的话,要加载的库就是 libstagefright_soft_h264dec.so,也就是对应上层264解码的话,omx解码组件会加载对应的 libstagefright_soft_h264dec.so库。相对应的软解代码在 Android4.1.1frameworksavmedialibstagefrightcodecson2h264dec 中。
    加载完264解码库后 通过dlopen、dlsym来调用库中函数。
    通过调用 SoftAVC 中的 createSoftOMXComponent 来创建真正264解码器实例SoftOMXComponent。以后真正视频解码的工作都是通过avc 这个SoftAVC实例完成的
    [cpp] view plaincopy
     
    1. android::SoftOMXComponent *createSoftOMXComponent(  
    2.         const char *name, const OMX_CALLBACKTYPE *callbacks,  
    3.         OMX_PTR appData, OMX_COMPONENTTYPE **component) {  
    4.     return new android::SoftAVC(name, callbacks, appData, component);  
    5. }  

    经过这一路下来,终于完成了解码器的创建工作。简单总结一下。
    1.AwesomePlayer中通过initVideoDecoder 来创建video解码器mVideoSource
    2.mVideoSource 中通过上部分demux后的视频流 mVideoTrack来获得解码器的类型,通过类型调用omx->allocateNode 创建omx node实例与自己对应。以后都是通过node实例来操作解码器。
    3.在 omx->allocateNode中 通过mMaster->makeComponentInstance 来创建真正对应的解码器组件。这个解码器组件是完成之后解码实际工作的。
    4.在创建mMaster->makeComponentInstance过程中,也是通过上面mVideoTrack 过来的解码器类型名,找到相对应的解码器的库,然后实例化。
  • 相关阅读:
    介绍axios和promise
    vue 中的路由为什么 采用 hash 路由模式,而不是href超链接模式(Hypertext,Reference)?
    vue中什么是模块 什么是组件?
    Android前沿技术
    移动端不利用HTML5和echarts开发一样可以实现大数据展示及炫酷统计系统(产品技术综合)
    腾讯X5WebView集成及在移动端中使用
    ApowerMirror投屏(手机投屏电脑、电脑投屏到手机)
    Android架构篇--MVP模式的介绍篇
    MVC,MVP 和 MVVM 的图示
    2018下半年Android面试历程
  • 原文地址:https://www.cnblogs.com/nsnow/p/3808055.html
Copyright © 2020-2023  润新知