• Android 用MediaCodec实现视频硬解码


    本 文向你讲述如何用android标准的API (MediaCodec)实现视频的硬件编解码。例程将从摄像头采集视频开始,然后进行H264编码,再解码,然后显示。

    1、从摄像头采集视频

          可以通过摄像头Preview的回调,来获取视频数据。

          首先创建摄像头,并设置参数:

     

    1.                      cam = Camera.open();  
    2. cam.setPreviewDisplay(holder);                    
    3. Camera.Parameters parameters = cam.getParameters();  
    4. parameters.setFlashMode("off"); // 无闪光灯  
    5. parameters.setWhiteBalance(Camera.Parameters.WHITE_BALANCE_AUTO);  
    6. parameters.setSceneMode(Camera.Parameters.SCENE_MODE_AUTO);  
    7. parameters.setFocusMode(Camera.Parameters.FOCUS_MODE_AUTO);   
    8. parameters.setPreviewFormat(ImageFormat.YV12);       
    9. parameters.setPictureSize(camWidth, camHeight);  
    10. parameters.setPreviewSize(camWidth, camHeight);  
    11.     //这两个属性 如果这两个属性设置的和真实手机的不一样时,就会报错  
    12. cam.setParameters(parameters);            

    宽度和高度必须是摄像头支持的尺寸,否则会报错。要获得所有支持的尺寸,可用getSupportedPreviewSizes,这里不再累述。据说所有的参数必须设全,漏掉一个就可能报错,不过只是据说,我只设了几个属性也没出错。    然后就开始Preview了:

    1. buf = new byte[camWidth * camHeight * 3 / 2];  
    2. cam.addCallbackBuffer(buf);  
    3. cam.setPreviewCallbackWithBuffer(this);           
    4. cam.startPreview();   

      setPreviewCallbackWithBuffer是很有必要的,不然每次回调系统都重新分配缓冲区,效率会很低。

        在onPreviewFrame中就可以获得原始的图片了(当然,this 肯定要 implements PreviewCallback了)。这里我们是把它传给编码器:

    1. public void onPreviewFrame(byte[] data, Camera camera) {  
    2.     if (frameListener != null) {  
    3.         frameListener.onFrame(data, 0, data.length, 0);  
    4.     }  
    5.     cam.addCallbackBuffer(buf);  
    6. }  

    2、编码

        首先要初始化编码器:

    1.       mediaCodec = MediaCodec.createEncoderByType("Video/AVC");  
    2. MediaFormat mediaFormat = MediaFormat.createVideoFormat(type, width, height);  
    3. mediaFormat.setInteger(MediaFormat.KEY_BIT_RATE, 125000);  
    4. mediaFormat.setInteger(MediaFormat.KEY_FRAME_RATE, 15);  
    5. mediaFormat.setInteger(MediaFormat.KEY_COLOR_FORMAT, MediaCodecInfo.CodecCapabilities.COLOR_FormatYUV420Planar);  
    6. mediaFormat.setInteger(MediaFormat.KEY_I_FRAME_INTERVAL, 5);  
    7. mediaCodec.configure(mediaFormat, nullnull, MediaCodec.CONFIGURE_FLAG_ENCODE);  
    8. mediaCodec.start();  


        然后就是给他喂数据了,这里的数据是来自摄像头的:

    1. public void onFrame(byte[] buf, int offset, int length, int flag) {  
    2.    ByteBuffer[] inputBuffers = mediaCodec.getInputBuffers();  
    3.    ByteBuffer[] outputBuffers = mediaCodec.getOutputBuffers();  
    4.    int inputBufferIndex = mediaCodec.dequeueInputBuffer(-1);  
    5.    if (inputBufferIndex >= 0)  
    6.        ByteBuffer inputBuffer = inputBuffers[inputBufferIndex];  
    7.        inputBuffer.clear();  
    8.        inputBuffer.put(buf, offset, length);  
    9.        mediaCodec.queueInputBuffer(inputBufferIndex, 0, length, 00);  
    10.    }  
    11.    MediaCodec.BufferInfo bufferInfo = new MediaCodec.BufferInfo();  
    12.    int outputBufferIndex = mediaCodec.dequeueOutputBuffer(bufferInfo,0);  
    13.    while (outputBufferIndex >= 0) {  
    14.        ByteBuffer outputBuffer = outputBuffers[outputBufferIndex];  
    15.        if (frameListener != null)  
    16.            frameListener.onFrame(outputBuffer, 0, length, flag);  
    17.        mediaCodec.releaseOutputBuffer(outputBufferIndex, false);  
    18.        outputBufferIndex = mediaCodec.dequeueOutputBuffer(bufferInfo, 0);  
    19.    }   

    先把来自摄像头的数据喂给它,然后从它里面取压缩好的数据喂给解码器。

    3、解码和显示

         首先初始化解码器:

    1. mediaCodec = MediaCodec.createDecoderByType("Video/AVC");  
    2. MediaFormat mediaFormat = MediaFormat.createVideoFormat(mime, width, height);  
    3. mediaCodec.configure(mediaFormat, surface, null0);  
    4. mediaCodec.start();  

                 这里通过给解码器一个surface,解码器就能直接显示画面。

         然后就是处理数据了:

    1. public void onFrame(byte[] buf, int offset, int length, int flag) {  
    2.         ByteBuffer[] inputBuffers = mediaCodec.getInputBuffers();  
    3.             int inputBufferIndex = mediaCodec.dequeueInputBuffer(-1);  
    4.         if (inputBufferIndex >= 0) {  
    5.             ByteBuffer inputBuffer = inputBuffers[inputBufferIndex];  
    6.             inputBuffer.clear();  
    7.             inputBuffer.put(buf, offset, length);  
    8.             mediaCodec.queueInputBuffer(inputBufferIndex, 0, length, mCount * 1000000 / FRAME_RATE, 0);  
    9.                    mCount++;  
    10.         }  
    11.   
    12.        MediaCodec.BufferInfo bufferInfo = new MediaCodec.BufferInfo();  
    13.        int outputBufferIndex = mediaCodec.dequeueOutputBuffer(bufferInfo,0);  
    14.        while (outputBufferIndex >= 0) {  
    15.            mediaCodec.releaseOutputBuffer(outputBufferIndex, true);  
    16.            outputBufferIndex = mediaCodec.dequeueOutputBuffer(bufferInfo, 0);  
    17.        }  
    18. }  

            queueInputBuffer第三个参数是时间戳,其实怎么写都无所谓,只要是按时间线性增加的就可以,这里就随便弄一个了。后面一段的代码就是把缓 冲区给释放掉,因为我们直接让解码器显示,就不需要解码出来的数据了,但是必须要这么释放一下,否则解码器始终给你留着,内存就该不够用了。

     

    好了,到现在,基本上就可以了。如果你运气够好,现在就能看到视频了,比如在我的三星手机上这样就可以了。但是,我试过几个其他平台,多数都不可以,总是有各种各样的问题,如果要开发一个不依赖平台的应用,还有很多的问题要解决。说说我遇到的一些情况:

     

    1、视频尺寸

         一般都能支持176X144/352X288这种尺寸,但是大一些的,640X480就有很多机子不行了,至于为什么,我也不知道。当然,这个尺寸必须和摄像头预览的尺寸一致,预览的尺寸可以枚举一下。

    2、颜色空间

        根据ANdroid SDK文档,确保所有硬件平台都支持的颜色,在摄像头预览输出是YUV12,在编码器输入是COLOR_FormatYUV420Planar,也就是前面代码中设置的那样。       不过,文档终究是文档,否则安卓就不是安卓。

        在有的平台上,这两个颜色格式是一样的,摄像头的输出可以直接作为编码器的输入。也有的平台,两个是不一样的,前者就是YUV12,后者等于I420,需要把前者的UV分量颠倒一下。下面的代码效率不高,可供参考。

    1. byte[] i420bytes = null;  
    2. private byte[] swapYV12toI420(byte[] yv12bytes, int width, int height) {  
    3.     if (i420bytes == null)  
    4.         i420bytes = new byte[yv12bytes.length];  
    5.     for (int i = 0; i < width*height; i++)  
    6.         i420bytes[i] = yv12bytes[i];  
    7.     for (int i = width*height; i < width*height + (width/2*height/2); i++)  
    8.         i420bytes[i] = yv12bytes[i + (width/2*height/2)];  
    9.     for (int i = width*height + (width/2*height/2); i < width*height + 2*(width/2*height/2); i++)  
    10.         i420bytes[i] = yv12bytes[i - (width/2*height/2)];  
    11.     return i420bytes;  
    12. }  

          这里的困难是,我不知道怎样去判断是否需要这个转换。据说,Android 4.3不用再从摄像头的PreView里面取图像,避开了这个问题。这里有个例子,虽然我没读,但看起来挺厉害的样子,应该不会有错吧(觉厉应然)。http://bigflake.com/mediacodec/CameraToMpegTest.java.txt

     

    3、输入输出缓冲区的格式

        SDK里并没有规定格式,但是,这种情况H264的格式基本上就是附录B。但是,也有比较有特色的,它就是不带那个StartCode,就是那个0x000001,搞得把他编码器编出来的东西送给他的解码器,他自己都解不出来。还好,我们可以自己加。

    1. ByteBuffer outputBuffer = outputBuffers[outputBufferIndex];  
    2. byte[] outData = new byte[bufferInfo.size + 3];  
    3.        outputBuffer.get(outData, 3, bufferInfo.size);  
    4. if (frameListener != null) {  
    5.     if ((outData[3]==0 && outData[4]==0 && outData[5]==1)  
    6.     || (outData[3]==0 && outData[4]==0 && outData[5]==0 && outData[6]==1))  
    7.     {  
    8.         frameListener.onFrame(outData, 3, outData.length-3, bufferInfo.flags);  
    9.     }  
    10.     else  
    11.     {  
    12.      outData[0] = 0;  
    13.      outData[1] = 0;  
    14.      outData[2] = 1;  
    15.         frameListener.onFrame(outData, 0, outData.length, bufferInfo.flags);  
    16.     }  
    17. }  


    4、有时候会死在dequeueInputBuffer(-1)上面

    根据SDK文档,dequeueInputBuffer 的参数表示等待的时间(毫秒),-1表示一直等,0表示不等。按常理传-1就行,但实际上在很多机子上会挂掉,没办法,还是传0吧,丢帧总比挂掉好。当然也可以传一个具体的毫秒数,不过没什么大意思吧。

     
    或许有用的资源:http://bigflake.com/mediacodec/
    http://developer.android.com/reference/android/media/MediaCodec.html
  • 相关阅读:
    反射泛型方法
    Redis令牌桶限流
    laravel中间件的使用
    Laravel-权限系统
    Laravel 即时应用的一种实现方式
    laravel实现多模块
    laravel5+ElasticSearch+go-mysql-elasticsearch MySQL数据实时导入(mac)
    swoole视频直播
    开发SSO单点登录需要注意的问题
    进程、线程、协程三者之间的联系与区别
  • 原文地址:https://www.cnblogs.com/shakin/p/4098949.html
Copyright © 2020-2023  润新知