当前位置: 首页 > news >正文

Android codec2 编码 -- 基于录屏

文章目录

      • 前言
      • android 原生的应用srcreenrecord
      • MediaCodec获取编码数据流程

前言

本篇文章主要是理解Android 12编码的流程, 首先从上层的应用出发理解mediacodec提供给外部API的用法。然后针对每个api 分析编码各个流程中框架中的流程。

熟悉一个框架的流程 可以从简单到复杂、从整体到局部去展开。 同时在理解过中会产生各种各样的问题,各种问题的解决就是一个知识经验的形成过程。

android 原生的应用srcreenrecord

  • 应用和代码路径

代码路径:frameworks\av\cmds\screenrecord\screenrecord.cpp

编译生成的是screenrecord在system/bin目录,默认在android系统都会携带。

使用命令:这个命令会将屏幕的操作录制到/sdcard/test.mp4下。

 screenrecord /sdcard/test.mp4
  • 应用流程

    • 首先在编码器mediacodec调用createInputSurface创建一个inputSurface。这个inputSurface传递出来到显示 作为虚拟显示的bufferProducer。
    • 在surfaceFlinger 端,inputSurface作为prepareVirtualDisplay的参数, 使得surfaceFlinger从这个surface中获取bufffer, 然后将屏幕合成后的数据写到这个buffer里面。
    • 在编码端将这个buffer 作为编码的输入进行处理。mediacodec编码完成之后调用dequeueOutputBuffer 将编码之后的数据取出来写到文件,然后调用releaseOutputBuffer将这个buffer释放回去。
    • 在编码器这边,surfaceflinger 是生产端,mediacodec是消费端。其他有关屏幕录制或者surface 直接到编码的流程大概都是这样的。
    创建编码器,创建输入的surface,配置format,启动编码器
    sp<AMessage> format = new AMessage;
    format->setInt32(KEY_WIDTH, gVideoWidth);
    format->setInt32(KEY_HEIGHT, gVideoHeight);
    .....
    codec = MediaCodec::CreateByType(looper, kMimeTypeAvc, true);    
    err = codec->configure(format, NULL, NULL,MediaCodec::CONFIGURE_FLAG_ENCODE);
    err = codec->createInputSurface(&bufferProducer);
    err = codec->start();err = prepareVirtualDisplay(displayState, bufferProducer, &dpy);从编码器中取出buffer,后续就是将这个buffer写入到mp4文件中。
    Vector<sp<MediaCodecBuffer> > buffers;
    err = encoder->getOutputBuffers(&buffers);
    err = encoder->dequeueOutputBuffer(&bufIndex, &offset, &size, &ptsUsec,
    &flags, kTimeout);
    

上述流程的疑问?

  1. mediacodec是如何将surface的数据取出来 然后进行编码的?

    相对应于解码的流程,会有一个queueInbufferbuffer 将未解码的数据喂给mediacodec,而在编码这边编码器只有一个从codec创建出来的Surface,这个surface会配置到surfaceFlinger那边的虚拟显示中。

MediaCodec获取编码数据流程

代码路径:
frameworks\av\media\libstagefright\MediaCodec.cpp
frameworks\av\media\codec2\sfplugin\CCodec.cpp
frameworks\av\media\libstagefright\bqhelper\GraphicBufferSource.cpp
frameworks\av\media\codec2\sfplugin\C2OMXNode.cpp

简单的理解可以分为这两个路径:

  1. 生产者: surfaceFlinger从MediaCodec创建的InputSurface中申请buffer,然后将各个图层的数据合成到这块buffer中,合成后 通知到消费者 也就是componet这一端。
  2. 消费者:componet收到生产者surfaceFlinger的通知后,将这个合成的buffer给到硬解或者软解编码器进行编码。编码后的数据,外部应用通过dequeueOutputBuffer可以获取到。

这里我们关注消费者这一端的实现。

  • mediacodec creatInputSurface

    • 调用流程
      遵循 mediacodec—>ccodec这样的流程,ccodec调用的是codec2client。client 通过HIDL调用到componentstore端(在IComponetSotore.hal中有定义了这样的接口C2PlatformComponentStore–>componentStore–>IComponetSotore 具体用vendor定义的还是default google实现的 是在之前service端创建服务的时候决定的)。

    • createInputSurface

      创建了GraphicBufferSource, 在这个类的初始化中调用BufferQueue::createBufferQueue
      创建Producer和Consumer,通过将GraphicBufferSource监听注册到mConsumer中,
      这里就是onFrameAvailable注册的地方。Producer和GraphicBufferSource会封装到InputSurface 返回到codec2client。

    • GraphicBufferSourceWrapper的connect
      创建好之后的InputSurface会强制转换为GraphicBufferSourceWrapper,然后会调用这个类的connect。connect中是创建了C2OMXNode,传递的参数是之前MediaCodec::CreateByType
      创建的componet。同时通过调用GraphicBufferSource::configure,将这个C2OMXNode配置到GraphicBufferSource的mComponent。

    CCodec::createInputSurface()int32_t width = 0;(void)outputFormat->findInt32("width", &width);int32_t height = 0;(void)outputFormat->findInt32("height", &height);err = setupInputSurface(std::make_shared<GraphicBufferSourceWrapper>(gbs, width, height, usage));bufferProducer = persistentSurface->getBufferProducer();CCodec::setupInputSurface:status_t err = mChannel->setInputSurface(surface);CCodecBufferChannel::setInputSurface:mInputSurface->connect(mComponent);class GraphicBufferSourceWrapper : public InputSurfaceWrapper {
    connect(const std::shared_ptr<Codec2Client::Component> &comp) {mNode = new C2OMXNode(comp);mOmxNode = new hardware::media::omx::V1_0::utils::TWOmxNode(mNode);mNode->setFrameSize(mWidth, mHeight);// Usage is queried during configure(), so setting it beforehand.OMX_U32 usage = mConfig.mUsage & 0xFFFFFFFF;(void)mNode->setParameter((OMX_INDEXTYPE)OMX_IndexParamConsumerUsageBits,&usage, sizeof(usage));mSource->configure(mOmxNode, static_cast<hardware::graphics::common::V1_0::Dataspace>(mDataSpace));return OK;
    }
    }status_t GraphicBufferSource::configure(const sp<ComponentWrapper>& component,int32_t dataSpace,int32_t bufferCount,uint32_t frameWidth,uint32_t frameHeight,uint32_t consumerUsage)
    {mComponent = component;
    }
    
  • onFrameAvailable
    • 通过之前在GraphicBufferSource注册onFrameAvailable到producer中lister,当合成后又buffer 可用的时候,会回调到GraphicBufferSource的onFrameAvailable。
    • onFrameAvailable经过一系列的处理 会调用到mComponent->submitBuffer,这个调用C2OMXNode->emptyBuffer。
      c2OMXNode这边将这块omxBuf 封装成c2Buffer,然后queue到c2OMXNode 的队列中去。C2OMXNode有专门的mQueueThread来把队列中c2works queue到Codec2Client中。
    • 在client中的Codec2Client::Component::queue()在调用 mComponent->queue_nb(&c2works)。
      mComponet 是simpleC2Componet, 在其中的queue_nb会把上面传递的items 放到componet的mWorkQueue中,然后发送kWhatProcess消息, 收到消息后调用processQueue。然后调用各个组件的process。
// BufferQueue::ConsumerListener callback
void GraphicBufferSource::onFrameAvailable(const BufferItem& item __unused) onBufferAcquired_l(buffer);void GraphicBufferSource::onBufferAcquired_l(const VideoBuffer &buffer)fillCodecBuffer_l();bool GraphicBufferSource::fillCodecBuffer_l() {err = submitBuffer_l(item); status_t GraphicBufferSource::submitBuffer_l(const VideoBuffer &item)status_t err = mComponent->submitBuffer(codecBufferId, graphicBuffer, codecTimeUs, buffer->getAcquireFenceFd());class OmxComponentWrapper : public ComponentWrapper {status_t submitBuffer(int32_t bufferId, const sp<GraphicBuffer> &buffer,int64_t timestamp, int fenceFd) override {ALOGD("submitBuffer bufferId:%d", (int)bufferId);return mOmxNode->emptyBuffer(bufferId, OMX_BUFFERFLAG_ENDOFFRAME, buffer, timestamp, fenceFd);}status_t C2OMXNode::emptyBuffer(buffer_id buffer, const OMXBuffer &omxBuf,OMX_U32 flags, OMX_TICKS timestamp, int fenceFd) {mQueueThread->queue(comp, fenceFd, std::move(work), std::move(fd0), std::move(fd1));}class C2OMXNode::QueueThread : public Thread {protected:bool threadLoop() override {comp->queue(&items);}

总结: Android 录屏编码这一部分 调用的路径非常长,主要连接surface和componet的是GraphicBufferSource类。在这里监听surface buffer的生成,并将其传递给编码的componet。

请添加图片描述

http://www.lryc.cn/news/165670.html

相关文章:

  • 【Java基础篇 | 面向对象】--- 聊聊什么是多态(上篇)
  • 如何使用 Node.js和Express搭建服务器?
  • 帮公司面试了个要25K的测试,我问了他这些问题...
  • Matlab之创建空数组的多种方法汇总
  • HTML实现移动端布局与页面自适应
  • CSS3技巧36:backdrop-filter 背景滤镜
  • 【计算机网络】传输层协议——TCP(上)
  • GO语言网络编程(并发编程)Goroutine池
  • C++面试/笔试准备,资料汇总
  • 【Unity3D】UI Toolkit数据动态绑定
  • 微信小程序如何在切换页面后原页面状态不变
  • 蓝桥杯官网填空题(生成树)
  • Qt Designer UI设计布局小结
  • linux设备树节点添加新的复位属性之后设备驱动加载异常问题分析
  • 连nil切片和空切片一不一样都不清楚?那BAT面试官只好让你回去等通知了。
  • 前端构建工具 webpack 笔记
  • .Net MVC 使用Areas后存在相同Controller时报错的解决办法; 从上下文获取请求的Area名及Controller名
  • docker-compose部署etcd集群
  • 微信怎么定时发圈?
  • 记录造数据测试接口
  • 数据结构基础7:二叉树【链式结构】实现和递归思想。
  • [.NET 6] IHostedService 的呼叫等等我的爱——等待Web应用准备就绪
  • 基于jeecg-boot的flowable流程自定义业务退回撤回或驳回到发起人后的再次流程提交
  • python如何学习
  • Centos7更新php7.2版本升级
  • 操作系统学习笔记---计算机系统概述
  • uniapp H5 navigateBack无法返回上一层级
  • Android性能优化之应用瘦身(APK瘦身)
  • C语言数组和指针笔试题(二)(一定要看)
  • uniapp——实现在线选座功能——技能提升