• Chromium Graphics: GPUclient的原理和实现分析之间的同步机制-Part II


    摘要:Part I探析GPUclient之间的同步问题,以及Chromium的GL扩展同步点机制的基本原理。本文将源码的角度剖析同步点(SyncPoint)机制的实现方式。

    同步点机制的实现主要涉及到是怎样跨进程实现两个GL扩展接口InsertSyncPointCHROMIUM和WaitSyncPointCHROMIUM,以及GPU服务端的同步点等待。

    GPUclient

    GPUclient将全部的GL命令都封装在GLES2Implementation中。GLES2Implementation将client的GL命令序列化后存放在命令行缓冲区中,client的每一个WebGraphicsContext3DImpl都会创建一个GLES2Implementation实例。调用GLES2Implementation的方法看上去就像直接调用OpenGL方法直接操作GPU设备一样。GPUclient与GPU进程之间的交互封装在GpuCommandBufferProxy类中。这个代理类会向GPU服务端的GpuCommandBufferStub发送IPC消息请求运行某些GPU操作。如发送GpuCommandBufferMsg_AsyncFlush消息提交(Flush)命令缓冲区。

    同步点机制首先须要在GLES2Implementation类中实现这两个GL扩展接口,以便同意client代码使用同步点机制。GLES2Implementation::InsertSyncPointCHROMIUM通过GpuCommandBufferProxy向GPU服务端发送一条同步IPC消息GpuCommandBufferMsg_InsertSyncPoint请求注冊一个新的同步点,在调用CommandBufferProxyImpl::InsertSyncPoint之前,GLES2Implementation会将client的全部GL命令通过Flush命令行缓冲区都提交到服务端,例如以下代码:

    GLuint GLES2Implementation::InsertSyncPointCHROMIUM() {
      GPU_CLIENT_SINGLE_THREAD_CHECK();
      GPU_CLIENT_LOG("[" << GetLogPrefix() << "] glInsertSyncPointCHROMIUM");
      helper_->CommandBufferHelper::Flush();
      return gpu_control_->InsertSyncPoint();
    }
    ...
    uint32 CommandBufferProxyImpl::InsertSyncPoint() {
      if (last_state_.error != gpu::error::kNoError)
        return 0;
    
      uint32 sync_point = 0;
      Send(new GpuCommandBufferMsg_InsertSyncPoint(route_id_, true, &sync_point));
      return sync_point;
    }

    同步IPC消息GpuCommandBufferMsg_InsertSyncPoint的參数sync_point返回由GPU服务端统一分配的唯一标识。

    而与InsertSyncPointCHROMIUM不同的是。WaitSyncPointCHROMIUM不是通过发送专门的IPC消息给GPU服务端,而是作为一条GL扩展命令加入到CommandBuffer中,GPU服务端处理这条GL命令时再决定怎样运行暂停兴许命令的提交,等待同步点的完毕。

    GPU服务端

    GPU服务端既能够是一个独立的进程,也能够是一个Browser进程的一个线程,不论是进程还是线程,全部GPU操作了都是在同一个线程上运行,或称为GPU线程。

    GPU线程除了向实际的GPU设备提交GL命令之外,还须要管理多个GpuChannel实例,调度它们处理消息的次序。

    GpuChannel的消息处理方式

    每一个GpuChannel都相应了一个GPUclient(Renderer进程或者Browser进程),GpuChannel::OnMessageReceived收到来自client的IPC消息后。并不会马上对消息进行处理,而是其加入到一个延迟消息队列中,然后再向主消息循环加入一个任务GpuChannel::HandleMessage来处理全部消息队列中全部未处理的消息。

    这样的延迟处理IPC消息的方式有两个优点:

    • 便于依据IPC消息序列的特定模式优化对多上下文的消息处理。比如,当未处理的消息队列中出现GpuCommandBufferMessage_SetLatencyInfo->GpuCommandBufferMsg_AsyncFlush -> GpuCommmandBufferMsg_Echo消息序列时,说明client发起了一个SwapBuffer操作,要求将backbuffer的内容显示到窗体上。那么此时,能够提前批量处理这三条消息。而不是等待主消息循环的调度。从而有利于提前处理SwapBuffer操作提前显示内容。

    • 便于控制多个GpuChannel之间GL命令运行的同步方式,也就是本文所讨论的同步点机制。

      IPC消息被缓存后。能够等待遍历消息时决定是马上处理,还是让出机会给其它的GpuChannel

    HandleMessage任务中会逐一遍历全部未经处理的IPC消息,依据IPC消息的路由信息,将其交给相应的GpuCommandBufferStub来处理。见例如以下代码:

    void GpuChannel::HandleMessage() {
      handle_messages_scheduled_ = false;
      if (deferred_messages_.empty())
        return;
    
      bool should_fast_track_ack = false;
      // 依据IPC消息的路由信息查找相应的GpuCommandBufferStub实例
      IPC::Message* m = deferred_messages_.front();
      GpuCommandBufferStub* stub = stubs_.Lookup(m->routing_id());
    
      do {
        if (stub) {
          if (!stub->IsScheduled()) // 当GpuCommandBufferStub处于“不可调度”状态时。直接返回
            return;
          if (stub->IsPreempted()) {
            OnScheduled();
            return;
          }
        }
    
        // 从消息队列中弹出队头消息并交由GpuCommandBufferStub处理
        scoped_ptr<IPC::Message> message(m);
        deferred_messages_.pop_front();
        bool message_processed = true;
    
        currently_processing_message_ = message.get();
        bool result;
        if (message->routing_id() == MSG_ROUTING_CONTROL)
          result = OnControlMessageReceived(*message);
        else
          result = router_.RouteMessage(*message);
        currently_processing_message_ = NULL;
    
        if (!result) {
          // Respond to sync messages even if router failed to route.
          if (message->is_sync()) {
            IPC::Message* reply = IPC::SyncMessage::GenerateReply(&*message);
            reply->set_reply_error();
            Send(reply);
          }
        } else {
          // If the command buffer becomes unscheduled as a result of handling the
          // message but still has more commands to process, synthesize an IPC
          // message to flush that command buffer.
          if (stub) {
            if (stub->HasUnprocessedCommands()) {
              // 手工加入一条新的IPC消息给GpuCommandBufferStub,使其仍然有机会去处理那些pending的命令
              deferred_messages_.push_front(new GpuCommandBufferMsg_Rescheduled(
                  stub->route_id()));
              message_processed = false;
            }
          }
        }
        if (message_processed)
          MessageProcessed();
        
        // 此处省略一部分无关代码
    
      } while (should_fast_track_ack);
    
      // 假设消息队列不为空,调用OnScheduled继续往主消息循环中加入HandleMessage任务
      if (!deferred_messages_.empty()) {
        OnScheduled();
      }
    }

    GpuCommandBufferStub类

    GpuCommandBufferStub是GPU进程端一个很重要的类。它封装了大部分在GPU服务端用来运行GL命令的功能,包括上下文的创建和初始化,响应client的GPU操作请求。调度运行分析和反序列化命令行缓冲区中的GL命令等工作。 GPUclient请求创建一个新的3D上下文时,实际上是请求一个新的GpuCommandBufferStub实例,因此,对于包括硬件加速canvas的Renderer进程。其相应的GpuChannel会管理多个GpuCommandBufferStub实例,以及依据IPC消息头部信息将IPC消息派发给相应的GpuCommandBufferStub实例上。

    同步点的插入和服务端的等待

    为了对IO线程上收到的IPC消息进行预处理,每一个GpuChannel都会安装一个执行在IO线程上的消息过滤器,每条来自GPUclient的IPC消息首先要经由消息过滤器的预处理。再转发给GpuChannel做进一步处理。

    当GPU服务端收到GpuCommandBufferMsg_InsertSyncPoint消息后。IO线程上的消息过滤器GpuChannelMessageFilter分两步处理:

    1. 在IO线程调用线程安全的SyncPointManager::GenerateSyncPoint生成同步点的唯一标识,并马上发送给GPUclient;
    2. 向GPU服务端的主消息循环队列加入一个新的任务InsertSyncPointOnMainThread,即在主线程(而非IO线程)上向GpuChannel加入一个同步点;

    static void InsertSyncPointOnMainThread(
          base::WeakPtr<GpuChannel> gpu_channel,
          scoped_refptr<SyncPointManager> manager,
          int32 routing_id,
          bool retire,
          uint32 sync_point) {
        // This function must ensure that the sync point will be retired. Normally
        // we'll find the stub based on the routing ID, and associate the sync point
        // with it, but if that fails for any reason (channel or stub already
        // deleted, invalid routing id), we need to retire the sync point
        // immediately.
        if (gpu_channel) {
          GpuCommandBufferStub* stub = gpu_channel->LookupCommandBuffer(routing_id);
          if (stub) {
            stub->AddSyncPoint(sync_point);
            if (retire) {
              GpuCommandBufferMsg_RetireSyncPoint message(routing_id, sync_point);
              gpu_channel->OnMessageReceived(message);
            }
            return;
          } else {
            gpu_channel->MessageProcessed();
          }
        }
        manager->RetireSyncPoint(sync_point);
      }

    InsertSyncPointOnMainThread除了调用GpuCommandBufferStub的AddSyncPoint方法向当前上下文加入同步点之外。还会显式调用OnMessageReceived向当前GpuChannel发送一条GpuCommandBufferMsg_RetireSyncPoint消息(稍后再介绍这条消息的用途),这条消息将会加入到GpuChannel的消息队列队尾,那么对于同一时候处理多个GpuChannel的主线程来说,可能会发生下面两种情况(这里如果GpuChannelA调用AddSyncPoint了):

    情况I: GpuChannel  A在主线程中得到充分的调度机会,也就是说全部未处理的IPC消息都被处理了,包含client在请求插入同步点时发送的GpuCommandBufferMessage_AsyncFlush消息,以及GPU进程主线程上加入同步点之后手工创建的GpuCommandBufferMsg_RetireSyncPoint消息。一旦队尾消息GpuCommandBufferMsg_RetireSyncPoint都得到处理。这就表明,同步点之前的全部GL命令此时都已经提交给GPU驱动了,是时候让这个同步点“退休”了,也就是上述文档中提到的,同步点收到信号将自己主动被删除。此时假设其它GpuChannel试图调用WaitSyncPointCHROMIUM,实际上这是一个空操作但也不会报错。

    情况II: GpuChannel A在主线程中没有得到充分的调度机会,同一时候主线程调度了GpuChannel B。当中某个上下文中调用WaitSyncPointCHROMIUM去等待A中创建的同步点。

    上面提到,WaitSyncPointCHROMIUm作为一条扩展的GL命令掺入到命令缓冲区中,所以GpuCommandBufferStub在逐条解析并运行命令缓冲区的GL命令时。当遇到WaitSyncPointCHROMIUM命令时,GLES2DecoderImpl::HandleWaitSyncPointCHROMIUM会运行例如以下操作:

    • 触发注冊的回调函数GpuCommandBufferStub::OnWaitSyncPoint。该函数依据函数返回值决定当前GpuChannelB中的GpuCommandBufferStub到底是继续解析GL命令,还是停止解析GL命令等待同步点的“退休”;
    • OnWaitSyncPoint会首先推断同步点是否已经“退休”,假设是,则返回true表明GpuChannel B的当前GpuCommandBufferStub能够继续GL命令的解析和运行。否则。将当前GpuCommandBufferStub设置为“不可被调度”状态,并请求SyncPointManager为等待的同步点加入一个回调函数GpuCommandBufferStub::OnSyncPointRetired,这个回调函数的作用就是恢复GpuCommandBufferStub为“可调度”状态。

    细心的读者可能会发现,这里还有两个问题没有交代清楚:

    第一,GpuCommandBufferStub的调度状态是怎样被使用的?

    第二,SyncPointManager什么时候会调用GpuCommandBufferStub的回调函数OnSyncPointRetired?

    前面提到GpuChannel的消息处理方式。GpuChannel::HandleMessage会逐一遍历全部未被处理的IPC消息,并交给相应的GpuCommandBufferStub来处理。而仅仅有GpuCommandBufferStub处于“可调度”状态时才干处理这个IPC消息,否则直接从HandleMessage方法中返回。因此GpuChannel的消息处理也将停滞不前,也就是说,此时GpuChannelB将停止下来等待同步点的“退休”,直到GpuCommandBufferStub::OnSyncPointRetired回调函数被触发。

    一旦主线程上GpuChannel B的消息处理停止了,GpuChannel A则有很多其它的机会得到主线程的调度,GpuChannelA中积压的GpuCommandBufferMsg_AsyncFlush和GpuCommandBufferMsg_RetireSyncPoint消息将会一并被处理。GpuCommandBufferMsg_AsyncFlush消息负责将全部client的GL命令通过GLES2DecoderImpl提交给GPU驱动。而GpuCommandBufferMsg_RetireSyncPoint消息则会触发GpuCommandBufferStub::OnRetireSyncPoint消息处理函数,请求SyncPointManager将给定的同步点删除,在删除同步点时,SyncPointManager将会执行全部与该同步点关联的回调函数,所以此时GpuCommandBufferStub::OnSyncPointRetired被调用,GpuChannelB的消息处理又能够開始了。

    须要特别说明的,因为 GpuCommandBufferStub的调度状态而导致GpuChannelB的消息处理停止,仅仅是针对服务端运行GL命令而言的,并没有停止接受来自client的消息,client仍然能够向GpuChannelB发送IPC消息。只是这些消息将会一直会被缓存在消息队列中。直到所等待的同步点“退休”,这就是上述提到的“服务端的等待”

    小结

    Chromium为解决多个GPUclient的数据同步问题,引入同步点(SyncPoint)机制的GL扩展,从而同意client能够定制不同上下文GL命令运行的先后次序。同步点机制保证了当前上下文在运行兴许GL命令之前,其等待的同步点之前的全部GL命令都已经提交给GPU设备。同步点的等待是服务端的等待,client代码并不会被堵塞。在实现上,同步点机制依赖于GpuChannel的消息处理机制,当等待的同步点尚未“退休”时。当前的GpuCommandBufferStub它将被设置到“无法调度”状态。直到所有以前的同步点GL命令提交。


    版权声明:本文博主原创文章,博客,未经同意不得转载。

  • 相关阅读:
    剑指Offer-49.把字符串转换成整数(C++/Java)
    codeforces Gym 100338H High Speed Trains (递推,高精度)
    codeforces Gym 100338E Numbers (贪心,实现)
    codeforces Gym 100338C Important Roads (重建最短路图)
    HDU 4347 The Closest M Points (kdTree)
    UVA 10817
    HDU 4348 I
    HDU 4341 Gold miner (分组背包)
    UVA 1218
    UVA 1220 Party at Hali-Bula (树形DP)
  • 原文地址:https://www.cnblogs.com/zfyouxi/p/4891512.html
Copyright © 2020-2023  润新知