目录
2. 预定义ui层6. quads7. compositor frame示例代码托管在:http://www.github.com/dashnowords/blogs
博客园地址:
华为云社区地址:
附件ppt来自开发文档。术语里的
cc
指的是chromium compositor
一直以来都想了解浏览器合成层的运作机制,但是相关的中文资料大多比较关注框架和开发技术,这方面的资料实在是太少了,后来在chromium
官方网站的文档里找到了项目组成员malaykeshav在 2019年4月的一份关于浏览器合成流水线的演讲ppt,个人感觉里面讲的非常清楚了,由于没有找到视频,有些部分只能自行理解,本文仅对关键信息做一些笔记,对此感兴趣的读者可以在文章开头的github
仓库或附件中拿到这个ppt自行学习。
合成流水线,就是指浏览器处理合成层的工作流程,其基本步骤如下:
大致的流程就是说paint
环节会生成一个列表,列表里登记了页面元素的绘制指令,接着这个列表需要经过raster
光栅化处理,并在合成帧
中处理纹理,最后的draw
环节才是将这些纹理图展示在浏览器内容区。
chromium中预定义了一些指定类型的ui层,大致分为:
not drawn – 为了处理透明度或滤镜效果、transform变形或者clip剪裁的非绘制层solid color layer – 固有颜色层painted texture layer – texture纹理会在这个层执行paint
渲染和后续的rasterized
光栅化任务transferable resource layer – 共享资源层,可能是gpu里面的texture纹理也可能未来会发给gpu的位图surface layer – 临时占位层,因为自顶向下遍历layer树时子树都还没处理,需要先占位最后再填充nine patch layer – 用于实江苏高考难吗现阴影的层每个层layer
是由若干个views
组成的,所谓paint
,就是每个views
将自己对应图形的绘制指令添加到层的可展示元素列表display item list
里,这个列表会被添加到一个延迟执行的光栅化任务中,并最终生成当前层的texture纹理(可以理解为当前层的绘制结果),考虑到传输性能以及未来增量更新的需求,光栅化的结果会以tiles
瓦片形式保存。在chrome中也可以看到页面瓦片化拆分的结果:
分层的优势和劣势也在此进行了万圣节糖说明,和之前我们主动思考的答案基本一致(暗爽一下)。
views
中支持的属性包含clip
剪裁,transform
变换,effect
效果(如半透明或滤镜等),mask
遮罩,通常按照后序遍历的方式自底向上进行遍历处理。
clip
剪裁的处理方式是在父节点和子节点之间插入一个剪裁层,用来将其子树的渲染结果剪裁到限定的范围内,然后再向上与父级进行合并;
transform
变换直接作用于父节点,处理到这个节点时其子树都已经处理完毕,直接将整体应用变形即可;
effect
效果一般直接作用于当前处理的节点,有时也会产生交叉依赖的场景;
ppt第40页中在介绍effect
效果处理时描述了两种不同的透明度处理需求,从而引出了一个render surface
的概念,它相当于一个临时的层,它的子树需要先绘制在这个层上,然后再向上与父节点进行合并,屏幕就是是根级的render surface
。
layer
遍历处理输出的结果被称为quads
(从意思上理解好像就是指输出了很多个矩形方块),每个quad
都持有它被绘制到目标缓冲区所需要的资源,根据它持有的资源不同可以分为:
solid color
-固定颜色型texture
– 纹理型tile
– 瓦片型surface
– 临时绘图表面型video
– 视频帧型render pass
– render surface
类型的占位区,render surface
子树处理完后填充到关联的render pass
合成层真正的工作要开始了,主角概念compositor frame
(合成帧)登场,它负责将quads
合并绘制在一起,胶片里59-62页非常清楚地展示了合成的过程,最终输出的结果就是根节点的纹理。
chromium
是多进程架构,browr process
浏览器进程会对菜单栏等等容器部分的画面生成合成帧来输出,每个网页的render process
渲染进程会对页面内容生成合成帧来输出,最终的结果都被共享给gpu process
gpu进程进行聚合并生成最终完整的合成表面,接着在display compositor
环节将最后的位图展示在屏幕上。
胶片里并没有描述具体的光栅化的处理过程,但是layer
输出的quads
看起来应该是光栅化以后的结果,推测应该是处理display item list
中的绘图指令时也和webgl类似,经过顶点着色器
和片元着色器
的遍历式处理机制,并在过程中自动完成像素插值。
声明:本节内容是个人理解,仅用作技术交流,不保证对!
软件渲染和硬件渲染的区别对笔者而言一直非常抽象,只是知道基本概念。后来在【chromium开发者文档】(国内可能无法访问)中《compositor thread architecture》这篇合成器线程架构的文章中找到了一些相关描述,也解开了笔者心中一直以来的疑惑,高中语文试卷相关部分摘抄如下:
texture upload
one challenge with all the textures is that we rasterize them on the main thread of the renderer process, but need to actually get them into the gpu memory. this requires handing information about the textures (and their contents) to the impl thread, then to the gpu process, and once there, into the gl/d3d driver. done naively, this caus us to copy a single texture over and over again, something we definitely don’t want to do.
we have two tricks that we u right now to make this a bit faster. to understand them, an aside on “painting” versus “rasterization.”
painting i国产人人为我我为人人澡s the word we u for telling webkit to dump a part of its renderobject tree to a graphicscontext. we can pass the painting routine a graphicscontext implementation that executes the commands as it receives them, or we can pass it a recording context that simply writes down the commands as it receives them.rasterization is the word we u for actually executing graphics context commands. we typically execute the rasterization commands with the cpu (software rendering) but could also execute them directly with the gpu using ganesh.upload: this is us actually taking the contents of a rasterized bitmap in main memory and nding it to the gpu as a texture.with the definitions in mind, we deal with texture upload with the following tricks:per-tile painting: we pass webkit paint a recording context that simply records the graphicscontext operations into an skpicture data structure. we can then rasterize veral texture tiles from that one picture.shm upload: instead of rasterizing into a void* from the renderer heap, we allocate a shared memory buffer and upload into that instead. the gpu process then issues its gltex* operations using that shared memory, avoiding one texture copy.the holy grail of texture upload is “zero copy” upload. with such a scheme, we manage to get a raw pointer inside the renderer process’ sandbox to gpu memory, which we software-rasterize directly into. we can’t yet do this anywhere, but it is something we fantasize about.
大概翻译一下,方便英语水平一般的小伙伴理解,gpu处理图片的方式是按照texture进行贴图的,对此不熟悉的小伙伴可以查看笔者以前发的有关three.js
相关的博文。
纹理上传:
1号知识点!!!
处理纹理的挑战之一就是它是在渲染进程(可以理解为单个tab网页的进程)的主线程里进行的,但是最终需要将其放入gpu内存。这就需要将纹理数据递交给合成器线程,然后再交给gpu进程(chromium架构里有专门的gpu进程用来专门处理和gpu之间的协作任务),最后再传递给底层的direct3d
或opengl
(也就是图形学的底层技术),如果只是按照常规流程来处理,就会需要一次又一次来复制生成的纹理数据,这显然不是我们想要的。
我们现在使用了两个小方法来使这个流程变得快一点。它们分别作用于painting
(绘制)和rasterization
(光栅化)两个阶段。painting
我们用来告诉webkit为renderobject tree
的来生成对应的graphicscontext
。通过给painting routine
(绘制流程)传递一个graphicscontext
的具体实现来执行这些已经编排好的绘制命令,也可以传递一个record context
(记录上下文)只是简单地把绘图命令都记录下来。2号知识点!!!rasterization
(光栅化)是指graphics context
关联的绘图命令实际被执行的过程。通常我们使用cpu(也就是软件渲染的方式)来执行光栅化任务,也可以直接使用gpu来渲染(也就是硬件渲染的方式)。上传:指在主线程存储区获取到光栅化以后的位图内容然后将它作为纹理上传给gpu的过程,考虑到上述已经提及的定义,上传过程是如下来处理的:瓦片绘制:我们在webkit中使用recording context
来简单地记录graphics context
的操作指令,将它存储为skpicture类型(直接使用软件光栅化时生成的是skbitmap类型),随后可以从一张picture里面光栅化处理得到多个纹理瓦片
。共享内存:在软件渲染的方式中,光栅化的结果会被存储在renderer
进程的堆内存里,现在不这样搞了,我们重新分配了一块共享缓冲区,然后通过它来传递相关对象,gpu进程随后在获取纹理时直接从共享内存中获取就行了,这样就避免了数据的拷贝。
总的来说,纹理上传的过程几乎幼儿舞蹈honey是零拷贝的。利用这样的结构,我们在renderer
进程(也就是网页的渲染进程)的沙箱环境内也可以获取到指向gpu 内存的指针,而在软件光栅化的过程中,是直接将位图结果放在这里的。
painting: this is the process of asking layers for their content. this is where we ask webkit to tell us what is on a layer. we might then rasterize that content into a bitmap using software, or we might do something fancier. painting is a main thread operation.drawing: this is the process of taking the layer tree and smashing it together with opengl onto the screen. drawing is an impl-thread operation.painting:表示的过程是向layers对象查询层内容,也就是让webkit告诉我们每一层上面到底有什么。接下来我们就可以使用软件光栅化的方式将这些内容处理为位图,也可以做一些更牛的事情,painting是一个主线程行为。drawing:是指将layer中的内容用opengl绘制在屏幕上的过程,它是另一个线程中的操作。
概念比较多没有基础的读者可能理解起来有难度,我尝试用自己的话复述一下:
【软件渲染】的模式下,在paint
时会直接利用graphics context
绘图上下文将结果绘制出来,在一个skbitmap
实例中保存为位图信息;【硬件渲染】的模式下,在paint
时传入一个skpicture
实例,将需要执行的绘图命令保存在里面先不执行,然后通过共享内存将它传给gpu进程,借助gpu来最终去执行绘图命令,生成多个瓦片化的位图纹理结果(opengl
中顶点着色器向片元着色器传递数据时可以自动进行数据插值,完成光栅化的任务)。 纯软件渲染里严格说是没有合成层概念的,因为最终输出的只有一张位图,按照顺序从下往上画,和画到一个新层上再把新层贴到已有结果上其实是一样的。
不管使用哪种途径,paint
动作都是得到位图数据,而最终的draw
这个动作是借助opengl和位图数据最终把图形显示在显示器上。
所以【硬件渲染】就是渲染进程把要做的事情和需要的数据都写好,然后打包递给gpu让它去干活。
本文发布于:2023-04-03 09:16:40,感谢您对本站的认可!
本文链接:https://www.wtabcd.cn/fanwen/zuowen/cd75c4d33dffff99bd4bda98d7631ba0.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文word下载地址:高性能Web动画和渲染原理系列(4)“Compositor.doc
本文 PDF 下载地址:高性能Web动画和渲染原理系列(4)“Compositor.pdf
留言与评论(共有 0 条评论) |