Arnold、Arnold(GPU)、Redshift渲染测试对照,仅供娱乐 ...

[复制链接]
麻辣鸡翅 发表于 2022-7-24 17:43 | 显示全部楼层 |阅读模式
欢迎学习这篇关于CINEMA4D的文章,以下是本文内容。
       前些年我记得网上经常为了各自渲染器质量、速度什么的,打得炽热,什么Arnold、mentalray等等,而mentalray彻底歇菜了。如此后起之秀的GPU渲染器如redshift、octane render真是火的一塌糊涂。于是抽了个空拿来对照,为何没vray、octane?因为我电脑里没安装呀~
我手头的渲染器有:

  • Redshift3.0.27
  • Arnold6.0
我机器的配置:

  • CPU:AMD 3950x
  • 内存:64GB
  • 显卡:RTX2070+RTX2060super
场景我就间接拿Arnold官方里的室内做测试。

  • 为了尽可能控制变量,所有的间接采样(材质采样)、阴影采样,都设置为1,也就是说整个画面仅用CameraAA来进行采样,而且不开启自适应采样。
  • 场景的光线跟踪深度为diffuse三次、specular三次。
  • 场景材质一律使用只带漫反射和镜面反射属性的金属度pbr,不异的漫反射数值和粗拙度数值,不异的GGX的反射属性。
  • 间接照明的强度裁切一律为10。
  • 使用同一张HDR进行照明。
  • 关闭Redshift的Conserve Reflection Energy,这个会影响反射亮度。
  • 图片分辨率为1280x720。
       有部门的参数可能不好一并,好比Arnold里有个叫indirect specular blur,为了降低二次高光的噪点用的,redshift就没有……还有Russian Roulette这个叫俄罗斯大转盘?redshift有,而Arnold没有。以及Light Threshold等等之类的参数,或多或少会影响速度和画面的差别,但不能很好的婚配,就用默认的。
以下为100采样的精度,只开启单张RTX2070显卡的条件渲染:

Arnold、Arnold(GPU)、Redshift渲染测试对照,仅供娱乐 ...-1.jpg

Redshift 100AA 24秒

Arnold、Arnold(GPU)、Redshift渲染测试对照,仅供娱乐 ...-2.jpg

Arnold 10AA 2分1秒

Arnold、Arnold(GPU)、Redshift渲染测试对照,仅供娱乐 ...-3.jpg

Arnold(GPU) 10AA 28秒

       这里注意下,redshift的AA采样暗示对单个像素采样多少次,而Arnold则是对单个像素横向采样多少次,所以RedshiftAA=ArnoldAA。
       上几张图大要能看出,不异采样下,用GPU渲染的噪点会比CPU的犀利好多,这个Arnold官方也提及过,用GPU渲染得需要更高的采样。至于GI反弹有多好、反射怎样,我倒是没看出多大区别来。
以下为400采样的精度,只开启单张RTX2070显卡的条件渲染:

Arnold、Arnold(GPU)、Redshift渲染测试对照,仅供娱乐 ...-4.jpg

Redshift 400AA 1分20秒

Arnold、Arnold(GPU)、Redshift渲染测试对照,仅供娱乐 ...-5.jpg

Arnold 20AA 8分17秒

Arnold、Arnold(GPU)、Redshift渲染测试对照,仅供娱乐 ...-6.jpg

Arnold(GPU) 20AA 1分54秒

        进步采样后,噪点少了很多,但渲染时间成倍增加。这里其实有个有意思的处所,就是Arnold渲染器有个特点,渲染时间跟采样是成平方倍关系,20AA差不多刚好是10AA的4倍。假如你想预测这一帧渲染多久,就能够使用1AA来渲,再计算最终成品的时间。如1AA为5秒钟,那10AA就是8分20秒。然后redshift很快……Arnold的GPU感觉还差点火候。
接下来我仍然开启400AA采样的精度,而且使用双显卡进行渲染:



Redshift*2显卡 400AA 40秒

Arnold、Arnold(GPU)、Redshift渲染测试对照,仅供娱乐 ...-8.jpg

Arnold(GPU)*2显卡 20AA 2分39秒

       Redshift这边2倍的显卡,几乎就等于两倍的速度。但Arnold这怎样回事?双卡操做率低就算了,怎样渲染时间还涨了?
<hr/>感受:
       Arnold我个人使用了几年,给我感觉是,这软件对新人很友好,出格是对渲染合成根底研究的人。而打从5.0版本换了内核后,功能更强,渲染速度也快了好多。之前的4.xx版底细对来说是真不好用,老旧的材质,还得辅助alshade,一旦场景有折射物体,能卡出屎来。
       Arnold的AOV分层目录出格明晰明了,这点我非常喜欢,漫反射就是漫反射,镜面反射就是镜面反射,次外表散射就是次外表散射,以及每个属性下再分固有色、间接照明、间接照明。当他人问你vray或者redshift里的灯光层什么意思?GI是什么意思?反射是什么意思?你可能解释起来非常费事。究竟?结果这俩渲染器还把GI这玩意儿给单独弄了个卷展栏,搞得仿佛是个非常奥秘高大上的玩意儿似的。但你用Arnold去解释,就非常明晰了。

  • 灯光层: diffuse_lighting          diffuse_direct
  • GI:        global_illumination    diffuse_indirect
  • 高光:     specular_lighting       specular_direct
  • 反射:     reflection                   specular_indirect
能看懂么?GI其实其实不是什么奥秘的东西,他就是漫反射的间接照明,灯光照到物体上并反弹所产生的二级照明。间接反射灯光物体,叫高光。而反射,就是反射被灯光所照亮的物体,是高光的间接照明。你可想而知,就一个diffuse_indirect,Vray还专门弄一个单独的卷展栏来优化设置?这说明在以前计算力贫弱的年代,间接暴力计算是多么奢侈!
       从我工做的几年来看,一个公司在渲染上投入的成本跟流程上的成本相比,几乎沧海一粟,好比大量的弱智返修、时间规划诡异,pipeline80%的时间,渲染那边无所事事突然一股脑全丢上来加班彻夜渲染。最后叹口气说渲染太慢。一条片子全堆你一天渲完,可不慢么?我寻思要是换引擎渲染,可能墨迹到交片前一小时才让你渲,你要不也叹一叹引擎也慢?假如在这种条件下,还要消耗大量人力去跑光子缓存或者让TD开发,这金钱成本我以至觉得能把片子渲染两遍以上。
      Arnold的自带降噪非常好用(不是nv那个optix),他能够对渲染完成的exr序列进行后期降噪,效果非常好,而且撑持最多5帧前后参考降噪,这暗示渲染动画能够大幅度减少闪烁了。假如平常的产物渲染用的10AA,当你使用降噪,你就能够设置为5AA,这样你的渲染时间缩短了到了1/4,效果可能比10AA还要丝滑多。用Arnold单兵做战也不是不成能的。
       至于Arnold的GPU……目前难用!
       再说redshift,这渲染器你看上面图片对照就知道了,一个字,快!几乎就是单兵做战利器。因为最近的项目用redshift,所以我一直在存眷版本更新的条件。那些还在用2.5.48的哥们,你们就别再胡喷这渲染器了,那个是上个世纪的版本,跟如今的完全没法比。功能上虽没Arnold这么完善,官方更新地也很勤奋,后面参加的灯光spread、光追sss(一直有bug,但最近版本给修复了),3.0.18以至改写了材质算法,渲染速度间接提升了40%(所以知道为何网上最新的破解版只到3.0.16?)。说折射屎的,开启材质的内部反射和灯光的折射穿透尝尝?总之是越来越好用了。
       你说对redshift有啥不满?界面和AOV层逻辑啊,你抄啥不好为何抄vray的,几乎就是新人杀手。看看octane,看看clarisse,我以至觉得都能够把光子缓存GI还有那个什么photo map?给砍掉了,原来就够快了,还用这个干嘛?场景复杂显存吃紧的条件间接给你渲崩了。还有opacity通明贴图,为啥是用折射来仿真呢??假如一堆透贴的模型头发,间接慢出屎来了。要不想连opacity,还得单独搞了个sprite节点来做通明,快是快,可这节点不带灰阶的啊。所以我在想,之前少年锦衣卫,那一头的模型头发,渲起来不卡么……
       说到redshift的光子缓存GI,不就是为了降低GI噪点么?之前渲染器内置了第三方降噪器还间接给免费了,暴力算法+降噪美滋滋啊。可这款降噪器不撑持动画帧渲染,不然无敌了。
       如今redshift的局限,也可说是如今所有GPU渲染器的局限,我觉得就是显卡的显存容量了。我手头的RTX2070,8GB的显存,别说把模型转成代办代理了,只要是复杂的丛林之类的场景,植物种类一多,8GB间接吃爆。显存在占满的条件下要一直与内存之间交换资源,导致GPU的使用率可能只要50%多一点。更别说Arnold没有out of core技术的GPU渲染器了,间接给你报错。
       最后在这动画渲染越来越廉价的时代,我觉得我们还得感激苏妈,是AMD让我们的CPU速度翻了个翻,让老黄的新显卡又快又厚道(3080为何只要10G显存!)。想当初一颗民用的顶配CPU,I9-9900K!多牛叉啊,我如今的3950x的渲染速度是他2倍、以前旧的I7-4790K的5倍。更别说3990x了,一颗秒了有些公司渲染农场的8台机器都有可能。AMD YES!
哈哈SE7 发表于 2022-7-24 17:43 | 显示全部楼层
如果渲染大多是场景和道具我个人觉得Vray效果不错,速度也快,Arnold渲染效果是不错,但是太慢了特别是有subsurface gathering,16K……慢到崩溃
米老鼠和蓝精鼠v 发表于 2022-7-24 17:44 | 显示全部楼层
vray的light cache简直是神器,哪怕用暴力GI,反弹开100,速度都嗖嗖的。
普通人物怨 发表于 2022-7-24 17:45 | 显示全部楼层
是的,而且vray的displacement计算的也特别快,可以把subdivision开高一点也不会特别卡,但其实我各人用Arnold的情况比较多,效果挺好的,就是渲染特别痛苦
六月清晨搅 发表于 2022-7-24 17:46 | 显示全部楼层
最近很头疼,一直用阿诺德,但渲染动画太慢了. 用GPU,简单模型可以,纹理一多直接报错。想用redshift,但没有找到和谐版,我的显卡是rtx2060.
六月清晨搅 发表于 2022-7-24 17:46 | 显示全部楼层
Arnold你用noice降噪器降噪啊,你可以把cameraAA降低一半,用CPU渲染就行。redshift的最新和谐版好像是3.0.16,你可以搜一下
俺乃小潜mg 发表于 2022-7-24 17:47 | 显示全部楼层
说说renderman?
贺老师 发表于 2022-7-24 17:48 | 显示全部楼层
这个版本渲染预览就出现error
天一教育培训寐 发表于 2022-7-24 17:48 | 显示全部楼层
楼主能详细说说Arnold的降噪吗?我之前用的optix,感觉头发上的细节直接给我磨没了,请问另外一个降噪在哪里?
墙和鸡蛋 发表于 2022-7-24 17:49 | 显示全部楼层
https://docs.arnoldrenderer.com/pages/viewpage.action?pageId=126124852
在Arnold的工具里,叫noice,这个是官方文档。用这个的前提是你得输出exr,再用这个工具给降噪一遍
123下一页
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

菜鸟C4D推荐上一条 /9 下一条

菜鸟C4D与你一起从零开始!
菜鸟C4D微信公众号

( 浙ICP备13033195号-2 )Copyright 2013-2022;菜鸟C4DPowered by Discuz! 技术支持:菜鸟C4D