Eth1.0 Merge to Eth2.0

回顾 ETH2.0 Phase0 BeaconChain Blog 2020年的12月份,ETH上线了2.0-0阶段的信标链,ETH2.0 Proof of Stacking(pos)的底层应用,它不像现在在运行的ETH1.0主链,Beacon Chain上面没有智能合约也没有账户管理,它的主要功能就是2.0的共识机制,用户通过质押ETH(我们称之为validator)来保护整个2.0主网的安全性,更多的人运行validator节点,能够更好的去中心化以及抵御外部攻击。0阶段,用户是只能质押ETH代币,无法运行合约以及转账操作。 合并 在2022年的三月份ETH开发者上线了kiln ETH2.0合并测试网,当前的1.0主网将合并到2.0的Beacon Chain,这样做是为了结束1.0上面的pow共识机制,并全面的过渡到pos,用ethereum.org官方的表述意思就是像宇宙飞船的对接,1.0已经无法再进行较远距离的星际航行,于是开发者们设计2.0的新引擎,1.0将与2.0飞船进行对接合并,然后驶向宇宙的更深处。当合并完成之后,ETH1.0主网将与Beacon Chain进行合并,成为ETH分片链,并且将转向Pos权益证明而非Pow工作量证明。主网将智能合约带入到Proof-of-stack系统中,并且导入ETH1.0中的所有历史数据和现状,确保ETH的持有者和用户能够平滑的过度到2.0。当合并发生时,validator节点将接管主网,miner将不再需要。 操作指引 我选择的是lighthouse beacon chain做为自己的验证节点,以下是具体在kubernetes中进行操作的yaml文件,还可以参考相关网站用于部署节点。 帮助文档 ETH Kiln TestNet kiln testnet on arm How to run a node on Kiln Join the kiln testnet - lighthouse 我的节点 kubernetes kiln testnet node and validator geth-kiln-net.yaml --- apiVersion: apps/v1 kind: Deployment metadata: name: geth-merge-devnets namespace: eth labels: app: geth-merge-devnets spec: strategy: type: Recreate selector: matchLabels: app: geth-merge-devnets template: metadata: labels: app: geth-merge-devnets spec: nodeSelector: kubernetes.io/hostname: deep-dream initContainers: - name: geth-init image: 192.168.1.114:5000/geth-merge-devnets:4c57d09-20220316 args: - geth - --datadir=/execution_data - init - /custom_config_data/genesis.json volumeMounts: - name: geth-merge-devnets-data mountPath: /execution_data - name: merge-devnets-genesis-json mountPath: /custom_config_data containers: - name: geth-merge-devnets resources: limits: memory: 5Gi cpu: 4 requests: memory: 2Gi cpu: 1 image: 192.168.1.114:5000/geth-merge-devnets:4c57d09-20220316 args: - geth - --datadir=/execution_data - --syncmode=full - --http - --metrics - --http.api - "engine,eth,web3,net,debug" - --authrpc.jwtsecret=/execution_data/jwtsecret - --metrics.expensive - --networkid=1337802 - --http.corsdomain - "*" - --authrpc.addr - "0.0.0.0" - --authrpc.vhosts=* - --http.addr - "0.0.0.0" - --http.vhosts=* - --bootnodes - "enode://c354db99124f0faf677ff0e75c3cbbd568b2febc186af664e0c51ac435609badedc67a18a63adb64dacc1780a28dcefebfc29b83fd1a3f4aa3c0eb161364cf94@164.92.130.5:30303" ports: - containerPort: 8545 name: port - containerPort: 8551 name: secure volumeMounts: - name: geth-merge-devnets-data mountPath: /execution_data volumes: - name: geth-merge-devnets-data persistentVolumeClaim: claimName: geth-merge-devnets-data - name: merge-devnets-genesis-json configMap: name: kiln-genesis-json --- apiVersion: v1 kind: PersistentVolumeClaim metadata: name: geth-merge-devnets-data namespace: eth spec: accessModes: - ReadWriteOnce storageClassName: openebs-hostpath resources: requests: storage: 500Gi --- apiVersion: v1 kind: Service metadata: labels: app: geth-merge-devnets-service project: geth-merge-devnets-service name: geth-merge-devnets-service namespace: eth spec: ports: - protocol: TCP port: 8545 targetPort: 8545 name: port - protocol: TCP port: 8551 targetPort: 8551 name: secure selector: app: geth-merge-devnets lighthouse-beacon-chain-kiln-net.yaml ...

March 17, 2022

深度学习超分辨率在电影工业的应用

论文 Deep Learned Super Resolution for Feature Film Production 学习 最近我一直在学习三维建模渲染和制作,看到一篇关于Pixar在2020年发布的论文,主要内容是关于Pixar内部的工程师开发人员如何利用深度学习来提升渲染图像的分辨率,精细的渲染一帧4k图像可能会消耗很多资金成本,如果最终渲染2k分辨率的图像然后利用深度神经网络将其提升到4k,图像在细节上更加细腻和丰富,那么在渲染的成本上可以帮助公司降低很多成本。和以前的超图像超分辨率提升模型不一样,电影工业通常使用的图像都包含有光照的高动态范围,和对色彩的真实还原的数据,这就使得目前的主流超分辨率模型根本无法使用在电影领域。这也是我目前感兴趣的领域,因为将深度学习用于工业领域比起理论上更加具有实际意义。 摘要 伸缩技术通常用于创建那些成本高昂甚至无法制作的高分辨率图像。近年来,深度学习方法相比传统的方法而言在改善图像细节,提升图像清晰度方面有所改善。在这里我们讨论将深度学习的超分辨率技术用于皮克斯电影工业的动机和挑战,使用该技术可以降低渲染农场的支付成本,同时实现生成高分辨率的内容。 背景和相关工作 为了提高图像的分辨率,通常使用几种技术,如 nearest-neighbor, bilinear,以及bicubic interpolation。在电影业中,通过Nuke节点TVIScale,total variation inpainting技术已被证明在提高分辨率方面很有成效。近年来,深度卷积神经网络通过从大量数据中学习低分辨率(LR)到高分辨率(HR)的映射,展示了更高的重建质量。随着生成式对抗网络(GANs)和感知损失函数在开创性的SRGAN工作中的引入,伸缩器现在可以产生与真实相比无法分辨的细节和清晰度的图像。我们在皮克斯工作的目的是将GANs投入生产,用于图像的分辨率伸缩。 训练集 训练一个超分辨率模型需要成对的高分辨率和低分辨率帧图像。大多数先前的研究依赖于预先建立的数据集,这些数据集由代表HR(High Resolution)的高分辨率照片和通过采用下采样操作(通常是bicubic)获得的LR(Low Resolution)照片组成。然而,在我们的测试中,在bicubic降采样图像对上训练生成的预训练超级分辨率模型并不能推广到新的数据上(即没有新的细节被生成),因为现实世界的降级操作比Bicubic降采样要复杂得多。在皮克斯,我们有一个渲染器来合成图像对,有高质量的场景(有不同的着色器、几何和光照条件),还有一个经过微调的数据中心来进行大规模的渲染。 为了获得训练数据,我们使用RenderMan渲染了分辨率为1-2K的生产图像对,其中的镜头从《Coco》、《Incredibles 2》、《Toy Story 4》、《Onward》和《Soul》中随机抽取。由于一个给定的镜头中包含多个通道(如实体元素、体积和天空),在生产管道的最后步骤进行合成,我们收集所有的元素,不包括Deep Layer。我们对已知的与分辨率有关的参数进行修正,如微多边形长度和相机射线差倍率。尽管如此,我们仍然偶尔会注意到不相关的对,并将它们从训练集中排除。我们注意到,我们经常不能重新使用以前定稿的2K渲染图,因为即使在定稿后,由于生产的变化,镜头也经常发生变化。我们还从UHD版本中获得预先存在的4K渲染图,并将任何连贯的2K-4K对添加到数据集中(通常每个节目的一小部分是以4K渲染的,其余的是用TVIScale从2K放大的,因为大规模4K渲染的成本很高)。我们最终得到了一个包含3700对的数据集。 训练管线 我们在文献中观察到,最先进的超分辨率深度学习模型是使用具有对抗性训练的深度残差网络[Wang et al. 2018]。架构或损失函数的微小差异使这些模型与众不同。我们从一个开源的训练环境和网络架构开始,然后我们创建了一个PyTorch开发环境,并准备了一个台带有两个24GB NVIDIA Quadro P6000 GPU的Linux实例。 生产线特点 大多数超分辨率的工作没有考虑到高动态范围HDR图像,但这样做在电影行业是至关重要的。HDR数据通常用超过1的浮点数表示,并存储在OpenEXR这样的文件格式中。由于神经网络在处理输入数据时将其归一化为[-1, 1]或[0, 1]时表现最好,我们就应用以下范围压缩函数来适应HDR数据[Bakoetal.2019]:Ty =k*log(1+μy)/log(1+μ)。我们设置k=0.6和μ=5000,提供范围到亮度值接近300。然后,我们将压缩数据集转换成一个高性能的数据结构,即闪电内存映射数据库,比直接读取EXR图像的训练速度加快了约1/3。 我们试验了一种新的数据增强策略,即在(LR,HR)对中引入随机颜色移动,使网络对不同的光照条件更加精准。我们通过添加一个随机颜色(cr, cg, cb )∈ [-0.01, 0.01],给每个颜色通道添加变换:R’=R+cr, G’=G+cg, B’=B+cb。我们发现这提高了模型的泛化能力。 一个关键的挑战是解决生成的图像中不需要的颜色偏移。我们引入了一个额外的损失项,对下采样生成的图像和输入的LR图像之间的l1损失进行惩罚。有了这个额外的损失项,我们在训练的网络输出中没有发现任何颜色的偏移。我们进行了超参数调整实验,以最大限度地提高合成图像的清晰度,同时避免通常伴随着GANs的过度噪音伪影。我们最新训练的网络偶尔会在文本上产生边缘伪影(如片尾字幕),我们预计获得更多带有文本的训练数据将有助于消除这些伪影。纯PSNR网络(无GAN)不会产生边缘或噪音伪影,但会模糊一些高频细节,如胶片颗粒或小亮点。 我们的网络用纯PSNR损失项预训练了215k次,然后用GAN、色移损失和感知(特征)损失项训练了340k次。我们根据强度使用192x192的卷积核进行采样,最小批次为20。损失项的权重是{PSNR, colorShift, feature, GAN}={1, 5, 0.1, 0.0005}。我们的训练时间为:仅PSNR为108小时,GAN为208小时(总训练时间为316小时)。我们在GPU上正向推演从2K到4K图像的转换时间约为15秒,我们强调该模型可以在任何输入分辨率下提升分辨率(受GPU/CPU内存限制)。在开发的后期,我们开始在英伟达的DGX2超级计算机上进行训练,这使训练速度加快了5倍左右,并能同时运行多个实验。 结果 我们已经训练并部署了一个生产质量的超分辨率模型,在大多数情况下,特别是在TVIScale合成的细节不足和需要4K渲染的情况下,能够持续产生高质量、无伪影的高分辨率图像。即使在有景深、运动模糊和/或体积的场景中,质量也是一致的,因为这些现象在训练集中都有体现。Onward UHD光盘的元素用我们的模型进行了升级,并计划在Soul上进行更广泛的使用。我们的工作正在积极测试其他的使用情况,如宣传工作和主题公园的交付产品。此外,我们最新的训练模型显示,我们有希望建立一个可以在1K下渲染并提升为2K的工作管道,如果用于所有的中间渲染,这将为工作室节省50-75%的渲染场占用空间。 未来的工作 我们的超分辨率模型只支持RGB颜色通道的单帧升频,这使得我们的工作只在工作管道的末端有用。对于在中间渲染中的使用,需要对阿尔法通道进行伸缩,鉴于预先训练的判别网络通常只支持RGB,这就不是一件简单的事情。虽然我们目前的模型产生了时间上的一致性结果,但没有像[Bako等人,2017]那样吸收跨帧输入,这样做对我们来说仍有帮助。我们预计考虑到辅助特征缓冲区,如法线和反射率,将进一步提高合成图像的质量。此外,我们预计我们的训练时间和推理速度将随着网络量化和修剪而提高。最后,虽然我们到目前为止一直专注于2倍放大,但4倍放大在之前的工作中已经显示出巨大的前景,并可能有助于高分辨率的宣传片的渲染和为最近进入市场的8K电视提供内容。为此,在我们的测试中,运行2倍网络的多个通道已显示出潜力。 引用 Steve Bako, Mark Meyer, Tony DeRose, and Pradeep Sen. 2019. Offline Deep Importance Sampling for Monte Carlo Path Tracing. In Computer Graphics Forum, Vol. 38. Wiley Online Library, 527–542. ...

March 14, 2022

Piotr Pielaszek 2021 Violin Record

获得2021意大利三年赛银奖的小提琴,由Piotr Pielaszek制作,我使用了BMPCC摄影机对这把小提琴进行了拍摄记录。 Youtube: Bilibili:

March 13, 2022

BMPCC低通滤镜更换

我在2017年购买的BMPCC摄影机出现了低通滤镜氧化的问题,其拍摄的影像里面出现了污点,我利用今天下午的闲暇时间为这台BlackMagic Pocket Cinema Camera更换了低通滤镜,毕竟从购买这台摄影机之后,我用它拍摄了很多有趣的作品。 用BMPCC拍摄的作品赏析(创作于2018.12):

March 11, 2022

Renderman 历史

创新艺术 提到Renderman,那么我们也就不得不提Pixar,对,就是这家制作动画电影的工作室。与其说Renderman的历史还不如讲讲Pixar的历史,正是因为Pixar工作室的艺术家需要在数字世界里面创造真实的影像才诞生了Renderman。我们来看下这家工作室的历史背景。 通过Pixar的发展历史可以看出科学与艺术在电影创作的世界里是相辅相成的,我们来了解下Renderman到底是什么工具。就像画画一样,画家通过不断的对周围事物的观察,在大脑中记忆自己所看到的物体的色彩,光影,然后依靠自己的双手将三维世界的物体呈现在两纬的画布上,Renderman就是这样一组工具,我们告诉他三维空间中都有哪些物体,光源在哪里,摄影机的位置和观察这个空间的角度是怎么样的,将这些数据输入到Renderman中,Renderman就会生成一张类似画家画完画后的两纬图像,Rendering在中文中解释为渲染,渲染一张图片当然还是不够的,我们要让观赏这幅画的人感觉画面是用真实的摄影机拍摄的,那么我们就需要在计算机的世界中去模拟现实世界的光影和色彩,这也是Renderman需要去实现的。告诉Renderman三维空间中有哪些物体,哪些光源,摄影机的位置,这个是由计算机建模来完成的,模型建立完成之后,我们可以输出兼容Renderman程序的场景描述文件,将这一描述文件输入到Renderman中,我们也就得到了具有真实质感的照片,Renderman其实就是对一系列外部接口的规定和实现,将Rendering从建模中抽离出来进行独立的开发,那么任何三维建模程序只要能够通过这些接口与Renderman进行通讯,都可以将场景描述输送到具有Renderman接口实现的渲染器中渲染图像。 Pixar每一部电影制作都会用到Pixar工作室实现的Renderman渲染器-PhotoRealistic RenderMan,1988年pixar开发了Renderman的初版本,经过30多年的发展,Renderman不断的在被Pixar的工程师和科学家们优化和改进。最近发布的24版本中PRMan可以处理能够想象到的最复杂的3D场景,能够同时使用CPU+GPU进行渲染的XPU技术,以及经过多部电影考验的着色技术,最重要的是他支持了开源的三维建模动画程序Blender。学习Renderman就如同像站在巨人的肩膀上一样,使得我们能够更充分更扎实的去了解计算机图形学。 文档翻译计划 早期使用Pixar Renderman,用户还需要学习编程技术,现在Renderman的使用更加人性化,但是相比于市面上流行的其他渲染器而言,Renderman还是缺少许多具体的使用文档和教程,尤其是中文领域。我目前已经在着手翻译Renderman的官方文档和Pixar的具体论文,借助DeepL的帮助翻译进度还是蛮快的。

February 25, 2022

CG319x EIZO

在2020年的时候我写过一篇博客 Renderman24 Will Support Blender,在文章的最后我记录了自己打算购买商业版本的Renderman。经过一年多的时间之后,我实现了自己的想法,为自己配置了图像工作站,购买了具有商业版权的Renderman,最重要的是我也为自己购置了一套EIZO CG319x显示器。准备这些的初衷主要是因为web3.0的崛起,我设想过一个人的自由职业,因为电影行业是通过非常庞大的群体来完成创作的,要让一个人独立完成一部真人电影或者动画长片,甚至短片,那是非常耗时的,因为有很多的技术以及艺术的绊脚石在你面前,你必须一点一滴的克服才能完成影片中的每一个细节。然后我就设想能否通过机器的算法来完成人物环境的设定,在计算机的世界中生成生命和环境,在常规的电影制作中那叫做建模和动画以及场景制作,这些技术都是由技术以及美术人员来完成创作的,计算机只是如实的向观众呈现这些创作。大胆想象如果计算机能够完成这些创作过程,比如动物的蹦跑,模型的材质,抠像,人类的行走,我们不再是通过画关键帧,调试材质,手动绿幕抠像,而是通过计算机对这个现实世界的学习来主动探索这些关键帧,实现对现实世界物体材质的模拟,对画面中人物的精确抠像,那么似乎一个人创作一部精彩的电影是没有问题的。当然这只是个设想,目前技术还达不到这样科幻的地步。 现在就来讲讲CG319x-4k HDR Monitor,它由EIZO公司生产和发行,在2021奥斯卡科学与技术的颁奖典礼上,EIZO获得了科学技术奖。有很多的电影动画以及视效公司在使用EIZO的CG显示器,包括ILM(工业光魔),Pixar,MPC FILM,DNEG(Dune 2021的视效团队)。EIZO官方介绍 Academy of Motion Picture Arts and Sciences,Oscars SCIENTIFIC & TECHNICAL AWARDS 2020。对于工具我的认知是尽量购买自己能力范围内最好的,并且也要考虑工具的保值程度,在购买CG319x的时候我也综合考虑了这两方面,使用好的工具将精力投入到学习和创作中,我觉得付出再多的价钱它也是值得的,因为它会给你带来双倍的回报。通过这款显示器,我希望自己能够做到的是不断地去观察周围的自然世界,然后将其精细的展现在数字世界中,就犹如画家通过手中的画笔来展现他所看到的世界,这也是我的目标。

February 16, 2022

风险共担-摘录

趁着中午的午休时光,我重新快速的读了一遍塔勒布写的书-《非对称性风险》,Skin In The Game - Hidden Asymmetries in Daily life,应对现实世界中的不确定性,摘录了书中我觉得值得去领悟的智慧。 金融是一门具有很强现实性和操作性的专业。 把自己暴露在某种投资,游戏,任务,使命的风险之中,全身心地投入到一项事业中,享受其成果,担当其风险并承受其损失。 如果你想获得回报,必须承担风险。 在痛苦中学习,学习知识必然是痛苦的,因为你只有在痛苦的实践中才能学到知识。 不承担风险的人根本不应该参与决策。 你永远无法说服一个人他错了,只有现实才能教育他。 没有风险共担就没有进化。 什么叫尾部风险,它其实是指一件事情发生的概率非常低,从钟形的概率分布图上看,就是靠近两端的极低概率事件。 相对于判断什么是有利的,我们更清楚什么是不利的。 重要的并不是你预测准了多少次,而是在你预测准确的那一次,你真正赚到了多少钱。 用数学解决交易中的实际问题完全不同于在学院中学习数学,我们在写下方程式之前,一定要深刻理解问题本身。 如果你不能为自己的言论承担后果,那么你等于什么都没说。 尽量不要读别人转述的作品,而是要读亲历者自己的著作,实在不行,你就自己凭着勇气去实践探索。 交易中不能由一方承受确定性的结果,而由另一方承担不确定性的结果。 风险共担对群体的定义:某空间存在一种机制,即别人会以你对待他们的方式对待你,该空间内还普遍存在一个规范,即个体奉行银律之己所不欲勿施于人的戒条来对待他人。 复杂系统之所以复杂,是因为它无法通过系统部件的功能和状态来预测系统的行为。 去中心化会极大地降低系统的不确定性。 享有自由是以承担风险为代价的,自由从来都不是免费的。 生活是需要付出某种牺牲和承担某种风险的,只有承担了风险并做出了牺牲,那才是你的生活。 利用公职发家致富是不道德的,而且对社会有巨大的伤害。 研究人员应该在现实生活中有另外一份糊口的工作。 一个人的外表和他的财富是互补的,一个人如果很有钱,那么他看起来一定不像你想象中的富人,反之亦然。 真正有知识的人应该看起来不像一个知识分子。 请记住不要使用口头威胁。 你必须自己创业,把自己放到第一线,去开创一项事业。 理性只存在于你的行动之中,而不在你的想法或者你的信仰之中,生存是最大的理性。 你愿意为一个事物承担多大的风险,揭示你对该事物的信任程度。 要想投资成功,你首先得活着。 如果一个随机过程,其过往的历史概率不能适用于其未来的情景,那么这个随机过程就不具有遍历性。 如果一个策略有可能触发爆仓危险,那么无论多大的收益都得不偿失。 理性就是避免系统性毁灭。 不要未拼尽全力的人生 不要相信没有风险的财富机会 不要把问题搞得很复杂却又没有思想深度。 没有风险共担就一事无成。

February 3, 2022

ACES 色彩管理

参考文章 https://docs.blender.org/manual/en/latest/render/color_management.html https://rmanwiki.pixar.com/display/REN24/Color+Management https://www.arri.com/en/learn-help/learn-help-camera-system/camera-workflow/image-science/aces https://github.com/colour-science/OpenColorIO-Configs https://acescentral.com/knowledge-base-2/using-aces-reference-images/ https://opencolorio.readthedocs.io/en/latest/configurations/aces_1.0.3.html 聊聊Gamma修正(Gamma Correction) Table[x^2.2, {x, 0, 1, 0.1}] {0., 0.00630957, 0.0289912, 0.0707403, 0.133209, 0.217638, 0.325037, \ 0.456263, 0.612066, 0.79311, 1.} Table[x, {x, 0, 1, 0.1}] {0., 0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9, 1.} Table[x^(1/2.2), {x, 0, 1, 0.1}] {0., 0.351119, 0.481157, 0.578533, 0.659353, 0.72974, 0.792793, \ 0.850335, 0.903545, 0.953238, 1.} #^2.2 & /@ Table[x^(1/2.2), {x, 0, 1, 0.1}] {0., 0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9, 1.} 初步了解下gamma函数,从上述的表达式中可以看出,通过gamma函数2.2得到的变换,我们可以通过反gamma函数 1/2.2,将输入和输出保持在线性关系上。 ...

January 30, 2022

Matte Painting 电影里的魔术师

摘要 这是一篇2020年的文章,当时记录了文章的标题之后,内容就没有提笔写了,现在趁着放假的时间对Matte Painting来做一个详细的描述,Matte Painting是一个神奇的领域,在这个领域里我们创造自己脑海里面的奇幻世界。 本文主要介绍Matte Painting的历史以及Matte Painting的技术。 历史 维基百科Matte Painting 遮景绘画是对风景,布景,以及远景的绘画表现,通常可以使得电影创作者可以在电影中创造出在拍摄地点不存在的环境,将绘画的图像与实拍镜头结合起来,根据艺术家和技术人员的技能水平,在最好的情况下,整个效果是无缝的,镜头不存在穿帮,如果不使用遮景绘画则整个拍摄过程将是非常昂贵的,甚至是无法拍摄完成的。 根据电影画面的需求,为了拍摄导演脑海中的画面,Matte Painter需要移除原场景中无关的物体,绘画出符合电影创作需求的画面,上图中,为了添加原拍摄画面背景中天空和房屋的细节,通过遮罩Mask(黑色部分)将不需要的场景遮挡住,然后通过绘画将细节缝合到实拍的场景中,从而达到最终的影片效果。 第一个在电影中使用遮景绘画的是早期美国电影导演Norman Dawn,他通过玻璃上作画来创造实拍无法完成的场景。 在玻璃上绘画是一件苦差事,摄影机三脚架固定在离被拍摄场景的固定距离处,距离根据取景的构图来确定,离摄影机不远的地方放置一块玻璃板,相机镜头,胶片,和灯光的组合要产生足够的景深,以保持近景画和背景景观能够完美的聚焦。为了创造绘画本身,Matte Painter通过相机取景器观察并指导助手,助手在玻璃上标出真实景物和绘画区域的融合点,然后艺术家用铅笔在玻璃上画出场景,不断的通过取景器检查绘画和背景元素的结合情况,所需的图像被直接画在玻璃上,通常是用油画颜料,使用与背景景物完美融合的色调。在绘制图画时,艺术家必须判断在一天要拍摄的场景中,光和影是如何变化的。并且在绘画完成之前,摄影机和玻璃,其中的任何一个有移动,就会产生绘画元素和背景偏离。于是,Norman Dawn发明了另外一项技术original negative matte painting,原始底片遮景绘画。 这里只涉及到在拍摄现场只曝光画面中的实景部分,留下一部分未曝光的画面,以便在后面添加绘画元素。与玻璃绘画技法类似,这次不是在玻璃上绘画,而是在玻璃的适当区域画上不透明的黑色以产生遮罩Matte,防止摄影机在拍摄时这些区域被曝光,Matte的边缘是精心设计的,以便它们遵循场景中的自然边界。 拍摄完成的负片会被保存起来,然后在艺术家工作室会有另外一台摄影机充当投影机将拍摄画面的其中一帧影片画面投射到绘景师的画板上,由于之前添加了黑色的遮罩,Matte Painter 会将有画面的部分在画板上涂黑,绘景师可以以此为基础开始在未曝光的遮罩区域进行绘画创作,这样的好处是Matte Painter不再需要现场绘景,在拍摄完成之后再进行绘景工作,为Matte Painter提供了便利。在艺术家完成创作之后,当绘画与原始底片上的实景拍摄能够完美契合时,原始负片就会被装入摄影机,进行二次曝光拍摄,原来的黑色未曝光区域就会被画板上的画替代,真实场景的拍摄画面因为已经被黑色的画板区域阻挡不会再被曝光。通过遮挡的二次曝光也就有了一个完整的场景底片,最后冲洗完成,整个绘制场景和真实场景也就完美结合在一起了。同时这种绘制方式也存在着缺陷,因为需要对底片进行两次曝光,存在着毁坏原始底片的风险。 在1920年中期,Bi-pack contact matte printing是在原负面绘景的基础上做出的改进,首先是实景拍摄,这个时候不需要在使用玻璃画板了,然后取拍摄底片中的一帧做为投射画面将其投射到艺术家工作室的玻璃画板上,Matte Painter在玻璃上开始绘画,完成后的绘画玻璃板放在白色幕布和摄影机之间,用灯打亮白色幕布,摄影机内部装有两卷胶片,一卷是未曝光的新胶片,一卷是原始拍摄的底片,现在重新拍摄工作室内的Matte场景,由于玻璃画板处于暗处,欠曝光,所以最后最后对原始底片进行拷贝时,新胶片上的底片会除去绘景部分,这也就形成了原负片绘景中的黑色区域,最后再对上面一部得到的新拷贝底片进行二次曝光,这时原来的白色幕布换成黑色,打亮绘景玻璃板,熄灭黑色幕布的背景灯,这样就得到了最终绘景和实际拍摄的合成底片。 后来背投绘景技术也开始流行起来,它已经非常接近现代数字绘景技术,一台摄影机进行场景投射,一台摄影机用于拍摄最终的画面。将原始拍摄的场景底片洗印出来,然后装入投射摄影机,将实景画面投射到幕布上,然后在投射摄影机的另一方向上放置一台用于最终拍摄的摄影机,在贴近幕布拍摄摄影机的一侧放入绘画玻璃板,然后绘景师在玻璃板上作画,最后使用摄影机重新拍摄,最终就合成了绘景之后的画面。这一种技法比Bi-pack contact matte printing技法而言,没有再对原始底片进行二次处理,避免了底片损坏从而不得不重新拍摄场景的高昂代价。 当摄影机产生运动时,由于绘景师绘制的图像是基于2D的,运动的画面会带来透视的错误,为了产生正确的透视,绘景师会采用实体模型的方式来进行实景拍摄, Peter Ellenshaw - Matte Painter movie 数字世界 现在我们将进入数字世界,在数字的世界里我们的工具库是丰富多彩的,通过数字合成程序,我们可以立即查看合成画面的效果,创建遮罩,将大量的实景照片应用于场景绘制中,创建真实场景的光影和3D模型,种种的技巧使得传统的绘景技术被Digital Matte Painting 数字绘景所取代。 关于Digital Matte Painting的技法,有兴趣想要学习DMP的爱好者,我推荐五门课程用于学习和研究: Concept Art for Production CGMA Matte Painting Master Class 3D Matte Painting Tutorial ...

January 25, 2022