驱动自己的机器人

DJI RoboMaster EP 年初我打算花半年时间研究自动驾驶,以及计算机图形学,于是开始调研开发自动驾驶系统的硬件,最先考虑的是nvidia在2019年发布jetson nano平台时开放的jetbot,基本是一台玩具小车,配备3D打印车身,两个小轮子以及一块jetson nano developer kit,一个camera,官方项目地址,考虑搭建整个车子的硬件平台所需要的成本以及可玩性,我决定不考虑类似玩具方案的car robot,最后我瞄准了DJI robomaster EP,因为它开放了完整的SDK,并且整个机器人平台是用于教育比赛而设计的,可玩性非常丰富,自己也不需要过多的去考虑底层硬件的装配。这样我就可以借鉴jetbot的自动驾驶设计,将其移植到robomaster EP上,打造最原始的自动驾驶开发平台。 Coral Edge TPU As Robot Brain 经过一段时间的动手测试,我决定在robomaster EP上采用的硬件方案是raspberry pi 4 + google edge tpu,具体架构如下: 左边是自动驾驶会用到的一些工具,视觉加速芯片我使用的是google edge tpu,相比nvidia Jetson GPU,它的功耗更低,这样在做视觉运算时不会大量消耗机器人有限的电池电量。 右边是需要自己搭建的一个机器学习运维平台,从数据的收集,模型训练以及测试,最后模型部署,都是自动化的。

March 30, 2023

CG319x EIZO

在2020年的时候我写过一篇博客 Renderman24 Will Support Blender,在文章的最后我记录了自己打算购买商业版本的Renderman。经过一年多的时间之后,我实现了自己的想法,为自己配置了图像工作站,购买了具有商业版权的Renderman,最重要的是我也为自己购置了一套EIZO CG319x显示器。准备这些的初衷主要是因为web3.0的崛起,我设想过一个人的自由职业,因为电影行业是通过非常庞大的群体来完成创作的,要让一个人独立完成一部真人电影或者动画长片,甚至短片,那是非常耗时的,因为有很多的技术以及艺术的绊脚石在你面前,你必须一点一滴的克服才能完成影片中的每一个细节。然后我就设想能否通过机器的算法来完成人物环境的设定,在计算机的世界中生成生命和环境,在常规的电影制作中那叫做建模和动画以及场景制作,这些技术都是由技术以及美术人员来完成创作的,计算机只是如实的向观众呈现这些创作。大胆想象如果计算机能够完成这些创作过程,比如动物的蹦跑,模型的材质,抠像,人类的行走,我们不再是通过画关键帧,调试材质,手动绿幕抠像,而是通过计算机对这个现实世界的学习来主动探索这些关键帧,实现对现实世界物体材质的模拟,对画面中人物的精确抠像,那么似乎一个人创作一部精彩的电影是没有问题的。当然这只是个设想,目前技术还达不到这样科幻的地步。 现在就来讲讲CG319x-4k HDR Monitor,它由EIZO公司生产和发行,在2021奥斯卡科学与技术的颁奖典礼上,EIZO获得了科学技术奖。有很多的电影动画以及视效公司在使用EIZO的CG显示器,包括ILM(工业光魔),Pixar,MPC FILM,DNEG(Dune 2021的视效团队)。EIZO官方介绍 Academy of Motion Picture Arts and Sciences,Oscars SCIENTIFIC & TECHNICAL AWARDS 2020。对于工具我的认知是尽量购买自己能力范围内最好的,并且也要考虑工具的保值程度,在购买CG319x的时候我也综合考虑了这两方面,使用好的工具将精力投入到学习和创作中,我觉得付出再多的价钱它也是值得的,因为它会给你带来双倍的回报。通过这款显示器,我希望自己能够做到的是不断地去观察周围的自然世界,然后将其精细的展现在数字世界中,就犹如画家通过手中的画笔来展现他所看到的世界,这也是我的目标。

February 16, 2022

无线电领域的黑客工具 HackRFOne

July 2, 2020