LRM-革命性的AI模型-Adobe-实现从2D样本快速生成3D图像 (革命revolution)
引言
由Adobe Research和澳大利亚国立大学(ANU)联合研发的AI模型宣布了一项突破性的成果,能够从一张2D图像中生成3D图像。研究人员表示,他们的新算法在大规模图像样本上进行训练,可以在几秒钟内生成这样的3D图像。
算法原理
该算法采用名为LRM(Large Reconstruction Model)的高度可扩展神经网络,包含一百万数据集和五亿参数,涵盖图像、3D形状和视频等多种数据。
Yicong Hong是澳大利亚国立大学工程、计算和控制学院的毕业生、Adobe实习生,他表示:"这种高容量模型和大规模训练数据的结合使得我们的模型具有很强的泛化能力,能够从各种测试输入中产生高质量的3D重建。"
突破性进展
据Hong介绍,早期的3D成像软件只在特定主题类别中表现良好,后来的图像生成进展是通过程序如DALL-E和Stable Diffusion实现的,它们利用了2D扩散模型的卓越泛化能力以实现多视图。
这些程序的结果仅限于预训练的2D生成模型。其他系统利用每形状优化来取得令人印象深刻的结果,但根据Hong的说法,它们通常缓慢且不切实际。
他指出,利用大规模数据的巨大变压器网络内的自然语言模型的发展激发了他的团队提出一个问题:是否可能学习从单一图像重建对象的通用3D先验?他们的答案是肯定的。
LRM模型
LRM可以从现实世界中捕获的各种图像以及由生成模型创建的图像中重建高保真度的3D形状。Hong说道,LRM也是下游应用的高度实用解决方案,因为它可以在仅五秒钟内生成一个3D形状,无需后期优化。
该程序的成功在于其能够利用数百万图像参数的数据库,并预测神经辐射场(NeRF)。这意味着它能够仅基于2D图像生成逼真的3D图像,即使这些图像是低分辨率的。
应用领域
与之前的3D软件相比,该模型的突破性在于其快速、高效地生成高质量的3D图像,为增强现实、虚拟现实系统、游戏、影视动画和工业设计等领域带来了转变。
LRM的主要功能
- 快速生成:LRM能够在短短5秒内,从单张输入图像中生成高保真度的3D物体模型。
- 大规模训练:与许多先前的方法不同,LRM采用了高度可扩展的基于transformer的架构,具有5亿个可学习参数,用于直接预测神经辐射场(NeRF)。
- 数据多样性:模型以端到端的方式在包含大约100万个对象的大规模多视图数据上进行训练,包括Objaverse的合成渲染和MVIm的实际捕捉数据。
- 高通用性:由于高容量模型和大规模训练数据的结合,LRM具有很强的通用性,能够从各种测试输入中生成高质量的3D重建,包括真实世界中的野外捕捉和生成模型的图像。
- Transformer-Based架构:LRM采用了完全可微分的transformer-based编码器-解码器框架,通过预训练的视觉模型(DINO)对输入图像进行编码,使用大型transformer解码器通过交叉注意力将图像特征投影到3D三平面表示,然后通过多层感知器预测体积渲染的点颜色和密度。
项目页面
更多信息请访问项目页面:
总结
LRM(Large Reconstruction Model)是一种用于从单张图像生成高保真度3D物体模型的模型。LRM通过采用大规模数据和高容量模型的组合,实现了从单张图像到3D模型的快速而准确的重建。
这个AI能帮女朋友自拍:照片生成3D视频,总有个角度让她满意
爱自拍的女生,为了拍一张美照总是需要很久,就是为了找到最美的角度。
比如这位妹子,在自己的书架前拍了4张自拍照,都不太满意。
现在可以把选最美角度这件事交给AI了,让妹子不再苦恼。只要几张照片,它能从中生成各种角度的自拍。
然后,你可以在AI生成的视频里,找到一个自认为最美的角度,分享到朋友圈。
这个AI就是华盛顿大学和谷歌联合开发的 nerfies 。
这种方法不需要太复杂的设备,只要智能手机的摄像头和CPU就能完成运算和渲染。这可比iPhone 12 Pro用内置激光雷达来生成3D图像的成本低多了。
看到nerfies这个名字是不是有种似曾相识的感觉?nerfies其实就是NeRF+Selfies两个单词合并而来。
NeRF (神经辐射场)是谷歌最近开发的一种2D图像转3D的模型,但NeRF要求拍摄对象在整个过程保持完全静止。
比如,上面的妹子在自拍4张照片的时候,头部姿势不可避免地会发生变化,如果直接套用NeRF,效果惨不忍睹。
而nerfies则是 可变性神经辐射场 (Deformable NeRF),它能够重建非刚性变形的场景。
在NeRF的基础上,作者从几何和物理模拟的原理出发,提出了NeRF的弹性正则化,进一步提高了2D转3D的鲁棒性。
在可变性NeRF中,作者引入了弹性正则化、背景正则化以及一种可避免不良的局部最小值退火技术。
作者将潜在变形码(ω)和外观码(ψ)与每个图像关联。在观测帧中对摄像机光线进行追踪,并使用变形场将样本沿光线转换到规范帧,变形场由变形码ω编码为MLP。
另外使用转换后的样本位置(x0,y0,z0)、观察方向(θ,φ)和外观码ψ作为MLP的输入,来查询模板NeRF模块,并沿着光线对样本进行积分。
可变性NeRF不仅可以用于自拍,还有更多好玩的用途。
比如创建“希区柯克变焦”的效果,过去需要专门的摄影技巧,或者是通过由远及近的拍摄视频再后期处理。现在只要几张照片就可以了。
如果不需要场景角度变化,而是需要人物姿势变化呢?
可变性NeRF能在头向左和向右之间线性插入任意姿势的照片。
最后还有一个用途是生成防抖视频。既然可变性NeRF可以生成任意角度的图像,那么现在可以让手负责抖,而让它负责稳了。
目前作者还没有公布源代码,不过他们的项目主页上已经放上了GitHub的按钮,看来他们已经准备开源了。你是不是迫不及待想试一下呢?
项目地址:论文地址:—完—
量子位年度AI峰会「MEET 2021智能未来大会」定档12.16!李开复博士、尹浩院士、清华唐杰教授,以及来自小米、美团、爱奇艺、华为、小冰、亚信、浪潮、容联、澎思、地平线、G7等知名AI企业的嘉宾将出席并带来主题演讲。
欢迎关注人工智能、前沿 科技 的朋友报名参会,共探新形势下智能产业发展之路。点击链接锁定席位:
AdobeAI结合MAYA制作立体字,方便快捷,比PS自带的3D功能好用!
MAYA软件是Autodesk旗下的著名三维建模和动画软件。AutodeskMaya可以大大提高电影、电视、游戏等领域开发、设计、创作的工作流效率,同时改善了多边形建模,通过新的运算法则提高了性能,多线程支持可以充分利用多核心处理器的优势,新的HLSL着色工具和硬件着色API则可以大大增强新一代主机游戏的外观,另外在角色建立和动画方面也更具弹性。关于maya的强大,其实我相信众多小伙伴也有一定的了解,但是对于软件的掌握以及使用,可能不少小伙伴还在抓耳挠腮!没关系,想要学会使用maya,来就是找对地方了。丰富的maya精品视频课程,带你逐一攻破软件基础到进阶的操作
maya热门视频教程精彩推荐:
软件入门:Maya2022游戏建模入门教程
室内设计:MAYA2018完全零基础入门教学
软件入门:MAYA2018-MAYA2018介绍和安装
室内设计:MAYA2018零基础渲染教程
AdobeAI结合MAYA制作立体字,方便快捷,比PS自带的3D功能好用!
想必大家都觉得PS的【3D】功能是个鸡肋,首先不说样式少,而且难控制,最重要的是渲染速度超级超级慢!想要专业还想要速度,那今天我就给大家推荐一个方法吧,用AI结合Maya快速出效果。
我们先在AI中建立画布,并用文本工具输入好你需要的文字,然后调整好适合的字体、字体大小、字体间距,然后我们鼠标右键单击字体,弹出菜单选择【创建轮廓】(具体操作请看图)
创建好轮廓之后,你会发现每个字体轮廓生成出了【路径】,随后我们全选文字,执行另存为命令,格式不用改
选好储存位置后点击【保存】会弹出设置菜单,这里只需要去掉【启用压缩】选项前面的【√】就行,然后储存。
启动MAYA,以此选择【文件】-【导入】-文件格式选择为【AdobeIllustrator(*)】,即可导入AI文件,导入成功后会发现文字曲线,这时候直接选择【倒角+】命令进行为曲线生成模型,随后就可以发挥你的创意,调节材质等等,进行渲染了,推荐使用【MAYAofV-Ray渲染器】因为这个渲染器速度快,材质效果好。
嗯嗯我随便渲染了两张效果图,渲染的不好,请见谅哈
如果有什么不多的地方尽管私信,看到之后一定会回复您的
那么,今天的“AdobeAI结合MAYA制作立体字,方便快捷,比PS自带的3D功能好用!”就分享到这里结束啦!大家学习一定要多看、多练、多想、多学,希望大家都能够早日学会maya制作!!在这里,还为大家提供更多的课程学习,点击链接:
免责声明:本文转载或采集自网络,版权归原作者所有。本网站刊发此文旨在传递更多信息,并不代表本网赞同其观点和对其真实性负责。如涉及版权、内容等问题,请联系本网,我们将在第一时间删除。同时,本网站不对所刊发内容的准确性、真实性、完整性、及时性、原创性等进行保证,请读者仅作参考,并请自行核实相关内容。对于因使用或依赖本文内容所产生的任何直接或间接损失,本网站不承担任何责任。