Flex3D是Meta的GenAI团队和牛津大学研究团队推出的创新的两阶段3D生成框架,能基于任意数量的高质量输入视图,解决从文本、单张图片或稀疏视图图像生成高质量3D内容的挑战。第一阶段,基于微调的多视图和视频扩散模型生成多样化的候选视图,用视图选择机制确保只有高质量和一致的视图被用于重建。第二阶段,用灵活重建模型(FlexRM),一个基于transformer架构的模型,能处理任意数量的输入视图,并直接输出3D高斯点实现高效、详细的三维生成。Flex3D在3D重建和生成任务中实现最先进的性能,用户研究胜率超过92%。


全部评论
留言在赶来的路上...
发表评论