苹果公开了其AI研究的第一个大图像数据集

图片

关于更多机器学习、人工智能、加强现实、Unity、Unreal资源和技术干货,能够关注公众号:AIRX社区git

来啦来啦,苹果近日公开了其AI研究的第一个大图像数据集,带有1.9TB标签的74K高分辨率HDR计算机生成的逼真的室内场景图像:Hypersimgithub

图片

Hypersim:用于总体室内场景理解的真实感合成数据集markdown

对于许多基本的场景理解任务,很难或不可能从真实图像中得到每一个像素的地面真相标签。苹果经过引入Hypersim(一种用于真实室内场景理解的逼真的合成数据集)来解决这一问题。为了建立此数据集,苹果利用由专业艺术家建立的合成场景的大型存储库,并生成461个室内场景的77,400张图像,并带有每一个像素的详细标签和相应的地面真实几何形状。数据集包括:app

(1)仅依靠可公开得到的3D资源;机器学习

(2)包括每一个场景的完整场景几何图形,材质信息和照明信息;oop

(3)包括每一个图像的密集的每像素语义实例分割;学习

(4)将每一个图像分解为漫反射率,漫射照明,用于捕获与视图有关的照明效果。人工智能

图片

这些功能一块儿使数据集很是适合须要直接3D监督的几何学习问题,须要在多个输入和输出模态上共同进行推理的多任务学习问题以及逆渲染问题。项目地址:spa

github.com/apple/ml-hy…code

相关文章
相关标签/搜索