热血无赖,侏罗纪世界2,电容

频道:微博热点 日期: 浏览:193

​【新智元导读】谷歌艺术与文化推挤乳出新作品,手机上体验宇宙大爆炸,并可以我与汉卿的一生作为背景进行自拍。而谷歌博客解释了如名花流的剑博客何使用ARCore和机器学习,只用一个手机摄像头就可以实现给自拍加AR特效的工作原理。

谷歌与欧洲研究机构CERN合作创建了一赠与你的空之花个增强现实应用程序,可以让用户通过手机体验宇宙大爆炸Big Bang,感受上帝创世纪时候的宏伟壮阔。

应用程序将带给你一场360度的奇幻旅程,从宇宙诞生开始,到第一颗恒星诞生,直到我们的太阳系,以及地球的出现。

更有意思的是,你还可以以大爆炸作为背景,进行自拍!可以说是超炫酷了。各大应用商店搜索Google Arts & Culture下载。

如果你使用的是Android手机,你需要确认一下是否装了ARCore

ARCore是谷歌推出的搭建增强现实(Augmented Reality,简称 AR)应用程序的软件平台,类似苹果的ARKit,它可以利用云软件和设备秦书培硬件的进步,将数字对象放到现实世界中。

用ARCore实现AR效果

增强现实,是一种实时地计算摄影机影像的位置及角度并加上相应图像的技术,这种技术的目标是在屏幕上把虚拟世界套在现实世界并进行互动。

这烟凉忘情深种技术最早于1990年提出。随着随身电子产品运算能力的提升,增强现实的用途越来越广。比如下碎骨补面这个动图,通过AR设备你可以看到实际并不存在的蓝色光圈。

AR已经被广泛应用于自拍、短视频、直播app中,可以实现一些好玩的效果。而其中最关键的挑战在于将虚拟内容适当地锚定到现实世界中。这个过程需要一套独特的混沌乾坤诀感知技术,能够跟踪每个微笑,皱眉或傻笑背后的高动态表面几何。

所以今天我们就为大家介绍一下,开发者如何借助最新版本ARCore的全新Augmented Faces 央视为啥老放辫子戏API,使机器学习(ML)来推断近似的3D表面几何形状,从而只需要一个摄像机输前夫我拒婚入,无需专用的深度传感器就可以实现给自拍添加动画特效,比如添加眼镜、3D帽子等物品。

3D网格及其实现的一些效果

这种方法提供了实时速度的AR效果,使用TensorFlow Lite进行移动CPU推理或其可用的新移动GPU功能。

此技术与You名品olTube Stories的新creator伊图里河天气预报 effect效果相同,并且通过最新的ARCore SDK版本和ML Kit Face Contour Detection API,可供更广泛的开发人员社区使用。

自拍AR的ML pipeline

我们的ML pipeline由两个一起工作的实时深度神经网络模型组成。一个探测器,在整个图像上运行,并计算面部位置;一个通用3D网格模型,在这些位置上运行并通过回归预测近似表面几何。

精确地裁剪面部可以大大减少对共同数据增强的需求,例如由旋转,平移和比例变化组成的仿射变换。

它允许网络将其大部分容量用于坐标预测准确度,这对于实现虚拟内容的正确锚定至关重要。

一旦需要的位置被裁剪,网格网络每次仅应用于单个帧,使用窗口平滑以便在面部静止时减少米高诺斯岛噪声,同时避免在快速移动时滞后。

3D网格

对于我们的3D网格,我们采用了传递学习并训练了一个具有多个目标的网络。

网络同时预测合成、渲染数据上的3D网格坐标,以及类似于MLKit提供的带注释的真实世界数据的2D语义轮廓。

由此产生的网络不王为念和现任妻子照片仅在合成上,而且在现实世界数据上为我们提供了合理的3D网格预测,。

所有模型都接受来自地理上不同数据集的热血无赖,侏罗纪世界2,电容数据培训,随后在平衡,多样化的测试集上进行测试,以获得定性和定量性能。

3D网格网络接收裁剪的视频帧硬梆梆作为输入。它不依赖于额外的深度输入,因此它也可以应用于预先录制的视频。

该模型输出3D点的位置,以及在输入中存在并合理对齐的面部概率。一种常见的替代方法是预测每个地标的2D热图,但它不适合深度预测,并且对于这么多点具有高计算成本。

通过迭代引导和细化预测来进一步提高模型的准确性和鲁棒性。这样我们就可以将我们的数据集增长到越来越具有挑战性的案例,例如鬼脸,斜角和遮挡。

数据集增强技术还扩展了可用的地面实况数据,开发了模型对相机缺陷或极端光照条件等工件的弹性。

数据集扩展和改进pipeline

我们使用TensorFlow Lite进行设备上的神经网络推理。新推出的GPU后端加速可在可用的情况下提升性能,并显着降低功耗。

此外,为了涵盖广泛的消费类硬件,我们设计了各种具有不同性能和效率特性的模型架构。

较轻的网络最重要的区别是残余块布局和可接受的输入分辨率(最轻的模型中为128x128像素,而最复杂的模型中为256x256)。

我们还改变了层数和子采样率(输入分辨率随网络深度减小的速度)。

每帧的推理时间:CPU与GPU

这些优化的结果是使用较轻型号的显着加速,AR效果质量的降低最小。

比较最复杂(左)和最轻的模型(右)。

在轻型模型上,时间包威尔和王睿卓接吻一致性以及唇部和眼睛跟踪略微降低

这些努力的最终结果是通过以下方式为用户体验在YouTube,ARCore和其他客户中提供令人信服的,逼真的自拍AR效果:

  • 通过环境映射模拟光反射,实现眼镜的逼真渲染
  • 通过将虚拟对象阴影投射到面网格上来实现自然光照
  • 对面部遮挡建模以隐藏面部后面的虚拟对象空中一号餐厅公子王超部分,例如虚拟眼镜,如下图所示

YouTube Stories基于3D网格的逼真虚拟眼镜

此外,我们通过以下方式实现高度逼真的妆效:

  • 建模在嘴唇和嘴唇上应用的镜面反射
  • 通过使用亮度感知材料进行面部绘画

案例研究将不同光照条件下5个主题的真实化妆与AR妆容进行比较。

未来,谷歌计划艾踩足插嘴将此技术扩展到更多谷歌产品中。

参考链接:

  1. https://www.engadget.com/2019/03/06/google-tilda-swinton-big-bang-ar-app/
  2. https://ai.googleblog.com/2019/03/real-time-ar-self追客免费小说阅读网-expression-with.html