对AR/VR和神经界面的检查将为未来的元素奠定基础
(yingweis.com nweon 2022年10月12日)AR/VR和神经界面的研究将为未来的人类宇宙奠定基础,但这是事实。对于现实劳动者的首席科学家迈克尔·艾布拉什(Michael Abrash)的指导,这项研究需要几年的时间来与消费者见面,并不是每个人都可以去美国华盛顿的现实实验室。 Reendon的实验室经验。
但是证据在于产品。很快,您可以亲自体验任务专业人士,并作为团队研究结果的一部分,例如手动跟踪和光学煎饼模块。这两个项目都始于研究项目,经过多年生产实验室原型,研究和产品团队最终可以将技术带入整个人。
当然,团队将继续感到惊讶。 Reality Labs将发明一个全新的计算平台,该平台基于人,联系和关系。在Meta Connect会议上,亚伯拉(Abrahh)与首席执行官马克·扎克伯格(Mark Zuckerberg)分享了现实劳动者研究的最新进展。以下是一定的改进:
1.下一代接口
随着过去半个世纪的计算机的开发,PC,笔记本电脑,平板电脑和智能手机都得到了创建。图形用户界面(GUI)在很大程度上定义了人们在数字世界中的经验,以便获得新的选择。但是,如果我们期待未来的AR眼镜和下一代VR头,我们将看到需要改变人类计算机的交互模式,这有助于这样一个事实,即在不同情况下可能发生的新设备一天,扮演角色。同时,他们使他们能够完全生活在现在,并专注于世界各地的人和事物。
对于新的输入方法(使用肌肉图(EMG)进行手腕相互作用时,MEA赌注),元的未来前景必须与未来的设备(尤其是AR眼镜)一起工作,以感知和重建周围的世界。并了解设备环境的个性化人工智能。有了这种理解,人工智能就可以提出建议并采取适当的措施来完成任务(理想,您甚至可能没有注意到)。
组合个性化的人工智能与心电图:电心电图直接用作手腕的神经量像信号的输入信号,因此您具有直观的,几乎没有摩擦极限。这将是真正面向人类的第一个接口,有时因为它不会迫使人们学习新型的控制解决方案。相反,如果您使用它,将来的设备将学习并适应您。通过将机器学习与神经科学相结合,将来将来的界面应用于各个员工,同时通过称为“学习适应”的过程来解释其在生理和大小上的差异。
在第一个演示内容中,您可以看到有两个基于手腕的心电图玩街机游戏的人。尽管他们都在游戏中使用相同的手势进行控制,但他们的手势设计方法有些不同。每次手势之一时,算法都会适应该特定人的信号,因此所有人的自然手势都可以快速可靠。换句话说,随着时间的推移,系统可以更好地理解它。协作适应的潜力不仅限于完整的手势,还包括微蛋糕。该算法可以学习如何实时对肌肉的电信号反应,即被激活并发送到手上的肌肉信号的人,只有手的轻微运动。
系统可以解码腕带并将其转换为数字命令,以识别用户应执行的操作。这样,您几乎可以在没有想要实现的手工艺品的情况下传达要达到的动作。由于GUI标志着我们与计算机互动的巨大变化,因此EMG可以完全改变与数字世界的互动方式:我们不仅可以做更多的事情,而且可以实现自己想要的方式。在连接会议上,扎克伯格(Zuckerberg)展示了可以通过Motoneuron信号控制AR/VR设备的演示内容。
通过微妙的动作,您可以显示信息和图像等等。越微妙的手势,体验就越平稳,更容易。您可以完成操作而无需拔出手机。
这仅仅是开始。个性化Ki数字助理获得积极的帮助。他们将共同提供一种更自然和以人为本的方法,并可以带给我们没有预期的新机会。
这种未来的表面确实会改变我们的生活。鼓励人们的一个例子是卡内格隆大学的Navcog项目:受损的帮助者。
2. RealityLabs和Carnegelon University最新情况的最新情况
两年前在Connect Conference上在ARIA项目中进行的现实实验室。这个新的研究项目旨在帮助团队构建第一代可穿戴AR设备。作为公告的一部分,梅塔宣布了卡内格隆大学及其认知性实验室的飞行员,共同从博物馆和机场建造3D卡。该卡具有多种应用,包括在内部内部的视觉障碍患者的支持,因为在内部GPS信号中通常不可用。
今天,现实实验室分享了该项目的最新情况。
NAVCOG是由卡内基·梅隆大学(University of Carnegie Mellon)开发的智能手机应用程序,应该在室内环境中支持视觉障碍。卡内格隆大学的研究人员使用ARIA项目从匹兹堡国际机场绘制3D卡。然后,您可以使用该卡来训练手机上进行的人工智能的本地模型。借助Navcog,人们可以知道他们在机场的位置,而不必依靠机场周围的蓝牙灯光。这是一个重要的发展,因为它表明了最终将NavCog用于大型赢家的最终提供的可能性。
3.将物理物体磨碎到元宇宙中
构建和操作3D对象的能力在元宇宙中起着关键作用。例如,想象一下在Horizon Home中显示出宝贵的遗产,或者在购买实物家具之前通过AR看到相应的效果。从头开始创建3D对象非常困难。使用物理对象比模板更容易,更快。但是,没有无缝的方法可以实现这一目标。因此,现实实验室检查了两种不同的技术来解决这个问题。
第一个方法使用基于神经辐射场(NERF)的机器学习来从不同角度从几个2D图像中重建3D对象的外观。此方法甚至可以重现对象的最佳细节。
尽管需要一定的处理时间,但结果令人印象深刻。质地非常清晰,您可以吸收精致的细节,例如植根的头发。
第二种技术直接记录几何图形和外观。该团队使用各种技术,称为逆渲染 - 反向渲染来扫描对象并将其数字双胞胎带入VR或AR。它可以对VR环境中的照明动态反应。如果将其扔在空中,将其扔在墙上或远离地面,他的反应与真实的反应相同。
两种技术都不能实时运行,并且都有其限制。但是它们都是帮助人们轻松将物理对象转变为虚拟世界的一部分的重要步骤。
4.编解码化头像更新
元宇宙中的阿凡达(Avatar)具有多种样式。但是,如果您真的可以再现并与他人互动?这将是迄今为止最强大的远程连接技术,并创造了真正的社交体验。您会觉得自己和其他人在一起。在2021年,现实实验室分享了编解码器 - 阿瓦塔雷(Avatare)的早期进展。与您可能看到的其他高质量的头像相比,编解码器-Avatars之间的差异是您可以自动生成和驱动时间,这与真实员工的外观和调整相对应。这意味着您不限于预设动作,并且可以实时控制它们。现实 - 场labs正在进一步开发这项技术,在今天的会议上,他们说他们现在可以改变编解码器的虚拟服装。
这意味着将来您会从动作游戏中无缝地跳到重要的商务会议,然后返回您的第一个太空环境,并与Yuan Universe中的朋友或家人一起奔跑。
Meta还展示了她在编解码器Avatars 2.0中的最新进展。相关的研究项目旨在帮助合成的面部表情,这些表达能够真正符合我们的身体形式。
该团队使编解码器Avatare 2.0更具表现力。除了简单的动作(例如看到左侧,右,观看和观察)之外,现实 - 劳动还不整合 - 示意人们依赖相互沟通和理解,例如: B.眉毛,贝壳和睁大眼睛。由于对精致表情的记录更好,编解码器Avatars 2.0现在更加现实和自然。您甚至可以控制编解码器-Avatare 2.0的照明,从而增加了另一个维度的真实感觉。
编解码器 - 阿瓦塔尔令人印象深刻,但是生成它们需要很长时间。因此,现实是为将来必须使用的人们研究更快的解决方案:即时编解码器-aavatars。
与编解码器-Avatare相比,即时编解码器-Avachars更快,更易于创建。扫描只是智能手机和体面的照明。从几个角度扫描面部约30秒钟,然后花90秒在扫描时做出不同的表情。目前已经几个小时了,扫描过程后立即生成了编解码器-Avhars。但是,团队试图缩短总处理时间。
现实实验室在直接的编解码-Avhars中取得了长足的进步。尽管他们的质量和现实主义不如编解码器Avatars 2.0好,但即时的编解码器仍然感觉现实和表现力。由于您只需要手机,因此您更容易受欢迎。
团队强调,这项工作仍处于研究阶段,可能永远不会成为实际产品,也从未成为。但是,这只是对未来五到十年中技术发展的洞察力。现实实验室评论说:“近年来我们的研究为未来发展树立了可靠的基础。”
报告/反馈