面向线下VR娱乐,Teslasuit将在CES 2019亮相触觉反馈动捕服

Teslasuit将在当地时间8日-11日举行的CES 2019大会进行正式亮相。这家公司将携同名产品参展本届大会,并提供多种面向创意端和终端用户的交互式娱乐解决方案。

Teslasuit搭载了完整的触觉反馈,能够根据场景中的事件提供相应的震动感觉。这家开发商为开发者提供了一个巨大的触觉反馈数据库,以及一个SDK捆绑包,支持他们自动或手动激活一系列的触觉反馈。这意味着套装可以根据屏幕事件进行响应,又或者是由开发者自定义体验,提供定位性,半身或全身反馈。

Teslasuit的另一个亮点是,分布于套装各位置的11个全身运动传感器可以支持动捕,兼容Windows,Linux,Mac和Android。这意味着套装可以集成至动作游戏之中,而我们已经看到拳击游戏出现了类似的集成,但Teslasuit显然能够帮助一系列的游戏提升一个档次。对于有意将其用于动捕的用户,Teslasuit已经提供了Unity,Unreal和Motion Blender的支持。

除了触觉反馈和动捕支持之外,Teslasuit同时提供了温度控制和生物统计系统,允许你近乎实时地改变温度和实现动态的温度平衡,同时统计一系列有用的生物数据。

Teslasuit即将在CES 2019亮相他们的运动追踪套装,但你同时可以访问他们的官网了解更多的信息。

三星公布CES 2019 即将展示的8个新项目

近日三星公布了一系列将在CES 2019期间将展示的开发项目,三星C-Lab将为展览带来八个新项目,其中包括针对某些领域的专业人士和日常家用电器的多媒体开发。

Tisplay是一种用于strymer的AR应用程序。现在,为了在广播中宣传一些东西,你不需要等待合适的merch出现。Tisplay允许将任何东西,包括广告信息和图片,直接放在主持人的衣服上。

aiMo是一种用于录制ASMR音频的设备。你不需要如何专业设备,只需一个智能手机和一个定制的模拟人耳。即使是在嘈杂的房间或街道上,只要通过人工智能分析和处理声音后,录音就会更加真实,有质量。

MEDEO是一个应用程序,可以在社交媒体上快速制作视频片段。提高图像质量、添加特效、音乐或在视频中添加另一个视频只是程序功能的一部分。

PRISMIT是一种阅读新闻和搜索先前事件的服务。当用户打开下一条新闻时,特殊的AI算法会独立分析文本并查找与其关联的其他信息。

Perfume Blender是一个软件,允许用户自己创建一种香水。为了让人工智能提供建议,只需拍摄一瓶你最喜欢的香水,应用程序就会产生几个可能的选择。

Girin Monitor Stand是一款智能显示器支架,可以调节显示器的角度。如果配件已经注意到用户正在破坏他的姿势,则它开始自动调节屏幕的位置,使人们将位置改变为更舒适的姿势。

Alight是一款看似普通的台灯,配有自己的人工智能算法,能够分析房间内的照明水平并将其调整到最佳值。这样做是为了让主人不会影响视力。 例如,在黑暗中阅读。

SnailSound是一种专门针对听力受损的人而设计的的耳机应用程序。它会让主人更清楚地听到声音。

以上就是三星公司在博客中的对八个项目的介绍了,相关细节请关注CES2019三星展会 。

图文出自:4pda.ru

开发者展示动捕系统Chordata,希望能适用于更多人

开发者Bruno Laurencich正在研发一款适用于所有人的动捕系统Chordata,而产品迄今为止的效果十分优秀,足以入围Hackaday人机界面挑战赛(Hackaday Human Computer Interface Challenge)的决赛圈。Laurencich最初只是单纯希望捕捉舞台演员的数字表演,而他现在已经向社区进行了分享。电路板配置文件和软件已经作为alpha形式公开,而且开发者提供了一定的指引(Laurencich随后将提供更为详细的文档信息)。

 

搭载15个传感器的电路板名为K-Ceptors,其连接至设备的不同点上,每一个包含LSM9DS1 IMU。K-Ceptors彼此相连,并同时提供了足够的移动自由。设备通过I2C与Raspberry Pi进行通信。然后,Pi将通过WiFi把采集的收据发送至PC。随着你的移动,人体图像的3D模型将实时跟随,并通过Blender显示在桌面屏幕上。这些数据可以用来做什么?令机器人随你起舞?

注意,最新的日志条目指出,每当你更改K-Ceptor电路板时,你需要同时制作15个才能进行测试。为了解决这个问题,团队正在研发一个测试平台并在完成后马上推出。
from:映维网

开发者利用iPhone X和Xsens惯性动捕技术实现全身动捕

第三方应用开发商和创作者一直在探索原深感摄像头的可能性

iPhone X及其原深感摄像头和面部识别软件面世尚不足一年时间,而自这台手机上市以来,第三方应用开发商和创作者就开始在探索原深感摄像头的可能性。

如果你好奇iPhone X能否用于动捕,你可以体验一下由洛杉矶VR工作室Kite & Lightning联合创始人科里·斯特拉斯堡(Cory Strassburger)首创的一种技术。利用iPhone X和Xsens惯性动捕技术,科里证明了你可以实现全身动捕,包括面部表情,其中最终动画角色可通过IKINEMA LiveAction进行直播。这一切都能在实时进行,正如视频所示。

这种方法依赖于DIY动捕头盔,以一台iPhone X对准用户的面部,通过Xsens MVN系统和IKINEMA LiveAction来直播,并在Unreal中重新校准动作。通过这种设置,用户可以随时随地地开演。另外,科里将在今年的Siggraph大会演示这项技术。

开发者利用iPhone X和Xsens惯性动捕技术实现全身动捕

如果你对面部捕捉感兴趣,你可以尝试一下Live Face。由Realallusion于6月发行的免费应用直接将面部追踪数据实时馈送给Mac或PC,将你的iPhone X作为热点,连接到计算机并通过Wi-Fi追踪脸上的数据点。

需要注意的是,终端数据是由Reallusion的CrazyTalk Animator 3套件接收和处理。目前Live Face仅兼容这款软件,意味着你需要首先在App Store上花费89.99美元的价格来购买CrazyTalk Animator 3套件。

另一个面部捕捉的选择是Maxon的CV-AR。这款免费应用同样在6月发行,软件捕获你的面部动画并将其发送到C4D,包括纹理和声音,而数据则存储在本地应用程序。

CV-AR

这款应用程序旨在令面部动画的捕获和传输尽可能无缝和轻松。你只需扫描二维码即可进行传输,没有热点或USB选项。

一个更低调的版本是来自独立开发者Niels Jansson的Face Cap。这非常有趣,因为它的输出不仅可以用于C4D,还可以用于Lightwave 3D,Autodesk Maya,Houdini和Blender。

借助Face Cap,你可以录制50种不同的面部表情,录制持续时间最长为10分钟。它将通用网格,混合形状和动画导出为Ascii-fbx,并提供本机IOS共享界面,这样你就可以通过电子邮件发送内容。

* 文章来源自映维网,原文链接:https://yivian.com/news/49071.html

Reallusion推出动捕系统iClone Motion LIVE,可混合不同装置进行全身动捕

Reallusion推出了一种全新的多设备动捕系统iClone Motion LIVE

Reallusion推出了一种全新的多设备动捕系统iClone Motion LIVE,其允许用户使用不同的动捕装置来混合和捕捉脸部,身体和手部。Faceware,Xsens,Perception Neuron,OptiTrack以及Leap Motion现在都可以集成到这个全新的技术混合平台之中,并通过Reallusion iClone进行实时运动追踪。

Motion LIVE可以为自定义导入的角色或完全操纵的3D角色设置动画。简单的工作流程和直观的即插即用系统可以同步多个动捕设备,然后用于虚拟制作,演出动画,电视直播和网络广播。

Reallusion推出动捕系统iClone Motion LIVE,可混合不同装置进行全身动捕

Motion Live主要特色:

  1. 捕捉与浏览实况表演:Motion LIVE使演员和房间中的其他人能够实时浏览所有的3D角色捕捉。演员和导演有能力浏览和回应表演,更好地模仿他们描绘的CG角色。
  2. 为面部,身体与双手同步全身动捕:Motion LIVE是一种全身动捕解决方案,支持行业标准的动捕技术。只需点击几下即可连接热门的设备,实时控制单个或多个角色。自2016年Perception Neuron Mocap插件和2017年Faceware Facial Mocap插件取得成功以来,Reallusion在2018年的合作伙伴名单增加了Leap Motion,Xsens,Rokoko,Apple和Optitrack。
  3. 为多个角色进行动捕:iClone Motion LIVE界面令演员可以选择和分配角色。你可以使用单个演员控制多个角色表现,或使用多个演员捕捉多个角色表演。iClone Motion LIVE可以捕获和追踪同样多的演员,同时能够实时渲染角色的动画。
  4. 用于实况动画的全身动捕:Xsens MVN Link与MVN Awinda与Motion LIVE无缝集成,能提供经过行业验证的可靠身体动捕数据。Xsens是一个值得信赖的虚拟制作系统,结合Motion LIVE的集成动捕功,它们允许专业工作室捕捉每个关键时刻,并始终在时间敏感事件中执行结果。
  5. 为角色制作从前臂到手指的动画:Leap Motion Controller的精准手部追踪技术是一个小型USB设备,但拥有强大的追踪性能,可放置在桌面或前额。用户可以马上将PC变成一个前所未有的手部动捕站。
  6. 导出至游戏引擎和动画工具:将自定义3D角色动画导出为FBX,用于游戏和CG制作。iClone角色管道提供自定义导出预设功能,可将来自iClone的角色和动画发送至Unity,Unreal,Maya,3DS Max,C4D,CryEngine和blender。

更多关于Motion LIVE的信息请访问Reallusion官网。

* 文章来源自映维网,原文链接:https://yivian.com/news/49283.html

8.9寸售价600美元 全息显示器Looking Glass登陆Kickstarter开启众筹

Looking Glass一直致力于开发全息显示技术,以改变我们与事物交互的方式。

 

8.9寸售价600美元 全息显示器Looking Glass登陆Kickstarter开启众筹

 

提到全息技术,我们并不陌生。近日,3D全息显示器Looking
Glass登陆Kickstarter开启众筹,可以让用户在其屏幕上看到动态3D视图。

 

美国公司Looking
Glass一直致力于开发全息显示技术,以改变我们与事物交互的方式。继其在2016年公布了首个全息显示模组:Volume后,2017年该公司又发布了HoloPlayer
One开发套件及SDK。而近日,Looking Glass推出了一款专为桌面端全息显示器Looking Glass,3D创作者而设计。

 

8.9寸售价600美元 全息显示器Looking Glass登陆Kickstarter开启众筹

 

工作原理

 

Looking Glass使用了与HoloPlayer
One类似的技术:它们实质上是放置于你眼前的“盒子”——只不过这些内容如今以三维的形式直接浮现在你面前。用户不必佩戴头显,就可以与周围环境交互。

 

8.9寸售价600美元 全息显示器Looking Glass登陆Kickstarter开启众筹

 

Looking Glass外形轻便,可放置于桌面上,能显示60fps动态3D视图。 此外,Looking
Glass创建了45个不同视图的三维模型,并使用双凸透镜从不同角度显示这些视图以创建全息效果,使用户可以查看对象的不同部分,以了解更多细节。

 

这些不同角度的图像,通过HDMI线缆和USB连接到PC,传输到Looking
Glass显示器中,然后内部的光学器件将这些视频信号转换为全彩色、超立体的三维内容,即把3D建模的真实图像投影到“Looking Glass”上。

 

8.9寸售价600美元 全息显示器Looking Glass登陆Kickstarter开启众筹

 

Looking
Glass采用了一种光场和立体显示技术融合的组合技术,并且正在申请专利,这种技术能够以每秒60帧的速度同时显示45种不同的视觉效果。用户可以使用它来查看3D设计,然后再将其发送到3D打印机,比如查看建筑图纸、玩互动游戏或从多个角度查看图稿或动画。

 

8.9寸售价600美元 全息显示器Looking Glass登陆Kickstarter开启众筹

 

硬件/软件配置

 

关于硬件配置,因为要运行3D场景,所以Looking Glass对PC的硬件尤其是显卡的要求很高。Looking
Glass建议至少使用英特尔酷睿i5处理器,4GB内存和Nvidia GTX 1060显卡(加上HDMI端口和USB-C端口)。

 

关于软件方面,The Looking Glass将支持OBJ、FBX、STL和gLTF格式,以及用于直接从Maya发送对象的导出工具。 Looking
Glass还提供开发工具,可以直接在The Looking
Glass上观看诸如Maya、Zbrush、Blender、Tinkercad和Solidworks等3D
CAD软件中的实时对象,这些工具将免费提供给开发人员。

 

8.9寸售价600美元 全息显示器Looking Glass登陆Kickstarter开启众筹

 

Looking
Glass有两种尺寸可供选择:8.9英寸(售价600美元)和15.9英寸(售价3000美元)。其中,8.9英寸版厚度约9.3cm,15.6英寸版本厚度约17.5cm。

 

Looking Glass还承诺,首批发售将于2018年9月开始,限定发售100台,其余设备将于12月份发货。

 

8.9寸售价600美元 全息显示器Looking Glass登陆Kickstarter开启众筹

 

应用

 

Looking Glass不仅提高了性能,而且还通过扩展SDK和应用程序,增强了其作为可用于各种3D应用程序的工具的完整性。

 

The Looking Glass显示器将为某些专业人员带来巨大便利,比如游戏开发人员、产品设计师、工业工程师和建筑师,以使其查看3D模型视图。

 

8.9寸售价600美元 全息显示器Looking Glass登陆Kickstarter开启众筹

 

对于3D设计专业人员来说,通过Looking Glass快速查看3D模型,这无疑节省了时间和资金。

 

此外,您还可以连接诸如Leap Motion控制器、任天堂Joy-Con控制器、RealSense或其他类似的设备,以实时与您的全息图像进行交互。

 

【资讯编译自:the verge

* 文章来源自87870.com,查看原文请访问 http://news.87870.com/1807/33223.html

8.9寸售价600美元 全息显示器Looking Glass登陆Kickstarter开启众筹

Looking Glass一直致力于开发全息显示技术,以改变我们与事物交互的方式。

 

8.9寸售价600美元 全息显示器Looking Glass登陆Kickstarter开启众筹

 

提到全息技术,我们并不陌生。近日,3D全息显示器Looking
Glass登陆Kickstarter开启众筹,可以让用户在其屏幕上看到动态3D视图。

 

美国公司Looking
Glass一直致力于开发全息显示技术,以改变我们与事物交互的方式。继其在2016年公布了首个全息显示模组:Volume后,2017年该公司又发布了HoloPlayer
One开发套件及SDK。而近日,Looking Glass推出了一款专为桌面端全息显示器Looking Glass,3D创作者而设计。

 

8.9寸售价600美元 全息显示器Looking Glass登陆Kickstarter开启众筹

 

工作原理

 

Looking Glass使用了与HoloPlayer
One类似的技术:它们实质上是放置于你眼前的“盒子”——只不过这些内容如今以三维的形式直接浮现在你面前。用户不必佩戴头显,就可以与周围环境交互。

 

8.9寸售价600美元 全息显示器Looking Glass登陆Kickstarter开启众筹

 

Looking Glass外形轻便,可放置于桌面上,能显示60fps动态3D视图。 此外,Looking
Glass创建了45个不同视图的三维模型,并使用双凸透镜从不同角度显示这些视图以创建全息效果,使用户可以查看对象的不同部分,以了解更多细节。

 

这些不同角度的图像,通过HDMI线缆和USB连接到PC,传输到Looking
Glass显示器中,然后内部的光学器件将这些视频信号转换为全彩色、超立体的三维内容,即把3D建模的真实图像投影到“Looking Glass”上。

 

8.9寸售价600美元 全息显示器Looking Glass登陆Kickstarter开启众筹

 

Looking
Glass采用了一种光场和立体显示技术融合的组合技术,并且正在申请专利,这种技术能够以每秒60帧的速度同时显示45种不同的视觉效果。用户可以使用它来查看3D设计,然后再将其发送到3D打印机,比如查看建筑图纸、玩互动游戏或从多个角度查看图稿或动画。

 

8.9寸售价600美元 全息显示器Looking Glass登陆Kickstarter开启众筹

 

硬件/软件配置

 

关于硬件配置,因为要运行3D场景,所以Looking Glass对PC的硬件尤其是显卡的要求很高。Looking
Glass建议至少使用英特尔酷睿i5处理器,4GB内存和Nvidia GTX 1060显卡(加上HDMI端口和USB-C端口)。

 

关于软件方面,The Looking Glass将支持OBJ、FBX、STL和gLTF格式,以及用于直接从Maya发送对象的导出工具。 Looking
Glass还提供开发工具,可以直接在The Looking
Glass上观看诸如Maya、Zbrush、Blender、Tinkercad和Solidworks等3D
CAD软件中的实时对象,这些工具将免费提供给开发人员。

 

8.9寸售价600美元 全息显示器Looking Glass登陆Kickstarter开启众筹

 

Looking
Glass有两种尺寸可供选择:8.9英寸(售价600美元)和15.9英寸(售价3000美元)。其中,8.9英寸版厚度约9.3cm,15.6英寸版本厚度约17.5cm。

 

Looking Glass还承诺,首批发售将于2018年9月开始,限定发售100台,其余设备将于12月份发货。

 

8.9寸售价600美元 全息显示器Looking Glass登陆Kickstarter开启众筹

 

应用

 

Looking Glass不仅提高了性能,而且还通过扩展SDK和应用程序,增强了其作为可用于各种3D应用程序的工具的完整性。

 

The Looking Glass显示器将为某些专业人员带来巨大便利,比如游戏开发人员、产品设计师、工业工程师和建筑师,以使其查看3D模型视图。

 

8.9寸售价600美元 全息显示器Looking Glass登陆Kickstarter开启众筹

 

对于3D设计专业人员来说,通过Looking Glass快速查看3D模型,这无疑节省了时间和资金。

 

此外,您还可以连接诸如Leap Motion控制器、任天堂Joy-Con控制器、RealSense或其他类似的设备,以实时与您的全息图像进行交互。

 

【资讯编译自:the verge

* 文章来源自87870.com,查看原文请访问 http://news.87870.com/1807/33223.html

Bethesda制作人持续看好VR,《Contagion VR: Outbreak》发售

Bethesda高管:VR游戏将在“第三世代”正式起飞

 

 

【8点7分】Bethesda制作人持续看好VR,《Contagion VR: Outbreak》发售

作为现阶段VR行业最大牌的一线内容厂商之一,Bethesda的一举一动总会引起无数VR游戏爱好者的关注。最近,这家公司的知名制作人再次发表了引人瞩目的新观点:VR游戏会迎来腾飞,但时间节点并非当下。

上周,在西班牙举办的Gamelab开发者大会上,Bethesda著名制作人Todd Howard(当代“辐射”以及“老滚”玩家肯定对这位不陌生)登台发表演讲,在谈到关于VR未来发展的话题时,他表示“第三世代”将是VR游戏正式起飞的转折时刻。

“相比于AR,我们在VR上投入了更多”,Todd Howard向观众如是说,“我们在VR平台上制作过‘辐射’和‘老滚’,我们即将步入当今VR潮流的第二世代;当第三世代到来时,VR游戏将真正迈向流行。”

由此一来,在Todd Howard看来,2017年的年末推出的VR版《辐射4》和《上古卷轴V》应该属于“第一世代”的VR作品,那么,第二世代的VR游戏代表作又会是哪些?第三世代的进化标志又会是什么?看来值得我们思考期待呢。

Rift领先优势小幅扩大?来看看最新一期的Steam硬件和软件调查

 

【8点7分】Bethesda制作人持续看好VR,《Contagion VR: Outbreak》发售

在上个月的“Steam硬件和软件调查”当中,我们看到HTC Vive的装机量比率较之以往似乎略有提升;然而这份短暂的优势并没有持续太久,在本月的调查报告中,Oculus Rift的用户比率再次上涨,排除Rift DK2不计的话,依旧以46.26%的SteamVR用户比率将HTC Vive(用户比率44.56%)甩在了身后。

【8点7分】Bethesda制作人持续看好VR,《Contagion VR: Outbreak》发售

不过需要提醒的是,Steam硬件和软件调查反映的并不是100%精确的平台现状;对于选择不参与调查的Steam玩家,以及在上个月并未启动VR头显的用户来说,这份报告是无法呈现相关数据的——还是那句话,保持关注的同时,“仅供参考”的前提同样不容忽视。

顺带一提,6月SteamVR用户在平台玩家总数当中的比率同样有所下降,这应该与上半年VR内容行业处于淡季有关,不足为怪。

Contagion VR Outbreak正式发售:Bug凶猛,火线救急

 

【8点7分】Bethesda制作人持续看好VR,《Contagion VR: Outbreak》发售

作为Youtube今年以来最受关注的VR游戏之一,早在Demo上线的时候,《Contagion VR: Outbreak》就引起了众多VR游戏爱好者的关注:尽管主题依旧是僵尸大战,但和大多数“开局只有一把枪,一切乐子全靠打”的Wave Shooter不同,《Contagion VR: Outbreak》成功地描述了“从司空见惯的现实生活一步步迈向疯狂的求生之路”的完整过程,无论是气氛渲染还是代入感都堪称一流,让人印象深刻。

经过漫长的期待,如今,这部已经具备不错人望基础的作品终于告别了Demo迎来了正式版(虽然依旧是抢先体验阶段)的发售;然而令人意外的是,层出不穷的Bug(有些甚至是在Demo当中都不曾出现的)令正式版游戏的体验大打折扣,欣然解囊第一时间购入的玩家纷纷表示苦不堪言打出了差评,很快,Steam商店页就呈现出了“褒贬不一”的用户评价。

不过值得一提的是,《Contagion VR: Outbreak》的开发者对这种状况的反应相当及时,上线4天到现在为止已经推出了6个HotFix补丁,在一定程度上也算修正了一部分问题;嗯,我们不妨再来等等看事态如何发展。

 

Reality Blender:在VR中看到我们的双手

【8点7分】Bethesda制作人持续看好VR,《Contagion VR: Outbreak》发售

OK,看到这个标题点击这条资讯前来阅读的朋友,想必已经对《Reality Blender》这款软件的核心卖点一清二楚:众所周知,对于现如今的VR游戏和应用来说,“看不到双手”始终是个令人困扰的大问题——尽管借助Room Scale机能可以通过追踪手柄来间接定位我们的双手,但从实际体验来看,这套方案的效果顶多只能算是差强人意:无法呈现出细腻的手势始终是个遗憾,不是吗?

所以说,尽管乍看之下有够滑稽,但《Reality Blender》的实用性恐怕要比大多数朋友预想中的程度还要来得更高:通过这款软件,我们可以在VR视野中直接看到现实中的双手,以及手中握持的手柄或者键盘;尽管原理依旧是绿幕抠像然后叠加图层(因此出现噪点和贴片感丝毫不足为怪),但从实际效果来看,“出乎意料的不错”恐怕并不是什么夸大其词的评价。

【8点7分】Bethesda制作人持续看好VR,《Contagion VR: Outbreak》发售

《Reality Blender》目前已经在Steam平台上架,具体发售时间和价格并未公布,有兴趣的朋友可以先来关注一下。

 

* 文章来源自87870.com,查看原文请访问 http://news.87870.com/1807/32867.html

Reality Blender:在VR中看到我们的双手

原理并不复杂,但实用性似乎比想象中来得更高。

 

Reality Blender:在VR中看到我们的双手

 

OK,看到这个标题点击这条资讯前来阅读的朋友,想必已经对《Reality Blender》这款软件的核心卖点一清二楚:众所周知,对于现如今的VR游戏和应用来说,“看不到双手”始终是个令人困扰的大问题——尽管借助Room Scale机能可以通过追踪手柄来间接定位我们的双手,但从实际体验来看,这套方案的效果顶多只能算是差强人意:无法呈现出细腻的手势始终是个遗憾,不是吗?

 

所以说,尽管乍看之下有够滑稽,但《Reality Blender》的实用性恐怕要比大多数朋友预想中的程度还要来得更高:通过这款软件,我们可以在VR视野中直接看到现实中的双手,以及手中握持的手柄或者键盘;尽管原理依旧是绿幕抠像然后叠加图层(因此出现噪点和贴片感丝毫不足为怪),但从实际效果来看,“出乎意料的不错”恐怕并不是什么夸大其词的评价。

 

Reality Blender:在VR中看到我们的双手

 

《Reality Blender》目前已经在Steam平台上架,具体发售时间和价格并未公布,有兴趣的朋友可以先来关注一下。

微信支付
应付金额 0.00 元
Reality Blender:在VR中看到我们的双手
请使用微信扫码支付

支付成功

* 文章来源自87870.com,查看原文请访问 http://news.87870.com/1807/32866.html

AR内容开发的四个关键字:建模、材质、空间、照明

本文来自《Escape The Room — AR》开发团队

作为一名iOS开发者,苹果在去年夏天发布ARKit是我迷上AR的缘起,而我当时马上就开始学习有关这方面的一切知识。我的AR之旅使得我开始通过Blender学习3D艺术,利用Unity探索游戏开发。借助这些技能,我开始制作AR体验《Escape The Room — AR》,而这款作品即将要登陆iOS设备。我花费了一定的时间来摸索出我需要学习的知识,而我一直在想,如果当时有人给我指点一下方向那该有多好。所以,我希望通过这篇文章向大家介绍4个可以帮助你加速AR/VR开发的概念。

1. 建模

3D建模是你在3D中看到的对象的基础。海盗游戏中的宝箱?这是模拟物。射击游戏中的枪支?这是模拟物。游戏中的大多数物理对象都是3D模型。3D模型的结构由“网格”确定。你以前可能已经看过这样的照片:

AR内容开发的四个关键字:建模、材质、空间、照明

这就是3D“网格”。网格由顶点,边缘和面组成。通过操控这些元素,3D美工可以创建任何形状。皮克斯电影中的角色?它们都是由网格组成。

对于AR开发,你可能不希望自行制作模型。事实上,你并不需要这样做。网上存在大量的免费3D模型,如TurboSquid,或者如果你是Unity用户,Asset Store将是一个合适的选择。

1.1 建模的关键点

你的用户在AR或VR中的大部分时间都是与模型交互。无论是按下按钮,浏览一个对象,或者是欣赏美丽的风景,它们都是模型。模型不仅只是由网格组成。模型通常是搭配以“材质”。我将在下一节介绍材质,但首先:

1.2 如何制作自己的模型

模型是通过3D建模软件制作而成,如Blender,Maya和Cinema4D都属于热门的工具。

如果你希望原创的模型,而不说网上参差不齐的模型,你可能有意学习如何制作属于自己的模型。对此,我的个人建议是Blender。Blender是一款免费的开源3D软件包。它同时拥有一个优秀的社区和大量的教程。我个人认为,随着AR和VR开始蓬勃发展并达到大众市场的渗透率,Blender将继续成长并发展为3D开发的主要产品。其他3D创作平台非常昂贵,比如游戏行业标准之一的Maya每年需要支付数千美元的授权费用…所以我宁愿选择确实优秀,而且免费的Blender社区。

现在我们已经有了网格,下一步是美化我们的对象,而这需要材质。

2. 材质

没有材质的网格就如同裸身相见。

AR内容开发的四个关键字:建模、材质、空间、照明

如何令它更好看呢?我们需要材质。材质允许对象搭配以我们所设想的照明,颜色和发射。如果你有一张椅子的网格,你可以通过相应的材质将其变成一种木制椅子,或者铁制椅子。材质可以为你的AR体验增添光彩。

2.1 如何制作材质

制作材质取决于你如何开发应用。Unity的材质系统不同于Unreal。Blender材质的开发方式不同于Unity。如果你是用Swift在Xcode中开发,材质将不同于上述工具。

关于材质我可以说上一天,所以我会尽量精简内容。在本文中我将介绍PBR材质。PBR指基于物理的渲染,是将不同图像整合在一起的总和,它们将以我们想要的方式渲染对象。每个图像都有其要改变的一个特定方面。这些图像通常被称为“贴图”。这些贴图或图像通常是指纹理。本文由很多专业术语,但你会习惯的。

AR内容开发的四个关键字:建模、材质、空间、照明

材质的“Albedo”贴图改变对象的颜色。你希望它看起来像是木制对象吗?只需添加看起来像是木色的albedo,你的材质将变成如下所示:

AR内容开发的四个关键字:建模、材质、空间、照明

“Normal”贴图则用于确定材质是否存在任何凹凸。

然后还有很多用于高光,反射,以及其他更为复杂元素的贴图。与寻找免费模型的地方一样,你可以在那里找到免费的材质。如果你希望自行制作材质,你只需要你为对象构思的形状的图像。你可以订阅为你提供大量超高质量PBR图像的服务,从而开始制作优秀的材质。我使用的而且非常喜欢的工具是Megascans。

AR内容开发的四个关键字:建模、材质、空间、照明

上图是文章开头那个空白网格的最终作品。我采用了normal贴图和roughness贴图来实现对象上的划痕。我利用albedo贴图改变了对象的颜色,然后在材质上使用发光属性来令外星文字发光。材质是一种艺术,而且非常有趣。你可以一直捣鼓,直到你创作出酷炫的对象。

3. 3D空间

本节很短,但很重要。在AR/VR中进行开发不同于网络开发或移动开发,因为用户可以在3D空间中与数字对象进行交互。在AR中,用户可以在3D空间移动,而3D空间的原点通常是用于确定用户开始会话的位置。

AR内容开发的四个关键字:建模、材质、空间、照明

对于2D移动应用,用户面对的只是一个平面,然后你为他们构建这个界面即可。对于AR,他们可以自由移动。引擎之间的坐标空间有所不同,有些引擎使用(X,Y,Z),有些则使用(X,Z,Y)。在本文中,我们将使用(X,Y,Z),X是向前,Y是向上,Z则是向右。如果用户从(0,0,0)坐标开始,他们有可能会立即转身,所以你设置在(5,0,0)位置的前方对象可能不是用户正在关注的内容。

你需要掌握引擎的Camera属性。在Unity中,你可以轻易将Camera移动至用户的注视点方向,然后根据旋转和定制放置对象。对于AR,你需要灵活处理,在编写代码时需要考虑用户所处的多个潜在环境。这更多的是关于设计vs开发的讨论,但可以为你节省大量的时间。

对于《Escape The Room》,我一开始的设想是让用户扫描他们的地板,然后对象将自动呈现在检测到的水平表面上。但我发现做起来比想象中要难很多。因为用户可以面向不同的方向,平面大小会改变,对象会过于靠近墙壁,从而变得无法触及。我最终是让用户将对象直接放置在周围的地板。

VR则有点不同,因为对象已经放置在场景之中,但你仍然需要考用户在第一次是如何在3D空间中移动,以及他们将会体验到什么内容。

记住,目前我们仍处于XR的早期,所以向用户清晰地讲解如何在3D空间中移动是关键。他们最终所做的事情往往会超出你的想象,所以设计体验时要有一定的灵活性。

4. 照明

照明就像是餐桌上的礼仪。如果一切顺利,你将不会注意到这一点,但如果出现不符合的行为,你马上就会皱起眉头。AR和VR在这方面存在一定的差异,因为VR中的照明由开发者掌握,但AR则取决于用户所在环境的照明情况。这对AR而言是一个重大的设计挑战,所以你需要解决这个问题才能实现优秀的体验。

在设计AR体验时,第一件事情是告诉用户它们的照明环境非常糟糕。如果摄像头难以检测环境,你会从ARKit中获得提示,这时你的应该告诉用户这一点。如果你不告诉用户,他们不会知道哪里出了问题,如果你让用户提供额外的照明,或者更换一个更光亮的房间,你可以为他们带来整体更优秀的体验。

照明是在AR中检测平面的关键,这可以帮助你设置体验。照明同时可以令体验感觉真实,我以往曾谈过这一点,在本文中我将简单地说明其中的关键要点。

下图是糟糕照明下的对象:

AR内容开发的四个关键字:建模、材质、空间、照明

它看上去很假,而且跟环境不搭。调整一下照明条件,你会令对象变得更好看:

AR内容开发的四个关键字:建模、材质、空间、照明

你可以为场景添加自己的照明,但需要小心。添加照明会影响设备的性能,尤其是对移动设备而言。Unity中的反射探针可以令金属对象看起来更真实。对于如何利用照明和反射来提高对象的真实感,我计划在未来进行详细的探讨。

* 文章来源自映维网,原文链接:https://yivian.com/news/45562.html

AMD为macOS版Blender和Maya发布Radeon ProRender插件

AMD本周为macOS版本的Blender和Maya发布了Radeon ProRender插件

AMD本周为macOS版本的Blender和Maya发布了Radeon ProRender插件,允许兼容的Mac电脑利用ProRender的基物(physics-based)渲染。

ProRender是一款基于物理的渲染引擎,能够帮助用户制作出令人惊艳,达到照片级真实感的图像。用户可以轻松地对物体进行着色并在任何合理的环境中使用。AMD最初在3月宣布ProRender支持实时光线追踪引擎,帮助用户最大化利用的CPU和GPU功率。

AMD曾表示,利用实时光线追踪的工作人士可以实现更快的渲染时间,节省宝贵的时间和系统资源。游戏开发者同时可以实现更优秀的照片级写实主义,无需牺牲流畅实时屏幕动画所需的高帧率。

延伸阅读:什么是光线追踪,为什么它将是CG领域的一次重大升级

AMD为macOS版Blender和Maya发布Radeon ProRender插件

新插件同时包含了AMD的新版本Uber Shader,为皮肤等元素带来更优秀的子表面散射。对于Maya,“交互式”去噪试图在保留细节的同时去除噪点,并且降低渲染时间。

AMD同时为Blender提供了多项升级,其中包括自适应细分曲面,诸如反射和漫射照明等更多的AOV选项,以及体积效果,如雾,云和烟雾。

Mac必须至少运行macOS 10.13.3,并且使用支持苹果Metal 2图形平台的硬件。

* 文章来源自映维网,原文链接:https://yivian.com/news/45120.html

从Autodesk 3ds Max测试看AMD ProRender的优秀性能表现

看起来AMD强大的OpenCL性能在这次特别的测试中显得尤为耀眼。

映维网 2018年04月24日)Techgage的Rob Williams日前通过Autodesk 3ds Max测试了AMD的照片级渲染引擎Radeon ProRender,对比了市场上的12枚显卡,并提供了具体的分析结果。以下是映维网的具体整理:

从Autodesk 3ds Max测试看AMD ProRender的优秀性能表现

为了帮助绘制出更清晰的GeForce vs. Quadro和Radeon vs. Radeon Pro对比图,我们过去一个月里一直在重新测试当前一代的工作站GPU集合。在分析了V-Ray 4.0的表现之后,我们能够证明ProRender的性能表现相当优异。这很容易完成,因为ProRender自推出以来一直都是我们测试套件的一部分。

考虑到所有这些重新测试,以及ProRender对于光线追踪渲染需求来说是一个非常值得的选择,我决定单独展示它的性能,并且更深入地讨论它。

我们首先快速概览AMD和英伟达目前的产品。在AMD方面,我们缺乏WX 9100和Frontier Edition的结果,这有点可惜,因为他们可以在相关的高端产品堆栈中绘制出更好的性能对比图。但我们有规格接近的Vega 64,所以这可以为我们提供整体的,未对工作站进行优化的Vega性能表现。

从Autodesk 3ds Max测试看AMD ProRender的优秀性能表现

从规格角度来看(特别是ProRender),AMD最优秀的pro显卡可能是Frontier Edition,因为尽管它可能缺乏WX 9100的某些工作负载优化,但它仍然支持大容量16GB帧缓存。鉴于目前的GPU市场,Frontier Edition在某些情况下的价格将低于Vega 64,所以如果你愿意支付900美元以上的价格,这枚显卡将是你的不二之选。

需要注意的是,尽管WX 9100是基于AMD的Vega架构,但其下面的显卡全都是基于Polaris架构(RX 580同样如此)。这里缺少的一枚显卡是SSG,它是一枚适用于管理大型视频项目的特别版本。

在英伟达方面,我们不难发现他们最优秀的产品:TITAN Xp。对于工作站任务,它提供了明显优于GeForce和Quadro替代品的巨大价值。与Quadro一样,TITAN支持广泛的优化,但不是全部。

从Autodesk 3ds Max测试看AMD ProRender的优秀性能表现

假设需要更多内存,优化和性能,英伟达当前最佳的产品是GV100,亦即每个人都可能会添加到购物车中的价值9000美元的SKU。它拥有大量的超高速ECC内存,5120 CUDA内核,当然还有可以加速AI开发的Tensor内核。

TITAN Xp是介于GeForce和Quadro之间工作站用户的绝佳选择,而TITAN V则十分适合喜欢基于Pascal的P6000或GP100的用户。根据你的工作量,选择TITAN V可能会更加明智。你不仅只是收获了一枚比P6000更快的GPU,而且是一枚捆绑Tensor内核的显卡。

1. 测试与测试系统

为了对AMD的Radeon ProRender进行全新的测试,我下载了最新版本的插件2.1.5.0以配合Autodesk的3ds Max 2017。奇怪的是,ProRender官网几乎没有明确说明对3ds Max 2018的支持。直到我下载插件并安装完成后,我才注意到其实这也可以用于3ds Max 2018。目前AMD尚未透露将于何时提供对2019的支持,但他们最近一直在为其他设计套件发布ProRender插件,如Blender,Cinema4D,所以即便AMD在未来数个月内提供官方支持也不会令我感到惊讶。

从Autodesk 3ds Max测试看AMD ProRender的优秀性能表现

用于渲染的测试项目来自于AMD,你可以通过GitHub(点击前往)下载你自己的测试。如果要准确地对应我的测试,你可以(点击这里)下载修改后的场景(右键单击,另存为),并且设置为以1080p输出分辨率渲染Camera005 250 passes。

一如既往,ProRender的第一次运行并没有带来“最好的”结果,而第二次,第三次和后续的运行将提供大致相同的性能。为了更准确的测试,你确实需要获取第二个或第三个结果,因为第一次运行可能会因重新启动而不同。我会说这是渲染的本质,但其他渲染器并没有出现同样的行为(如NVIDIA Iray,Chaos V-Ray)。

另一件需要注意的事情是,因为某些原因,ProRender的默认处理器选择在3ds Max 2017和2018之间有所不同。在2017中,如果你安装了英伟达的显卡,则系统自动选择它为渲染的目标处理器。对于2018,系统给出了关于不支持该GPU的警告,而且这枚GPU在后台中将被取消选择。这意味着只有CPU才会渲染,而且如果你没有事先想到检查它,你将会看到非常不准确的性能表现。

下面是具体的测试结果:

从Autodesk 3ds Max测试看AMD ProRender的优秀性能表现

我们可以从中得出很多结论。首先,AMD的Radeon RX Vega 64表现非常出色,仅次于是TITAN Xp,但后者的建议零售价几乎是前者的两倍。一般来说,Vega 64在大多数测试中都无法媲美GTX 1080 Ti,但在这里,AMD展现了出色的OpenCL性能。

如果还不是很明显,这里有一个双GPU测试,其表现与使用相同模型显卡的单GPU配置持平。出于某种原因,ProRender不能很好地适应多个GPU,或者它至少不能很好地适应多枚英伟达显卡(我没有多一枚Radeon进行测试)。

从Autodesk 3ds Max测试看AMD ProRender的优秀性能表现

很显然,AMD的Polaris落后于其他架构。但这并不奇怪,因为他们已经是数代前的产品。由于RX 580的时钟频率更高,所以其性能明显优于WX 7100,而且可能是因为它允许插入第二个电源连接器(WX 7100基本上是带有一个6pin电源连接器的RX 480)。

无可否认,这个日产GTR项目并不是我可以使用的最先进项目,但它是我手上唯一一个可以轻松渲染的项目。或许更复杂的场景会呈现出略有不同的对比图,但根据其他的测试,AMD在很多场景中的OpenCL性能都非常强大,其中包括LuxMark(另一款在RX Vega上表现出色的OpenCL光线跟踪器,并且能够继续媲美价格更昂贵的竞争对手)。

2. 最后的想法

AMD的ProRender非常优秀,虽然它仍需要进一步提升(比如说服务器支持),但这已经是一个非常好的选择,因为其不仅免费,而且也是一个强大的开源项目。诚然,我很难密切保持对其发展的关注,因为许多相关网站似乎已经过时,但AMD正在继续为其他套件发布他们的插件。

就目前而言,ProRender支持3ds Max,Maya,Blender,SolidWorks和Cinema4D。它同时可以作为Unreal引擎的导入器使用,这样你就可以在VR环境中查看你的场景(只要你是在SolidWorks中创建场景即可)。如果当前没有为你提供支持,或者只是单纯希望关注最新的动态,我建议你关注@RadeonPro Twitter帐户,因为它会定期进行更新。

与此同时,我们将继续使用ProRender进行测试,因为这样做的原因有很多。与上面提到的LuxMark类似,它采用OpenCL,因此支持AMD和英伟达显卡。正如Vega 64的测试结果可以证明,AMD在这种测试中的表现更为出色,但考虑到在LuxMark上的强劲性能,看起来AMD强大的OpenCL性能在这次特别的测试中显得尤为耀眼。

文章相关引用及参考:techgage

* 文章来源自映维网,原文链接https://yivian.com/news/44415.html