zoukankan      html  css  js  c++  java
  • Talk about VR

        Virtual reality --VR ,虚拟现实,是利用计算机模拟一个三维空间的世界,提供用户关于各种感官的模拟,让用户感觉身临其境,可以及时,没有限制地观察三维空间内的事物,用户进行位置移动时,电脑可以立即进行复杂的运算,将精确的三维世界视频传回产生临场感。该技术集成了计算机图形计算机仿真人工智能、感应、显示及网络并行处理等技术的最新发展成果,是一种由计算机技术辅助生成的高技术模拟系统。这些是维基百科对于虚拟现实的解释。

        虚拟现实有三个基本的特征,“沉浸,交互,构想”。虚拟现实顾名思义就是要虚拟一个以假乱真的世界,让用户在这个世界里会忘记自己是在一个虚幻的地方。

    目前的VR:

        要做到沉浸,首先就是视觉上的虚拟,现在的技术都是计算机绘制3D的画面通过用户的头戴设备传输给用户的双眼,由于人的两个眼睛之间是有瞳距的,看到的画面是不同的,大脑会对这两只眼睛看到的图像进行处理,合成一张图像,然后就产生了空间的感觉。计算机的显示器都是在一个平面上的,两眼看到的画面都是一样的,所以,不足以模拟人眼看到的空间的感觉。于是,现在的VR技术用两个屏幕分别显示两个眼睛的内容,并且通过特殊的透镜将屏幕的画面折射成适合人眼睛视角的。经过大脑处理拼成一幅画面就有身临其境的感觉了。这样就初步做到了视觉上的沉浸了 。视觉上的交互是人在移动或者转头的时候,看到的画面会发生变化。首先转头这种追踪是通过头戴设备上的传感器进行控制的,就像手机上的陀螺仪和加速器这样的传感器可以检测到角度和速度的变化,然后将这些信息传输给处理器,计算之后绘制好正确角度的画面。对于移动的位置的追踪还比较麻烦,现在只有HTC Vive ,Oculus 的两款设备,以及Sony Play Station 做了位置的追踪。如果在一个虚拟的世界中只能看和走的话那这个虚拟世界是不健全的,如果可以在虚拟世界中有一双手的话那就会丰富很多,一般的输入设备是不满足VR的,比如键盘和鼠标,戴上头戴设备之后就看不到键盘了,必须在其他人的帮助下找到键盘的位置,并且操作方式和真实的手是完全不同的,这样的体验就很糟糕了,鼠标也一样,鼠标的移动总是在一个平面内的,无法像手一样在一个空间里去做操做。目前HTC ,Oculus,以及Snoy都有了自己的VR控制器,这些控制器都模仿了手的操作,并且配备了各种传感器,不仅可以追踪在空间中的位置,还可以追踪角度和速度,在控制器上的各种按钮帮助完成很多动作。而Google cardboard 之类的移动VR使用手机屏幕当显示屏幕,虽然有简易的控制器在手上,也可以叫控制杆,但是这种控制器只提供了简单的按钮,不能提供位置追踪,就好像虽然在虚拟世界中有一双手,但这双手只能在我视野的正中央。另外只是对于手,并不是只有一些操作和位置追踪的,目前还有一种VR手套可以提供一些简单的触觉模拟。

        现在VR的研究现状是三个方向齐头并进,分别是PC端的应用VR,WebVR,移动端VR。应用VR是最早的,但是,体验VR的时候不仅有一堆堆的线,还需要下载执行特定的VR程序才可以体验到VR,移动端VR是在移动设备上构造VR体验,比如Google cardb 和DayDream,还有Samsung Gear。这种VR就甩掉了巨大的主机以及复杂的线,但是这种VR的位置追踪和控制器都还很不好。WebVR是在浏览器上构建VR体验,现在许多设备都可以用浏览器来访问丰富的资源,javaScript在Google V8引擎下也可以做到不输给应用程序的渲染效果,WebVR需要的仅仅是体验VR的一套设备。目前VR正处于百花齐放的状态,所以究竟那一个VR的方向是最正确的方向没有人能给出正确的答案。

    未来的VR:

        对于用两个屏幕分别显示两个眼睛的画面再由电脑合成的这种想法真让人佩服,我认为其实人体也是一个复杂的系统,存在很多级很多类型的接口,比如这个技术就是把人的眼睛当成了一个接口,只要传输这个接口所需要的两个眼睛捕捉到的不同但相关的画面就可以产生视觉虚拟的效果了,但其实在人眼接收到这个信号之后,内部又经过了很多处理,先是视网膜接收画面,然后可能还有什么压缩处理之类的,再通过神经元传输到大脑,然后不知道大脑怎么处理就把两个图片拼一起了。同样的,人还有其他很多感官的接口,听觉,嗅觉,触觉,温度,压力等等,VR 以后的方向会慢慢涉及到这些所有的感官。现在的做法都是用各种设备与人的最外层的接口交互的,比如触觉就是戴一个手套,手套会模拟各种材质,让人有不同的触觉,位置追踪就是构造一个有限的空间,人真的用脚去行走了才会有位置的改变。我想以后完全可以有其他的方式,依然用视觉上的沉浸来说,首先显示屏的画面投射到人的眼睛里,眼睛接收了信号之后进行处理再发到神经里,再到大脑进行复杂处理。也许,眼睛需要的信号就是一束光,可以用来生成图像,类似于照相机,而神经需要的数据可能是一组微弱的电信号,我们可以构造一组神经需要的信号,从神经这里直接输入,同样可以得到一样的效果,走路也不用真实地迈开脚步了,拦截大脑发出的控制行走的信号,在VR里控制行走相应的位置,然后伪造一个应答给大脑,就做到了移动的效果了。但是,要实现这些还有很漫长的路要走,这只是我的一种幻想。

        VR应该是一场更真实的梦。

  • 相关阅读:
    十六进制计算器
    USB 3.0规范中译本 第7章 链路层
    from表单POST提交nodejs
    07_通过谷歌封装的api操作数据库delete&insert
    06_直接执行sql操作数据库delete&update
    05_直接执行sql操作数据库
    04_数据库升级onUpgrade&ondowngrade
    03_通过OpenHelper获取SqliteDatabase对象
    02_SQliteOpenHelper介绍&oncreate方法介绍
    00_前情回顾&今日展望
  • 原文地址:https://www.cnblogs.com/silent-stranger/p/5974140.html
Copyright © 2011-2022 走看看