我们距离“裸眼3D自由”,还有多远?

裸眼3D技术,并不是一个技术

好莱坞“编剧教父”罗伯特·麦基曾说过一句话:“没有故事,再好的3D也只是技术”。

3D技术再往前走,就是不依靠3D眼镜/VR头显等设备,化身为裸眼3D。

2016年,一个智能硬件厂商推出了专为宅男定制的家用智能化全息机器人Gatebox,利用全息投影技术,将虚拟偶像初音未来的形象,利用短距激光投影仪,投影到设备中间的亚克力屏幕上,因为图像是半透明的,就有了裸眼3D的显示效果。

还记得2018年,我曾熬夜好几天,就为了抢一张故宫博物院“清明上河图互动艺术展演”的门票。

后来,我也曾去过很多城市,看过不少策划精良的展览。那场“穿越北宋”的名画之旅,依然是我看过的,最具沉浸感的一场文化类展演,没有之一。

我可以很轻松地回忆起,自己走进实景布置的茶楼,客人觥筹交错,艺人演奏琵琶,小二楼上楼下忙忙碌碌地奔跑,这些由三维投影还原出的市井日常,让人一下子穿越到北宋都城。

然后是去球形影厅,《清明上河图》这幅五米多的长卷变成了一场“人在画中游”的citywalk,我坐上游船慢慢游览,繁华喧闹的汴京城,画中800多个各色人物,一点点在眼前和身旁铺陈开来,连飞溅到面前的水花都十分真实。

最重要的是,这场展演采用的是裸眼3D技术,全程不需要佩戴3D眼镜或VR眼镜,对于我这种高度近视人士,非常友好。

遗憾的是,这场展演的影厅座席有限,一票难求,很多人都没有机会亲身体验,我自己也没抢到二刷的票。

当时我就在想, 我们的世界不是平面的,3D才是最自然、最原始地感知世界的方式。如果能不依赖VR/3D眼镜,也不必千里迢迢赶往景区、商场、展厅等的大屏幕前,在手机、手持全息设备等小型化随身设备上,就能体验“裸眼3D”,那该有多快乐啊!

很容易就能想到,届时无论是知识科普、文化传播,还是教育、医疗、政务、娱乐、社交……都可以从平面互动,转为身临其境的3D交互。这不正是“元宇宙”所描绘的样子吗?

“元宇宙”的兴起,也让“裸眼3D”技术,再一次被寄予了更多的期待。

本文就来聊聊,我们距离实现“裸眼3D自由”,究竟有多远。

裸眼3D技术,并不是一个技术

好莱坞“编剧教父”罗伯特·麦基曾说过一句话:“没有故事,再好的3D也只是技术”。但换个角度想,没有技术,再好的故事也无法被以逼真、直观、立体的方式讲述。

3D视觉体验,大多数人都不陌生。2009年上映的《阿凡达》,开启了“3D元年”,从此以后,3D电影一度成为观影的主流,就像有声电影取代无声电影、彩色电影取代黑白电影一样。

但到此为止,就够了吗?看过3D电影的观众,有一个必需的环节,就是从电影院租用或者自带一副3D眼镜。如果像我这样,本身就戴着近视眼镜,那么这幅额外的3D眼镜,就会鼻梁的“不可承受之重”。

3D技术再往前走,就是不依靠3D眼镜/VR头显等设备,化身为裸眼3D。

裸眼3D的好处不用赘述,其摆脱了外接显示设备的束缚,观众可以直观、自然、便捷地,观看比2D更逼真、更具沉浸感的立体内容。

说到这里,你可能以为,“裸眼3D”是一种具体的技术,只是还没到成熟的时候。其实不然,“裸眼3D”就和人工智能、元宇宙一样,是基于一个目标,而组成的一系列技术的统称。

比如人工智能是让机器达到类人的智能水平,包括自然语言处理、机器视觉、知识图谱、深度学习等多种技术。“元宇宙”要构建一个高度还原现实世界的虚拟世界,则需要AI、区块链、云计算、通信、IoT、数字孪生等共同支撑。

同样的,裸眼3D目的是让人们直观地获得立体逼真的视觉体验,本质是利用视觉位移来“欺骗”视觉神经。

具体来说,人眼在看某个物体时,两只眼睛是分别从左右两个视点观看的,传送不一样的图像信号。大脑再将左右两边的影像结合起来,得到一个有立体感的物体。所以,裸眼3D就是琢磨如何“欺骗”人眼,将2D图像感知为3D图像,并为此不断想各种办法。其中就包括了MLD(多层显示)技术、光屏障式3D 显示技术、数字化浮雕技术、全息投影技术、增强虚拟现实等。

不难想到,作为一系列技术的集合,实现“裸眼3D”,并不是一件简单的事情。

直到今天,当裸眼3D的视频,出现在某一个城市的市中心/CBD时,依然还是一件新鲜事物,会引来围观群众的声声惊叹,成为打卡拍照的网红景观。

那么,把“裸眼3D”装进手机等随身设备里,我们究竟还要等待多久呢?

把“佩珀尔幻象”装进盒子里,总共分几步?

裸眼3D,作为一种观看的目标,其实并不是当代人才想得出来的新事物。

早在几百年前,人类就极为聪明地在表演中利用双眼视差。

19世纪,一位名叫约翰·亨利·佩珀尔(John Henry Pepper)在伦敦皇家理工学院演讲时提出,仅仅使用一片玻璃,在剧院中利用玻璃和光的折射,来操控观众的视觉,达到在舞台上出现幽灵的效果。

可以说,裸眼3D就是让“佩珀尔幻象”照进现实。进入信息时代,人们开始尝试将“佩珀尔幻象”装进手机、游戏机、电视等盒子里,让每一个人都可以足不出户,就享受到裸眼3D的视觉体验。

第一阶段,显示器厂商的探索。

二十一世纪的前十几年,显示器厂商们为了让裸眼3D走入家庭,做了非常多的探索。

总的来说,这一阶段的裸眼3D,核心是利用双眼视差,通过屏幕的设计,让眼睛看到不同的像素组合,从而体验到3D效果。

一开始,以日韩美为主的电视大厂,率先推出了一系列裸眼3D的产品。比如夏普早在2003年,就推出过RD3D裸眼3D笔记本电脑,还曾发布过搭载3D液晶面板的裸眼3D智能手机。2009年,美国PureDepth公司,推出了MLD(多层显示)技术,让观众可以直接观赏立体影像。三星电子发布的超薄全息显示器,也采用了多层显示的原理,可以实现较大视角的动态全息图。2011年,任天堂推出了一款便携式游戏机3DS,利用视差壁技术,使用者不需要佩戴特殊眼镜,就可以感受到立体裸眼3D图形效果。

2009年《阿凡达》的成功,更是带动了3D观影的火爆。日韩厂商和海尔、海信、TCL等国内电视厂商纷纷开始跟进,推出裸眼3D电视。

这一阶段,3D显示技术在分辨率、可视角度等方面不断提升,产品形态也推陈出新。但总体来说,裸眼3D的显示效果与高清2D视频还有差距,观众们尝鲜之后难以忍受。同时,采用此类技术的裸眼3D视角有限,必须位于一定的范围内才有立体效果,容易造成眼睛疲劳,再加上高昂的售价,最终沦为鸡肋,几乎没有人记得它们的存在。

随后,光场技术的引入,又让裸眼3D点燃了希望。

第二阶段,光场技术的应用。

既然用2D的显示器屏幕展现3D效果很难,那么直接用激光投影在真实维度空间中,显示3D立体影像,行不行呢?

光场技术,通过采集真实空间里人眼看到的光线,再用设备还原光线,制造一个全息画面,来重现三维世界。这种技术,已经被应用在舞台还原已故艺术家的表演,比如迈克尔杰克逊重新演出,让邓丽君与当代音乐家合唱等。此外,旅游景区、企业发布会、开幕式等大型活动,都利用3D全息投影这一光场技术,来增加视觉效果。

问题是,怎么将它放到随身设备里呢?

2016年,一个智能硬件厂商推出了专为宅男定制的家用智能化全息机器人Gatebox,利用全息投影技术,将虚拟偶像初音未来的形象,利用短距激光投影仪,投影到设备中间的亚克力屏幕上,因为图像是半透明的,就有了裸眼3D的显示效果。一位宅男甚至和这个设备举办了自己与初音未来的婚礼。

3D全息投影等光场技术要达到逼真、任意角度均可观看的效果,需要大面积投影,便携化的难度较大,只局限在小众产品中,很难应用到手机、平板、电脑等随身设备上。

第三阶段,智能终端的到来。

近年来,智能终端设备的升级,以及超高清视频产业的成熟,让裸眼3D在端侧落地有了可能。一方面,智能手机的分辨率不断提升,观看3D图像的舒适度有所改善,避免了头晕等负面视觉感受。

同时,AI技术、机器视觉、数据压缩等新技术的引入,让3D影像的传输与显示变得容易。

2021年的Google I/O大会上,谷歌的3D光场显示方案Project Starline,就通过计算机视觉、机器学习、空间音频和数据压等技术,营造一个3D视频聊天室,无需佩戴额外的眼镜,就可以与千里之外的人进行全息视频对话。智能技术的大量应用,将裸眼3D推上了更高的台阶。

此外,伴随着元宇宙、数字人、AIGC等应用,虚拟现实、增强现实、数字孪生、3D渲染等技术,也被用来实现裸眼3D效果。

目前,数字人正在从电商直播间、娱乐节目、服务APP等各个领域,迅速走进我们的视野,3D也成为数字人的标配,通过3D渲染和AI驱动,数字人可以做出栩栩如生的动作。在北京坊、莫高窟等线下场景,通过手机的AR能力,可以获得现场环境的3D显示,不仅能给观众提供巨量信息,而且还能保证观看的舒适度。

从技术的发展趋势来看,也许很快就可以随时随地营造出完全逼真的裸眼3D,让人们随时随地地穿梭于现实世界和元宇宙。

技术的未来没有尽头

如前所说,裸眼3D作为一种综合技术集成的发展目标,升级迭代是没有尽头的。人们对沉浸式体验的追求,不断追求极致。目前的裸眼3D实现手段,一定会被新技术、新载体、新媒介所取代,变得越来越逼真。

那么,不断升级的裸眼3D,都对哪些细分技术,提出了要求了?

首先就是算力

3D图像的数据量极大,相比于2D图像,增加了一个维度的信息,并且显示分辨率还在不断提高,播放裸眼3D视频影像,这就对随身设备的计算能力,提出了极高的要求。而移动设备的元器件要求小型化、低功耗,目前旗舰手机的SoC芯片,可能还达不到流畅播放超高清裸眼3D视频的算力水平。围绕着裸眼3D等新兴应用,来进行定制优化与开发,可能正是国产手机芯片的一个突围点。

其次是传输

让用户有沉浸感的全息影像,需要超低时延与超大带宽的通信网络,才能为用户带来极致体验。目前,5G网络速率基本维持在1Gbs,也就是千兆水平,裸眼3D的超高清视频,要进行大规模上传、下载,现有网络无法被充分满足。

目前有两个发展思路,一是等待6G,借助卫星互联网等网络来支撑,大概要在2030年后完成商用;另一个是发展5G-Advanced或5.5G,对5G网络进行十倍带宽的提升,来满足裸眼3D、AIGC、元宇宙、自动驾驶等规模化商用的网络需求,尽快推动业务成熟。目前来看,加强5.5G建设,支撑新业务的探索,正在成为全球共识,也让裸眼3D更快迈入终端。

然后还要考虑成本

裸眼3D自由,需要让终端设备的成本可接受,才能从极客们的玩具,变为广泛普及的大众消费品。大众市场和用户规模扩大之后,裸眼3D内容制作、渠道分发、平台工具等软硬件,才有希望降低风险、摊平成本。目前,超高清显示器、全息激光投影等核心技术,还是以日韩美厂商为主,成本很难降低。Gatebox的售价,就高达上万元。从这个角度看,发展裸眼3D,也会带动国产显示器、半导体等产业投入研发,抢占这一新兴市场,让一般消费者也能尽快用上裸眼3D。

媒介大师麦克·卢汉曾说过,“任何技术都倾向于创造一个全新的人类环境”。

裸眼3D,是通往元宇宙的必经之路,也是一场时不我待的旅程,必将会对我们的社交、娱乐、教育、文化消费等生存环境,产生前所未有的影响。

对裸眼3D的憧憬,驱使着人们不断用新技术,为世界制造“幻想”,奉上“奇迹”。技术本身的故事,已经足够激动人心。

本文来自微信公众号:脑极体(ID:unity007),作者:藏狐

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2023年10月24日
下一篇 2023年10月24日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日