导 读: 互联网技术赋能下的广泛连接将带来人、物、机器和虚拟空间的无缝衔接,创造出一个虚实融合的空间互联网和“始终在现场”的空间计算时代。
2023年6月苹果CEO库克在WWDC(苹果全球开发者大会)上发布了一款MR(Mixed Reality,混合现实)可穿戴设备Apple Vision Pro,并点明这款产品的科技价值,“Mac带我们进入个人计算时代,iPhone带我们进入移动计算时代,Apple Vision Pro将带我们进入空间计算时代”[1]。空间计算时代意味着什么?对传播而言又会改变什么?
连接是互联网的本质特性。从互联网诞生至今,网络空间就是一个建立在连接上的世界,并由连接而衍生出各种业务和用户行为。最早期是机器与机器的连接,打破了一台台计算机的信息“孤岛”,是互联网信息传输的开始;个人计算机的1.0时代实现的是人机连接、人与信息的连接,以用户浏览、接收信息为主体开启网络中心化的“可读”模式;2.0时代实现的是人与人、人与群体、群体与群体的连接,以社交互动、用户生产为主体开启了网络去中心化的“可读可写”模式;移动计算时代实现的是人与物、服务、金融支付的连接,以数据潮涌、用户深度参与为主体开启了平台垄断的“可用”模式。当下的互联网,就是一个机器、人、信息、物、服务、场的庞大连接器,并在5G网络的加持下实现“始终在线”(Always Online)。
但是,这些连接实现的只是“在线”。尽管人、物、服务、场景的连接已经与真实世界全面对接,但更多时候还是感觉与交易、交流的另一方并不在一个空间、场域中,互动双方依然是在虚拟空间中,缺少情感、氛围和实时捕捉。比如开腾讯会议,同一个时间,同一个会议,看似是同步的,但经常会出现两个人同时讲话、大家又同时都不说话的尴尬场景,这就是缺少了“在场”,缺少了在同一空间场域表情、眼神、身体语言等其他信息的充分捕捉。这就需要互联网完成从“在线”到“在场”的转变,而空间计算要解决的就是人、物、机器和虚拟空间的无缝衔接,创造出虚实融合的空间互联网和“始终在现场”(Always On-site)。
“空间计算”概念最早出现在2003年,由麻省理工学院Simon Greenwold在其论文中首次提出。他将“空间计算”定义为一种利用空间数据和算法,对空间信息进行处理和分析的技术。[2]空间计算可以简单理解为“人类与机器的交互”,但此人机交互非互联网早期的二维空间的线互,而是三维空间、3D全息的交互,它是一种使我们的机器在我们的工作和娱乐中成为更充分的合作伙伴的重要组成部分。根据库克在WWDC上的解释,空间计算是元宇宙的基础技术之一,在扩展现实XR(Extended Reality,包括VR、AR、MR等多种形式)、3D、计算机图形学、机器视觉、物联网、传感、体感、AIGC(人工智能生成内容)等融合技术的加持下实现的虚拟与现实的深度融合。用户可以利用头显、眼镜等可穿戴设备以及全新空间操作系统,与数字内容、空间环境进行互动,以数字分身实现身临其境,以沉浸投入达到身心在场。
在空间计算出现之前的是桌面计算和移动计算。桌面计算又称个人计算,侧重于个人使用的计算设备和应用,主要在桌面或办公环境中进行,应用于办公、娱乐和个人生活等方面;移动计算关注于移动设备和移动应用,依赖于便携式设备,强调随时随地的计算能力,广泛应用于移动通信、社交媒体、移动支付和移动商务等领域;空间计算涉及计算能力在物理空间中的扩展和应用,涵盖了物联网、虚拟现实和增强现实等技术,将计算能力与现实世界的物理空间相结合,实现与环境的交互和融合,应用在智慧城市、工业自动化、教育和医疗等领域。
空间计算技术可以参照现实的物理世界构建一个数字孪生世界,将现实的物理世界与数字的虚拟世界连接在一起,构建空间互联网。空间互联网不同于元宇宙,元宇宙搭建的是一个平行于现实世界且可能完全不同于现实世界的虚拟世界,每个原住民在元宇宙中都可以参与“新世界”的构建,他们既是建造者,也是使用者,更是拥有者,拥有自己的数字资产,拥有自己的“新土地”,拥有自己的数字身份。空间互联网是一种将无线传感、无线通信、位置信息等互联互龙8游戏唯一官方网站通,进而实现人与应用场景之间的交流、协同以及资源共享,是一个专注于位置、地理、空间、时间信息融合的无线网络。
“元宇宙”概念曾在2021年很火爆,但近两年并未延续这一势头,有可能是人们认知和接受元宇宙所构建的完全的虚拟世界还需要时间,也有可能是因为曾经设想的元宇宙多元应用场景如远程办公、新型文创、数字社交、在线教育、在线医疗、金融科技、智慧城市等并未得到创造性应用,离成熟实现还有距离。而建立在虚实融合之上的空间计算、空间互联网已经向我们走来。
空间互联网会改变我们进入互联网的方式。PC时代,网页版浏览器是用户接入互联网的入口;移动时代,App应用程序成为入口;空间计算时代,包括AR/VR/MR眼镜在内的XR设备将成为下一代的浏览器,成为沉浸式互联网的入口。VR通过视觉和听觉系统使用户屏蔽物理现实世界,完全沉浸到虚拟的数字世界并产生身临其境的感觉;AR将虚拟数字信息叠加到物理世界,可以同时显示物理和虚拟世界信息;MR实现虚拟数字信息与物理世界的交互,合并现实和虚拟世界而产生的新的可视化环境。2022年至今,华为、小米、联想等公司纷纷推出智能眼镜产品,特别是Apple Vision Pro,苹果称之为“革命性的空间计算设备”,能够“将数字内容无缝融入真实世界,让用户处在当下并与他人保持连接”[3]。
空间互联网会改变我们认知世界、获取信息的方式。2022年5月,三星堆博物馆推出MR导览电影《古蜀幻地》,游客佩戴MR眼镜可欣赏到众多文物周围亦真亦幻的场景,对文物进行全息化讲解。中央广播电视总台数字文化艺术博物馆——“央博”数字平台,利用3D数字展馆形态构建数字文化艺术博物馆体系,通过VR/AR、裸眼3D等技术手段,为受众带来震撼的艺术体验场景。《AR改变世界》一书想象了这样一个场景,“环顾四周,想要为哪个事物链接其定义、历史及语音解读?当然,你可以在网上键入任何内容,但超视(一款具备智能眼镜功能的产品)使你可以及时地获取信息——只需目光停留在物体上几秒钟就可以了”[4]。其实,这已经不是书中的幻想和憧憬了,体验过苹果公司Vision Pro的用户都提到一个细节,眼睛、双手与语音可以作为最直观的输入方式进行操作控制。
空间互联网会实现线年发布的《AR洞察与应用实践白皮书》中提到,Snapchat日活用户2.8亿,其中平均有2亿用户每天都使用AR互动,包括在视频通话中用AR叠加滤镜,借助脚部识别让用户试穿虚拟鞋子。[5]其实这些还只是空间互联网在交互层面的初级应用,其强大的应用是电影《失控玩家》所呈现的,在全息构建和全息仿真技术的支持下,戴上智能眼镜设备,就可以和不同地方的人在一个场域空间开会,能看到会场里的人的讲话动作、表情、神态,能与相邻的人交头接耳,能真正实现一个所有人“在场”的虚拟会议。
空间互联网将开启一个物理世界与数字世界无缝对接、融合的“新视界”,驱动这个“新视界”、新空间的是数智化,而看到的则是无屏环境下的全息、全真互联网。
空间互联网是建立在空间数据、位置数据及算力、算法之上的。如果将空间互联网分为基础设施层、交互层、平台层和应用层四层,那么基础设施层就需要人工智能、区块链、算力芯片、通信网络等技术为空间互联网的运行提供保障;交互层需要XR终端、全息影像、脑机接口等技术为虚拟感知、虚实融合、实时交互提供技术支持;平台层为构建虚拟空间中的行为主体、数字化环境等提供技术支撑,主要涉及数字内容制作技术、数字孪生等;应用层则是面向各行业领域提供应用服务。因此,空间互联网必须利用各类数字技术,对空间数据、地理位置数据等进行收集、挖掘、分析,以更智能的方式快速、有效地提取有意义、有价值的信息,创建出虚实融合的新图景。
当前,互联网已经实现文本、图片、语音、视频等多种信息的实时传递,但大多是视听、二维平面信息,与现实世界的全量信息相比,还有大量的信息折损或难以传递,比如三维视觉成像,体感、嗅觉和味觉等信息。[6]空间互联网将打破二维平面、视听为主的信息呈现样态,在空间计算的加持下会有更多全息影像、全真互联的场景出现,味觉、嗅觉、体感等平面互联网时代无法传递的信息都将实现远程感知。
过去数十年,人们与数字世界的交互都需要一块线D屏幕来实现,比如平板电脑、智能手机、PC和电视。进入空间互联网时代后,实体屏幕将会消失,任何物体、任何地方、时时处处都可以成为屏幕的载体,数字世界和现实世界可以随时随地融合。在宝马i数字情感交互概念车(Dee)里,基于车载激光显示技术的 AR HUD可以将导航和路况信息等丰富信息叠加到真实车道上,整面挡风玻璃都可以化作“全景大屏”,带来类似赛车游戏般的沉浸感驾驶体验。它还能将驾驶者虚拟形象投射到侧窗上进行互动,并能实现迎宾、欢迎语、解锁、车辆状态显示等应用场景。
2021年央视春节联欢晚会播出时,社交媒体上出现了“刘德华到底来没来现场”的热议。直播中看到的刘德华与王一博、关晓彤同框的节目,其实是借助XR/AR、云计算等技术实现的时空穿越,达到了三人同台、同步的效果,全程毫无违和感,足能以假乱真。事实上,大多数观众也确实没有看出这是在不同时空的异地表演。
空间互联网的虚实融合会全面开拓新闻媒体的创作视野和创新应用。新闻报道的采、写、编、拍、摄、直播等各个业务环节,以及吸引用户参与、交互等方面,都可以引入空间计算,在XR、3D、计算机图形学、传感、AIGC等技术的加持下,呈现出全息报道、实时在场、时空一体的新报道、新传播样式。
在采访环境和空间上,借助AR或VR可以实现远程同步、全息采访,看上去就像和被采访对象同处一个空间,空间互联网可以营造出一个人和人、人和环境同频同在、相互影响、情感交织的氛围。在这种氛围下的交流比简单的只有声音或只有视频头像的交流更能产生共情和心理反应。在采访过程中,AR可以与AI协同使用,变身为采访小秘书,实时显示被采访对象的信息和背景资料,如姓名、职务、兴趣爱好、最新报道等,这有助于记者快速了解采访对象,更好地进行交流和提问;可以把采访的语音内容实时转化并直接呈现到眼前;可以将采访过程中的重要信息实时记录下来,方便记者随时查看和编辑,避免错过重要信息;可以直接实时翻译采访对象的语言,并将翻译内容呈现出来,实现与说不同语言的采访对象无障碍交流,从而提高采访效果。
在拍摄环节中,AR眼镜上通常会有多个摄像头,有的用于提供基于视觉的跟踪定位(SLAM)的图像采集,有的用于进行交互手势识别,有的则用于日常的拍照和录像。这些摄像头可以提供更多的拍摄选择和功能,以满足不同的拍摄需求。2013年,当谷歌工程师带着Google Glass完成一系列拍摄任务——“高空跳伞中的空中景象、地面接力时的交接场面、进入会场的实时场景”时,可穿戴设备就已经与人体的各个器官融为一体,甚至成为人体的一个部分、一个器官。虽然Google Glass没有存活下来,但这一理念在今天得到了延伸和发展,特别是发展为无人直播应用,彻底颠覆了传统直播模式。AR实景无人直播可以将虚拟物体和场景、真实世界结合,可以利用虚拟物体、效果和互动元素来增强直播内容的趣味性和吸引力,可以在实景中实时呈现虚拟对象如产品演示、展示原理、解说词等,这些都可以增强用户身临其境的观看体验。
在编辑制作环节,AR的增强现实功能可以为任何一条视频叠加虚拟场景,也可以在文本、文字里设置标签、标识,当AR眼镜扫描到这些特殊标志时,相应的现实场景或专门制作的虚拟场景就随之打开。这也就意味着未来的新闻内容编辑要将多层次、多类型、全范围的理念贯彻到编辑始终,可以用语音“唤醒”背景资料,可以呈现一个文稿描述下的虚拟世界,可以集成实体空间的真实生活、需求、消费,可以借助空间计算和新型编辑实现从“在线”到“在场”的转变,而媒体融合所希望达到的“新闻+政务+服务+商务”的融合在空间互联网中都能得到满足。
用户和新闻传播的关系将会发生彻底改变。用户可以进入复刻新闻事件的虚拟现场,沉浸感受事件发生的经过,并与现场的报道者、主持人直接对话交流并及时反馈观感、提出需求,也可以与同在现场的其他用户进行一种“面对面”的“在场”实时交谈。在一个虚拟空间或虚实融通的空间里,“面对面”的交流更容易产生共情效应和价值共创,产生高质量的在线互动和高效率的在线年浙江新闻客户端推出一款产品《喜迎二十大·你的AR心愿盒来啦》,采用“AR+H5嵌套短视频”技术,用户“扫一扫”浙江日报上的新闻人物海报,即出现透明背景的动画,画面播完隐去后进入H5交互环节,先自动播放新闻人物短视频再进到互动页,用户可以写上自己的美好心愿,跟新闻人物一起放飞心愿盒。这一产品虽然距离用户进入复刻现场还有一定的距离,却是用户借助AR参与新闻的一种探索。
尽管空间计算及空间互联网对新闻传播流程和产品的再造还在憧憬、探索的路上,但在憧憬之时也需要同时考虑空间计算下的虚实融合会产生哪些问题。最核心的问题是:新闻的真实性与虚拟空间是否会存在矛盾?会出现什么新闻伦理问题?特别是当更多依赖AR或VR眼镜沉浸在空间互联网中时,我们会不会被困在自己打造的“茧房”中?我们本已生活在媒介化社会,随着空间互联网的到来,我们是不是更加被信息包裹而难以逃遁?
[2]用空间计算技术赋能千行百业——访利亚德集团CMO、虚拟动点CEO刘耀东[EB/OL],(2023-06-27).
[4]戴维·罗斯.AR改变世界[M].李莎,译.成都:四川科学技术出版社,2023.
[6]赵轩,吴朋阳:探索下一代互联网的可能性:全息、智能与万物互联[J].出版参考,2023(06).
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
上海这地方大排长龙!都是年轻人,有人凌晨3点就在等开门!另一个活动被紧急叫停
鲁花集团硬气回应惊现反转?“元老级”高管曾公开表示:卖掉自己的运输车,物流运费至少省一半
川A出租车接了个“跨省大单”,从成都开了2300公里到北京,当事人回应→
买“哪吒”开网约车,做了三次四轮定位,就是不跑直线!三个多月愣是一单也没跑
上一篇: 智能化控制
公司地址
广东省广州市龙八_long8(中国)官方网站联系电话
400-123-4567电子邮箱
admin@youweb.comCopyright © 2012-2024 龙八(中国)官方网站 版权所有