Multi-User Redirected Walking in Separate Physical Spaces for Online VR Scenarios
TL;DR 精炼摘要
本文提出了一种创新的多用户重定向行走方法,以解决在线多人虚拟现实场景中由于用户位于不同物理环境造成的移动公平性问题。该方法显著减少总重置次数,并通过优化用户探索体验提升沉浸感,确保不同用户在移动机会上的公平性。
摘要
With the recent rise of Metaverse, online multiplayer VR applications are becoming increasingly prevalent worldwide. However, as multiple users are located in different physical environments, different reset frequencies and timings can lead to serious fairness issues for online collaborative/competitive VR applications. For the fairness of online VR apps/games, an ideal online RDW strategy must make the locomotion opportunities of different users equal, regardless of different physical environment layouts. The existing RDW methods lack the scheme to coordinate multiple users in different PEs, and thus have the issue of triggering too many resets for all the users under the locomotion fairness constraint. We propose a novel multi-user RDW method that is able to significantly reduce the overall reset number and give users a better immersive experience by providing a fair exploration. Our key idea is to first find out the ”bottleneck” user that may cause all users to be reset and estimate the time to reset given the users’ next targets, and then redirect all the users to favorable poses during that maximized bottleneck time to ensure the subsequent resets can be postponed as much as possible. More particularly, we develop methods to estimate the time of possibly encountering obstacles and the reachable area for a specific pose to enable the prediction of the next reset caused by any user. Our experiments and user study found that our method outperforms existing RDW methods in online VR applications.
思维导图
论文精读
中文精读
1. 论文基本信息
1.1. 标题
多用户重定向行走在独立物理空间下的在线VR场景 (Multi-User Redirected Walking in Separate Physical Spaces for Online VR Scenarios)
1.2. 作者
Sen-Zhe Xu, Jia-Hong Liu, Miao Wang, Fang-Lue Zhang, and Song-Hai Zhang。
- Sen-Zhe Xu: 曾于2021年获得清华大学计算机科学与技术博士学位,目前是清华大学Yau数学科学中心的博士后。研究兴趣包括虚拟现实和图像/视频处理。
- Jia-Hong Liu: 目前在清华大学计算机科学与技术系攻读本科。研究兴趣包括虚拟现实和3D场景重建。
- Miao Wang (IEEE 会员): 2011年毕业于西安电子科技大学,2016年获得清华大学博士学位。现为北京航空航天大学计算机科学与工程学院虚拟现实技术与系统国家重点实验室副教授。研究兴趣包括虚拟现实、计算机图形学和可视化计算。
- Fang-Lue Zhang (IEEE 会员): 2009年毕业于浙江大学,2015年获得清华大学博士学位。现为新西兰惠灵顿维多利亚大学高级讲师。研究兴趣包括图像和视频编辑、混合现实和基于图像的图形学。
- Song-Hai Zhang (IEEE 会员): 2007年获得清华大学计算机科学与技术博士学位。现为清华大学计算机科学与技术系副教授。研究兴趣包括计算机图形学、虚拟现实和图像/视频处理。
1.3. 发表期刊/会议
发表于 IEEE Transactions on Visualization and Computer Graphics (TVCG)。TVCG 是计算机图形学和可视化领域顶级的国际期刊之一,享有极高的学术声誉和影响力。
1.4. 发表年份
2023年。
1.5. 摘要
随着元宇宙 (Metaverse) 的兴起,在线多人虚拟现实 (VR) 应用 (online multiplayer VR applications) 越来越普及。然而,由于多用户位于不同的物理环境 (Physical Environments, PEs) 中,不同的重置 (reset) 频率和时机可能导致在线协作/竞争性VR应用出现严重的公平性 (fairness) 问题。为了在线VR应用/游戏的公平性,一个理想的在线重定向行走 (Redirected Walking, RDW) 策略必须确保不同用户的移动机会 (locomotion opportunities) 均等,无论其物理环境布局如何。现有的RDW方法缺乏协调不同PE中多用户的机制,因此在移动公平性约束 (locomotion fairness constraint) 下存在触发过多重置的问题。
本文提出了一种新颖的多用户RDW方法,能够显著减少总体重置次数,并通过提供公平的探索体验,为用户带来更好的沉浸式体验。其核心思想是:首先找出可能导致所有用户重置的“瓶颈用户 (bottleneck” user),并根据用户接下来的目标估算重置时间;然后,在该最大化的瓶颈时间内将所有用户重定向到有利的姿态 (poses),以确保后续重置尽可能推迟。更具体地说,本文开发了估计可能遇到障碍物的时间以及特定姿态可达区域的方法,从而能够预测任何用户引起的下一次重置。实验和用户研究表明,本文方法在在线VR应用中优于现有RDW方法。
1.6. 原文链接
/files/papers/6946513507f8689679b7cff2/paper.pdf
本文已于 2023年3月2日正式发表。
2. 整体概括
2.1. 研究背景与动机
随着元宇宙 (Metaverse) 概念的兴起和在线多人虚拟现实 (VR) 应用 (online multiplayer VR applications) 的普及,用户可以在共享的虚拟环境 (Virtual Environment, VE) 中进行互动和游戏,即使他们身处各自独立的物理环境 (Physical Environments, PEs) 中(如图1所示)。为了提供自然流畅的VR移动体验,自然行走 (natural walking) 被认为是比使用控制器或全向跑步机更能带来存在感 (presence) 的方式。然而,物理空间(PE)的限制常常阻碍用户在大型VE中自由行走。
重定向行走 (Redirected Walking, RDW) 技术应运而生,旨在通过巧妙地调整用户在PE中的移动轨迹,使其在不察觉的情况下,在有限的PE内探索更大的VE,并减少撞到物理障碍物的次数。RDW通常结合隐蔽方式 (subtle manners)(如微调方向或速度)和显式方式 (overt manners)(如暂停场景并重置用户姿态)。此前的RDW算法主要关注单用户或多用户在共享物理空间 (shared physical space) 的情况。在这些场景下,用户的重置通常被视为相互独立的事件。
然而,在在线多人VR应用/游戏中,由于每个用户位于不同的PE中,当其中一个用户因物理障碍物而需要重置 (reset) 时,其他用户可能仍在各自的PE中继续行走,这将导致他们在VE中的相对位置发生变化。这种变化会带来严重的公平性 (fairness) 问题,尤其是在协作或竞技类VR应用中,如《Dota》或《红灯绿灯》。例如,如果一个玩家频繁重置,他的移动机会就会大大减少,这不仅影响沉浸感,也可能导致游戏无法公平进行。因此,现有的RDW方法无法直接应用于这种多用户独立物理空间 (multi-user in separate physical spaces) 的在线VR场景,因为它们缺乏协调多用户重置的机制,并且在考虑公平性时会导致过多的重置。
论文旨在解决的核心问题是:如何在多用户身处不同物理环境的在线VR场景中,实现移动机会的公平性 (locomotion fairness),同时最大程度地减少共同重置 (common resets) 的次数,从而提升用户的沉浸式体验。
2.2. 核心贡献/主要发现
本文为异地 (off-site) 多人在线VR应用/游戏提出了首个实用且可靠的RDW解决方案,其核心贡献和主要发现包括:
- 提出公平性约束下的新RDW策略: 首次提出了在移动公平性约束 (locomotion fairness constraint) 下的RDW策略。该约束要求当任何用户触发重置时,所有用户必须同步暂停并重置,以保持他们在虚拟环境中的相对位置不变。这解决了现有RDW方法在不同物理空间多用户在线VR场景中无法保证公平性的问题。
- 显著减少重置次数: 针对公平性约束可能导致重置次数增加的问题,本文提出了一种新方法,通过协调所有用户的行走,显著减少了所有相关用户的总重置次数。
- “瓶颈用户”识别与最大化瓶颈时间: 核心思想是识别可能最快触发重置的“瓶颈用户 (bottleneck” user),并估算其重置时间。然后,通过最大化这个“瓶颈时间”,将所有用户重定向到更有利的物理姿态 (physical poses),以推迟下一次共同重置的发生。
- 精确的预测方法: 开发了两种关键方法:
- 障碍物遭遇时间估算: 使用内切圆策略 (inscribed circle strategy) 预测用户在遇到物理障碍物之前可以行走的最长时间。
- 给定时间可达区域估算: 使用同心圆策略 (concentric circles strategy) 预测用户在一次重置后给定时间内可以到达的物理区域。
- 骨架姿态与安全性/可逃脱性指标: 通过将物理空间抽象为离散的骨架姿态 (skeleton poses),并计算每个骨架位置的可逃脱性 (escapability) () 和安全性 (safety) () 指标,为决策重定向目标提供了量化依据。
- 实验验证与用户研究: 在仿真和真实世界环境中进行了广泛实验,包括不同用户数量、不均等和不规则物理环境的测试。结果表明,本文方法在减少重置次数方面显著优于现有最先进的RDW方法,并能提供更长的行走距离和更好的沉浸式体验,同时不增加模拟器眩晕感。
- 扩展 OpenRDW 平台: 将本文工作集成到开源的 OpenRDW 平台中,创建了其“Meta”版本,使其成为首个支持异地多人在线VR应用的RDW平台。
3. 预备知识与相关工作
3.1. 基础概念
3.1.1. 虚拟现实 (VR) 与元宇宙 (Metaverse)
- 虚拟现实 (Virtual Reality, VR): 一种计算机生成的三维环境,用户可以通过VR头戴设备等设备沉浸其中并进行互动。它模拟了视觉、听觉等感官体验,使用户感觉自己置身于虚拟世界。
- 元宇宙 (Metaverse): 一个持久化、相互连接的虚拟世界网络,用户可以在其中以数字身份进行社交、工作、娱乐和经济活动。在线多人VR应用是元宇宙实现的关键组成部分之一。
3.1.2. 物理环境 (PE) 与虚拟环境 (VE)
- 物理环境 (Physical Environment, PE): 用户在现实世界中实际行走的物理空间。例如,用户的房间、客厅等。
- 虚拟环境 (Virtual Environment, VE): VR应用中用户感知和互动的数字世界。RDW的目标是让用户在有限的PE内探索无限的VE。
3.1.3. 重定向行走 (Redirected Walking, RDW)
- 重定向行走 (Redirected Walking, RDW): 一种在有限的物理空间内让用户自由行走,同时在虚拟环境中探索更大区域的技术。它通过对用户在虚拟世界中的感知运动进行微调,使其在物理世界中的移动轨迹发生偏转,但用户对此改变无感知或感知不强。
- 隐蔽方式 (Subtle Manners): RDW通过微小地调整用户的虚拟运动 (virtual movement)(如方向或速度增益),使其在物理空间中偏离直线路径,但用户很难察觉到这种不一致性。这使得用户可以行走更长的距离,而不会撞到物理障碍物。
- 显式方式 (Overt Manners): 当用户即将遇到物理障碍物时,隐蔽方式不足以避免碰撞。此时,RDW会暂停虚拟场景,并提示用户调整物理姿态(例如,转动身体或走回中心),即进行重置 (reset)。
3.1.4. 重置 (Reset)
- 重置 (Reset): 当用户在物理空间中即将撞到障碍物(墙壁、家具等)时,系统会暂停虚拟场景,并要求用户调整其在物理空间中的位置和/或方向,使其回到一个安全可走的区域。重置会打断用户的沉浸式体验,因此所有RDW方法的目标之一是减少重置的频率。
3.1.5. 移动增益 (Locomotion Gains)
为了在虚拟世界和现实世界之间实现无感知的映射,RDW会应用特定的增益 (gains) 来操纵用户的运动:
- 平移增益 (Translation Gains): 调整用户在物理空间中的位移比例。例如,用户在物理空间中走1米,但在虚拟空间中可能被感知为走了1.2米(增益大于1)或0.8米(增益小于1)。典型的范围是0.86到1.26。
- 旋转增益 (Rotation Gains): 调整用户在物理空间中转动时的虚拟旋转速度。例如,用户在物理空间中转动90度,但在虚拟空间中可能被感知为转动了100度。典型的范围是0.8到1.49。
- 曲率增益 (Curvature Gains): 在用户向前行走时,系统会轻微地偏转用户的方向,使其在物理空间中沿着弧线行走,而不是直线。这使得用户可以“转弯”而不自知。一个常用的最小曲率半径是7.5米。
3.1.6. 移动公平性约束 (Locomotion Fairness Constraint)
在本文提出的多用户在线VR场景中,为了保证所有用户在虚拟世界中的相对位置不发生变化(这对协作或竞技游戏至关重要),引入了移动公平性约束 (locomotion fairness constraint):当任何一个用户因物理障碍物而需要重置时,所有其他用户也必须同步暂停并重置,然后一起恢复游戏。这个约束虽然保证了公平性,但可能导致总的重置次数增加,因为一个用户的重置会“牵连”到所有其他用户。
3.2. 前人工作
RDW领域的研究历史悠久,本文回顾了多个方向的工作:
3.2.1. 经典 RDW 策略
- Razzaque 等 (2001) [3]: 提出了RDW的基本概念。
- Razzaque 等 [7]: 提出了三种通用且广泛使用的重定向方法:
- Steer-to-Center (S2C,转向中心): 将用户重定向到物理空间的中心。
- Steer-to-Orbit (S2O,转向轨道): 将用户重定向到物理中心周围的圆形轨道。
- Steer-to-Multiple-Targets (S2MT,转向多目标): 将用户重定向到物理空间中预定义的路点。
- Hodgson 等 [8]: 通过设置临时转向目标来改进S2C,使用户更快回到追踪空间中心,提出了steer-to-multiple+center策略。
- Azmandian 等 [9]: 比较了不同物理环境尺寸和宽高比下各种RDW方法,确认S2C在大多数情况下表现优于其他方法,但S2O在用户沿着长直线虚拟路径行走时表现更好。
3.2.2. 基于人工势场 (APF) 的方法
APF通过模拟物理力来引导用户远离障碍物或吸引到期望区域。
- Thomas 等 (TAPF) [12]: 提出了“推/拉反应 (Push/Pull Reactive)”机制,利用预定义APF计算的吸引力或排斥力来引导用户。
- Bachmann 等 [13]: 使用APF排斥用户和避免多用户之间的碰撞,支持多用户在同一追踪空间 (same tracking space) 行走。
- Messinger 等 [14]: 改进了Bachmann等人的APF方法,优化了力矢量计算,并增强了在不规则追踪空间中的适应性。
- Dong 等 (DAPF) [15]: 提出了动态人工势场 (Dynamic APF, DAPF),同样用于多用户场景,考虑了障碍物、用户自身以及未来状态的联合排斥力,以及转向目标的引力。
3.2.3. 基于强化学习 (RL) 的方法
RL方法通过学习优化策略来决定RDW增益。
- Lee 等 (S2OT) [16]: 提出了Steer-to-Optimal-Target (S2OT),通过强化学习从25个预定义目标中估计最佳转向目标。
- Lee 等 (MS2OT) [17]: 后来提出了Multiuser-Steer-to-Optimal-Target (MS2OT),一个基于强化学习的多用户RDW方法,改进了S2OT,考虑了重置前动作,使用了更多转向目标,并改进了奖励函数。
- Strauss 等 (SRL) [18]: 提出了Steering via Reinforcement Learning (SRL),直接应用强化学习技术确定转向增益。
- Chang 等 [19]: 也提出了一种基于强化学习的可规划/多功能RDW方法。
3.2.4. 基于对齐 (Alignment-based) 的方法
这类方法试图对齐虚拟环境和物理环境的几何或拓扑结构。
- Thomas 等 [21]: 引入了Reactive Environmental Alignment (REA),使物理和虚拟环境从错位状态过渡到对齐状态。
- Williams 等 (ARC) [5]: 提出了Alignment-based Redirection Controller (ARC),使PE中与障碍物的距离与VE中保持一致。
- Williams 等 [20]: 还提出了使用可见多边形 (visibility polygons) 来计算可步行空间,并通过引导用户来对齐PE和VE的可见多边形。然而,这些方法在VE不含障碍物或尺寸无限时效果较差。
3.2.5. 其他 RDW 方法
- 基于虚拟干扰物 (Virtual Distractors) 的方法 [22]: 例如增加视觉 [23] 或听觉 [24] 干扰物,吸引用户注意力,从而改变其行走轨迹以避免物理碰撞。但干扰物可能影响VE的内容和表达。
- 基于兴趣点 (POI-aware) 的方法 [25]: 避免在用户感兴趣的虚拟地点进行重置,以保护用户体验。
3.2.6. 动态环境与多用户 RDW
除了上述涉及多用户的方法外,还有一些工作致力于重定向多用户。
- Bachmann 等 [26]: 扩展了RDW控制器以支持双人VR应用,通过预测潜在碰撞。
- Azmandian 等 [27]: 探索了双用户VR场景碰撞预防的三个基本组成部分,并比较了PE划分的碰撞预防策略。
- Z. Dong 等 [28]: 提出通过平滑映射虚拟场景到PE并避免与动态虚拟化身碰撞来重定向多用户。
- T. Dong 等 [29]: 提出了一种基于动态密度的多用户导航RDW方法,用于大规模虚拟环境。
3.3. 技术演进
RDW技术从最初的单用户场景(S2C、S2O等),逐步发展到考虑多用户在共享物理空间中的协作(如Bachmann的APF方法、MS2OT),以避免用户间的碰撞。这些多用户方法通常将每个用户的重置视为相对独立的事件,或者只关注在共享空间中如何协调用户的物理路径。
本文的工作处于这一技术演进的最新前沿,它识别出现有方法在多用户独立物理空间且虚拟行为相关联的在线VR场景中的局限性。此前的多用户RDW方法主要解决了在共享物理空间中用户互相碰撞的问题,或者在虚拟环境中用户行为互不影响的情况。然而,当多用户在各自独立的PE中进行在线协作或竞技时,一个用户的重置行为会影响所有其他用户的虚拟相对位置,从而引发公平性问题。
3.4. 差异化分析
本文方法与相关工作中的主要方法相比,核心区别和创新点在于:
-
解决场景: 现有RDW方法主要关注单用户或多用户在共享物理空间的情况。而本文则聚焦于多用户在独立(异地)物理空间的在线VR场景。这种场景下,每个用户都有自己的PE,这带来了独特的挑战。
-
公平性约束: 本文首次引入并严格遵循移动公平性约束 (locomotion fairness constraint)。这意味着当任何一个用户需要重置时,所有在线用户都必须同步重置。这与现有方法中“每个用户重置相互独立”的假设截然不同。为了克服这一约束带来的重置次数激增问题,本文提出了创新的协调策略。
-
跨PE协调: 现有方法缺乏跨不同PE协调多用户重定向的机制。它们通常各自为营,或只在共享空间中进行局部协调。本文的方法能够全局性地协调所有用户的移动和重置,通过识别“瓶颈用户”并最大化共同重置时间间隔。
-
重置目标: 现有方法在重置时可能只关注将单个用户引导到当前PE中一个“较好”的位置。本文的方法则在共同重置发生时,策略性地将所有用户重定向到最有利的姿态 (favorable poses),以确保他们在下一次共同重置之前都能行走尽可能长的距离,从而从整体上最小化共同重置的次数。这个“最有利的姿态”是基于对未来行走时间和可达区域的预测来确定的。
简而言之,本文的创新点在于从根本上改变了多用户RDW的目标函数——从独立优化或局部碰撞避免,转变为在严格公平性约束下全局优化所有用户的共同重置频率。
4. 方法论
本文提出了一种新颖的多用户在线重定向行走 (RDW) 控制器,旨在解决在独立物理空间中多用户VR应用的公平性问题,并最小化共同重置的次数。其核心思想是识别“瓶颈用户”,并在此基础上协调所有用户的重定向和重置策略。
4.1. 方法原理
假设有 个用户 参与同一个在线VR应用,他们分别位于 个独立的物理空间 。每个用户 都有一个虚拟目标 需要前往。为了保证在线VR应用/游戏的公平性,本文采用了移动公平性约束 (locomotion fairness constraint):当任何用户在物理空间中遇到障碍物需要重置时,所有用户必须同步暂停并重置,然后一起恢复。这种机制可以避免用户在虚拟环境中的相对位置发生变化。然而,这种约束会增加每个用户的重置频率。
为了解决这个问题,本文的目标是在此公平性约束下,最小化所有用户的总体重置次数。核心策略是协调所有用户的行走,以最大化两次重置之间的时间间隔。具体步骤如下:
- 估算个体重置时间: 对于每个用户,估算他们在当前姿态下,在不遇到物理障碍物的情况下可以行走的最长时间。
- 估算个体可达区域: 估算用户在一次重置后,在给定时间内可以到达的物理空间范围。
- 识别瓶颈用户: 根据估算的重置时间,找出在最短时间内就会遇到障碍物的用户,即“瓶颈用户”。
- 最大化瓶颈时间: 将瓶颈用户重定向到其当前位置下能行走最长时间的姿态。
- 协调其他用户重定向: 其他用户(非瓶颈用户)也会在“瓶颈时间”内被重置并重定向到对其最有利的姿态,这些姿态能确保他们在下一次共同重置后也能行走尽可能长的距离,或者为未知的下一个目标提供更好的“安全”区域。
4.2. 核心方法详解
4.2.1. 障碍物遭遇时间估算 (Time Span Before Encountering Obstacles)
本节旨在计算用户在当前物理姿态 下,朝向虚拟目标行走,在遇到物理障碍物之前可以行走的最长时间。其中 是用户的位置, 是用户的方向。
内切圆策略 (Inscribed Circle Strategy): 该方法通过从用户当前姿态 发出一系列径向曲线来扫描物理空间,以估算沿着这些曲线撞到障碍物所需的时间。
- 生成候选路径: 将用户当前方向 作为切线方向, 作为接触点,生成一系列左右两侧的互切圆 ,每个圆具有不同的半径 。这里的 是曲率增益阈值半径, 是一个用于生成不同曲率增益的因子。
- 如果 ,表示向左转向。
- 如果 ,表示向右转向。
- 用户的物理路径将与圆 重合,前提是使用的曲率增益半径 。
- 圆的方程: 圆 的方程可以写为:
- 其中, 是一个旋转矩阵,用于将点 旋转到以用户方向为x轴的坐标系中。
- 表示在新的坐标系中,圆心相对于用户位置的偏移。
- 表示点 到圆心的距离平方等于半径平方。 这个方程描述了以用户当前位置 为切点,方向 为切线方向,半径为 的圆。
- 的生成: 为了均匀扫描PE, 被设计为在 接近1时缓慢增长,并在 增加到
2k时趋于无穷大。- 这里, 确保 函数的参数从0开始逐渐增加,从而使 的值从1逐渐减小到接近0。
- 用于交替控制 的正负,从而生成左右两侧的圆。
- 当 的参数接近 时, 的值趋近于0,导致 趋于无穷大,模拟了直线路径(即曲率增益为0)。
- 计算行走距离和时间: 对于每个圆 ,与PE中的所有潜在障碍物求交,得到从 沿 到最近障碍物的距离 。如果 不与任何障碍物相交(例如,PE非常大),则 设为无穷大。
- 假设用户在虚拟空间中的行走速度为 (不同用户可能不同),沿路径 在不考虑平移增益的情况下允许的行走时间为:
- 当 时,圆趋近于直线,这相当于用户在不使用曲率增益的情况下行走。将此直线路径视为 ,并计算其对应的行走时间 。
- 考虑平移增益: 考虑到平移增益 可以加速或减慢用户的物理速度,行走时间 的可能范围进一步缩放为 。
- 最大行走时间 : 假设 足够大以使候选路径 足够密集,则从起始姿态 在遇到障碍物之前用户可以拥有的最大行走时间近似为:
-
这表示在所有可能的曲率增益和最大平移增益 下,用户在不撞到障碍物的情况下可以行走的最长时间。
-
RDW控制器可以在 之间的任何时间点选择重置用户。
下图(原文 Figure 2)展示了内切圆策略在障碍物遭遇时间估算中的应用:
图示:内切圆策略用于估算障碍物遭遇时间。图中显示了从用户当前位置P和方向θ出发的一系列内切圆,用于检测沿不同路径可能遇到的障碍物,并计算行走时间。
-
4.2.2. 给定时间可达区域的空间范围 (Spatial Extent of Reachable Area With Given Time)
当用户即将重置时,预测用户在重置后给定时间 内可达的区域,有助于RDW控制器将用户重置和重定向到更有利的位置,从而最小化所有用户的共同重置次数。假设用户在当前位置 刚发生了重置。
同心圆策略 (Concentric Circles Strategy): 该方法通过考虑用户在不同增益下能行走的距离来确定可达区域。
-
最大可达位移 : 为了让用户行走最远的距离,控制器需要应用最小平移增益 (使物理行走更快),并保持用户直行(无曲率增益)。
- 其中 是虚拟空间中的速度, 是给定时间。
-
最近可达位移 : 类似地,通过应用最大平移增益 ,用户在给定时间 内可以行走更短的距离。
- 理论上,任何距离 的位置,都可以通过重置用户到相应方向并调整平移增益 来在时间 内到达。但是,这要求直线路径上没有障碍物。
-
最小可达位移 : 通过应用最大曲率增益(即最小半径 )并结合最大平移增益 ,可以将直线路径弯曲到最大程度,从而实现更小的可达位移。
- 是在半径为 的圆上,弧长为 所对应的弦长。它代表在时间 内,使用最大曲率增益和最小平移增益(这里原文描述为
minimum translation gain,但根据公式 ,应为最大平移增益,导致物理行走距离最短)可以到达的最小位移。
- 是在半径为 的圆上,弧长为 所对应的弦长。它代表在时间 内,使用最大曲率增益和最小平移增益(这里原文描述为
-
任意位移 的可达性: 对于介于最小和最近位移之间的任何位置 且距离为 ,可以通过调整曲率增益半径 来使其可达。
- 这是一个关于 的超越方程,没有代数解。但可以通过二分查找在之前生成的 候选半径中快速找到近似解。
- 找到 后,还需要验证该弧形路径是否被PE中的障碍物阻挡。
- 注意,这种情况下,作者主要通过调整曲率增益来寻找候选路径,而不是通过平移增益。
-
可达位置集 : 最终,所有在时间 内可从 到达的、位移 且路径无障碍的位置集合,被定义为 。
下图(原文 Figure 3)展示了同心圆策略用于估算给定时间 的可达区域:
该图像是示意图,展示了在时间 时用户的可达区域的同心圆策略。图中标示了用户在特定时间内的可达区域与需避开的区域,包括不同曲率增益和位移增益下的可达区域。标记的 、 和 分别表示用户在该时间点的不同可达范围。
图示:同心圆策略用于估算给定时间 后可达区域的空间范围。图中显示了不同位移范围 、 和 ,以及用户在时间 内可能到达的区域。
4.2.3. 多用户在线 RDW 控制器 (The Multi-User Online RDW Controller)
为了协调所有用户的重定向以减少总重置次数,控制器首先分析每个用户的当前状态,然后识别瓶颈用户,并据此调整所有用户的重置目标。
骨架姿态 (Skeleton Poses): 由于物理空间中的用户姿态是无限的,本文将物理空间抽象为一系列离散的骨架姿态 (skeleton poses) 来表示可能的配置。
-
骨架位置 (Skeleton Positions): 将给定的物理空间 划分为边长为 的正方形网格。这些正方形的中心(排除障碍物内的中心)作为骨架位置 。
-
骨架方向 (Skeleton Orientations): 定义 个离散的骨架方向 。
-
骨架姿态 (Skeleton Poses): 骨架位置和骨架方向共同构成了给定空间的骨架姿态集合 。
-
离线预处理: 对所有骨架姿态 ,离线计算最大行走时间 (使用4.2.1节的方法)。
-
指标: 每个骨架位置 都用两个指标进行衡量:
-
可逃脱性 (Escapability) : 表示从位置 出发,如果用户被重置到最优方向,可以行走的最长时间。
-
安全性 (Safety) : 表示在 处所有骨架方向上最大行走时间的调和平均值 (harmonic mean)。它反映了在用户转向未知方向时,该位置的整体安全性。调和平均值对较短的最大时间更敏感,因此能更好地指示危险方向。
-
使用调和平均值而不是算术平均值,是为了使 对存在较短障碍物遭遇时间的危险方向更为敏感。
下图(原文 Figure 4)展示了骨架位置和骨架方向的示例:
图示:骨架位置和骨架方向的说明。绿色箭头表示骨架方向,圆点表示骨架位置,黑色区域是障碍物。用户状态分析 (User State Analysis): 用户的虚拟运动通常由走向当前虚拟目标和转向下一个虚拟目标组成。每次沉浸式直线行走段从用户转向或重置结束时开始,到用户到达目标或触发重置时结束。为了保持沉浸感,RDW控制器在每个直线行走段内保持恒定增益,只在发生共同重置或用户转向时才重新决策新的增益。
-
-
估算剩余时间 : RDW控制器知道用户的虚拟行走速度,因此可以估算每个用户 到达其虚拟目标 所需的剩余时间 。假设 在这段时间内会继续在VE中行走。
-
计算当前最大无障碍行走时间 : 对于每个用户 ,在其当前物理位置 处,计算所有骨架方向 下的最大无障碍行走时间 ,并找出其中的最大值:
- 表示 在当前位置 被重置到最佳方向后,能够行走的理论最长时间上限。
-
用户分类:
- 安全用户集 : 如果 ,意味着用户 可以在不再次遭遇障碍物的情况下到达其目标 。
- 不安全用户集 : 如果 ,意味着用户 在当前重置后无法到达目标 ,在到达目标前还需要一次重置。
重定向策略 (Redirection Strategy): RDW控制器根据用户分类和估算的时间,协调所有用户的重置和重定向。
-
情况1:不安全用户集 不为空。
- 这种情况下,存在一个或多个用户在到达其虚拟目标前肯定会再次遇到物理障碍物。
- 识别瓶颈用户 : 瓶颈用户是 中 最小的用户,即最快会触发下一次重置的用户。
- 重定向瓶颈用户 : 将瓶颈用户 重置并重定向到其当前位置 下能够行走的精确最大允许时间 的姿态。这通过将其重置到 的最佳方向,并使用导致最长行走时间 的曲率增益来实现。目的是最大化所有在线用户到下一次共同重置的时间间隔。
- 重定向其他用户 (非瓶颈用户): 对于所有其他用户(包括 中的用户和 中非瓶颈用户),他们的剩余行走时间可能大于或小于瓶颈时间 。由于他们预计会在 时刻被重置,因此需要将他们重置并重定向到更有利的物理位置,以便在瓶颈用户触发的下一次共同重置之后,他们可以行走更远的距离。
- 目标确定: 对于用户 ,在瓶颈时间 内,估算其可达空间范围 。
- 最佳目标选择: 如果其可达区域内有骨架位置,则选择其中可逃脱性 最大的骨架位置作为其物理目的地 。
- 然后,使用4.2.2节的方法,确定重置方向和增益,将 重定向到 。
- 备用方案: 如果可达区域内没有骨架位置(极少发生,通常是 太小或骨架位置太稀疏),则 将被重置并重定向,使其行走最长时间 (与瓶颈用户类似)。
-
情况2:不安全用户集 为空。
- 此时,所有用户都是“安全”用户,即他们都能在不触发重置的情况下到达当前虚拟目标。这意味着没有明确的“瓶颈用户”,且瓶颈时间相当于无穷大。
- 对于每个用户 ,虽然他们能到达当前目标,但他们到达目标后会转向新的未知目标。因此,需要将他们重置并重定向到一个更“保险”的位置,以应对未来的不确定性。
- 目标确定: 估算用户 在其剩余时间 内的可达空间范围 。
- 最佳目标选择: 从 中的骨架位置中,选择安全性 最大的位置作为 的物理目的地 。
- 选择安全性 而不是可逃脱性 的原因是,它能更好地应对用户转向未知随机目标时的不可预测性。
- 当用户 到达当前目标 并准备转向下一个目标时,控制器会计算其从新姿态可行走的最长时间,并据此重定向 ,直到某个用户再次触发共同重置。
- 如果在用户转向过程中触发了共同重置,用户将原地转向但不移动,直到共同重置结束。如果用户在共同重置完成前开始移动,重置界面将弹出以引导用户返回起始位置。所有用户准备就绪后,再同步开始移动。
5. 实验设置
5.1. 数据集
实验中没有使用传统意义上的公开数据集,而是通过模拟用户在虚拟环境中的移动轨迹来生成数据。这种模拟方法在评估 RDW 方法中被广泛认可和使用 [5, 9, 12, 14, 15, 18, 20, 26, 27]。
- 模拟用户模型: 采用了 Azmandian 等人 [9] 提出的运动模型来模拟用户在虚拟环境 (VE) 中的移动。
- 移动特性:
- 模拟用户在 VE 中以恒定速度 进行平移。
- 以恒定角速度 进行旋转。
- 目标生成:
- 每个虚拟目标都是随机生成的。
- 目标与用户之间的距离在 到 之间随机分布。
- 目标在用户前方
180度范围内随机分布。
- 起始位置: 用户的起始物理位置在物理环境 (PE) 中随机确定。
- 实验终止条件: 当所有用户在 VE 中行走的距离超过 时,一个模拟试验结束。
- 试验次数: 在每种 PE 配置下,每个方法都进行了
100次模拟试验。
5.2. 评估指标
论文使用了两种主要指标来评估不同 RDW 方法的性能:
5.2.1. 重置次数 (Number of Resets)
- 概念定义: 重置次数衡量的是在整个模拟试验过程中,由于用户即将遇到物理障碍物而需要系统暂停虚拟场景并要求用户调整物理姿态的次数。在多用户在线VR场景中,本文的方法关注的是共同重置 (common resets) 的次数。重置会打断用户的沉浸式体验,因此减少重置次数是RDW方法的一个核心目标。
- 数学公式: 该指标没有一个通用的数学公式,因为它是通过计数在模拟或实际实验中发生的重置事件来获得的。
- 符号解释:
- : 总重置次数。
- : 模拟或实验的总时长/行走距离。
- : 指示函数,如果时刻 发生了重置事件,则为1,否则为0。
5.2.2. 行走距离 (Walking Distance)
- 概念定义: 在用户研究中,由于不同参与者可能有不同的物理行走距离,因此直接比较重置次数可能不公平。相反,该指标衡量的是在发生固定次数(例如,8次)共同重置之后,用户在虚拟环境中总共行走的距离。更长的行走距离意味着在相同重置频率下,用户能够探索更大的虚拟空间,提供更好的沉浸式体验,因此该指标值越大越好。
- 数学公式: 该指标也没有一个通用的数学公式,它是通过累加用户在VE中实际行走的位移来获得的。
- 符号解释:
- : 用户在虚拟环境中行走的累积距离。
- : 用户到达的虚拟目标数量。
- : 用户到达第 个虚拟目标所走的距离。
5.2.3. 模拟器眩晕问卷 (Simulator Sickness Questionnaire, SSQ)
- 概念定义: SSQ [36] 是一种广泛使用的标准化问卷,用于评估用户在VR体验后可能出现的模拟器眩晕症状,如恶心、定向障碍和眼部不适。它通过一系列主观问题来量化用户的舒适度。
- 数学公式: SSQ 的计算涉及对多个症状评分的加权求和,通常产生一个总分和几个子量表分数。具体的加权公式由 Kennedy 和 Fowlkes [36] 提出,例如总分 (Total Severity Score) 的计算:
其中
N, O, D分别是恶心 (Nausea)、定向障碍 (Oculomotor) 和眩晕 (Disorientation) 三个子量表的原始分数,每个子量表分数是其所含症状评分之和。每个症状的评分通常为 0(无)、1(轻微)、2(中等)、3(严重)。 - 符号解释:
- : 模拟器眩晕总严重度分数。
- : 恶心子量表分数。
- : 定向障碍子量表分数。
- : 眩晕子量表分数。
5.3. 对比基线
本文将自己的方法与多个最先进的 RDW 方法进行了比较,以验证其性能:
-
Steer-to-Center (S2C) [8]: 经典方法,旨在将用户重定向回物理空间的中心。
-
Steer-to-Orbit (S2O) [8]: 经典方法,旨在将用户重定向到围绕物理中心的一个圆形轨道上。
-
ZigZag [7]: 另一种早期提出的RDW策略,通过迫使用户在物理空间中进行“之”字形移动来延长行走距离。
-
Dynamic APF (DAPF) [15]: 基于动态人工势场的方法,用于多用户重定向行走,考虑了障碍物、用户和未来状态的排斥力以及转向目标的引力。
-
Steering via Reinforcement Learning (SRL) [18]: 一种基于强化学习的方法,直接通过学习确定重定向增益。
为了确保比较的公平性,作者对这些基线方法进行了调整:
-
共同重置处理: 当发生共同重置时,即使其他用户没有遇到障碍物,也会让他们同时重置到当前位置的最佳方向,以减少重置次数。
-
重置策略: 对于那些没有明确重置策略的方法(如S2C、S2O和Zigzag),采用了 reset-to-gradient (R2G) [12] 作为重置策略。R2G通常会将用户重置到物理空间中坡度最陡峭(即离障碍物最远)的方向。
5.4. 实现细节
- 参数设置:
- :用于障碍物遭遇时间估算和可达区域空间范围估算的候选半径数量。考虑转向方向和零曲率增益,总共有21种潜在曲率增益。
- :骨架姿态之间的间距,被认为是适合成年人肩宽的密度()。
- :骨架方向的数量,用于密集扫描潜在方向。
- $R = 7.5 \mathrm{~m}:曲率增益阈值半径,表示用户可感知的最小转弯半径。 - $g_t^{min} = 0.86$:最小平移增益。 - $g_t^{max} = 1.26$:最大平移增益。 - 这些增益阈值和曲率半径是经过广泛验证,并在大量RDW文献中普遍使用的 [5, 8, 9, 12, 13, 14, 15, 17, 20, 26, 29]。 - **硬件与性能:** 在配备 Intel Core i7-9750H CPU 2.60 GHz 和 8 GB RAM 的 PC 上,本文的RDW控制器能够实时运行。 - **用户研究平台:** 在用户研究中,算法使用 **VIVE Pro Eye** 头戴设备在 **Unity** 引擎中实现。 - **通信:** 采用 **Photon Unity Networking 2** 实现多设备之间的通信。 - **速度估计:** 在用户研究中,由于参与者的物理行走速度 $v$ 无法预先得知,系统会记录用户上一段直线行走的平均速度,并将其作为下一段行走的估计速度。 # 6. 实验结果与分析 ## 6.1. 核心结果分析 本文通过仿真和用户研究,评估了所提出方法在不同场景下的性能,并与多种现有RDW方法进行了比较。 ### 6.1.1. 不同用户数量下的性能 (Performance With Different Numbers of Users) **实验设置:** - **PE配置:** 首先使用边长为 $5 \mathrm{~m}$ 的正方形PE(如图5(A)所示)为每个用户配置相同的物理空间。 - **用户数量:** 测试了2、3、4和6个用户的情况。 - **难度升级:** 之后,将PE更换为更小的 $2.5 \mathrm{~m} \times 5 \mathrm{~m}$ 矩形(如图5(B)所示),再次测试不同用户数量下的性能。 **结果分析:** - **总体趋势:** 如图6(A)和6(B)的箱线图所示,本文方法在任何在线用户数量下,其重置次数始终显著低于所有对比方法。 - **用户数量影响:** 随着在线用户数量的增加,所有方法的重置次数都会增加。然而,本文方法的重置次数增长速度明显慢于对比方法。 - **原因分析:** 对比方法缺乏协调不同用户重定向的机制,导致用户之间经常相互“牵连”触发重置。而本文方法通过识别“瓶颈用户”并最大化共同重置的时间间隔,同时预先将其他用户重定向到有利姿态,从而有效地减少了共同重置的次数。在用户数量增加时,这种协调机制的优势更为明显。 - **统计学显著性:** 对所有结果进行了 `Kruskal-Wallis H test`,发现结果分布存在统计学差异。通过 `Mann-Whitney U test` 进行事后配对比较,结果表明本文方法与所有对比方法之间存在显著的统计学差异($p \ll 0.01$,经过 `Bonferroni adjustment`)。 - **S2C 的表现:** 值得注意的是,S2C(Steer-to-Center)在这些多用户在线VR场景中可能不如S2O(Steer-to-Orbit)。原因在于,S2C倾向于将用户重置到PE中心,但如果用户在共同重置发生时过于靠近中心,他们可能无法获得最大化的行走距离,从而导致下一次重置更早被触发。这表明S2C虽然在单用户或通用情况下表现良好,但在本文特定的多用户在线场景下可能存在局限性。 以下是原文 Figure 6 的部分图像,展示了在不同用户数量和PE配置下,各方法的重置次数分布:  *图示:在不同物理环境布局和用户数量下,不同方法的重置次数分布箱线图。图中显示了本文方法 (Ours) 在重置次数上明显优于其他方法。* ### 6.1.2. 不均等和不规则PE下的性能 (Performance on Unequal and Irregular PEs) **实验设置:** - **用户数量固定:** 所有实验均固定为3个在线用户。 - **不均等PE布局:** 使用图5(C)所示的三种组合,这些组合的PE尺寸逐渐变得不均等且更具挑战性。 - **PE尺寸影响:** 为了评估PE尺寸的影响,将图5(C)中的PE尺寸加倍,形成更大的PE,并再次测试。 - **不规则PE:** 在PE中添加各种障碍物,使其变得不规则、非凸且包含空洞(如图5(D)所示),以模拟真实世界的复杂场景。 **结果分析:** - **不均等PE:** 如图6(C)所示,当PE布局不均等时,本文方法相对于对比方法具有绝对优势。这是因为在不均等PE中,处于较小空间的用户更容易成为“瓶颈用户”,从而显著“驱动”其他用户重置。本文方法通过分析瓶颈时间并相应地重定向所有用户,能够更好地同步重置并拉长共同重置之间的时间间隔。 - **更大PE:** 即使在放大的不均等PE中,所有方法的重置次数都减少了,但统计学测试(`Kruskal-Wallis H test` 和 `Mann-Whitney U test`)仍然确认本文方法与对比方法之间存在显著差异($p \ll 0.01$)。 - **不规则PE:** 如图6(D)所示,复杂的障碍物限制了用户行走,导致所有方法的重置次数大幅增加。然而,本文方法在这些具有挑战性的不规则PE中仍然显著优于对比方法。这表明本文提出的最大化共同重置时间间隔的机制在复杂PE中依然有效。 ### 6.1.3. 用户研究结果 (User Study Results) **实验设计:** - **参与者:** 招募了27名参与者(10名女性,17名男性,年龄19至28岁)。 - **场景:** 3用户场景,每个用户位于独立的 $5 \mathrm{~m} \times 3 \mathrm{~m}$ 物理空间(类似于普通家庭房间)。 - **设备:** 使用 **VIVE Pro Eye** 头戴设备。 - **任务:** 用户被要求在虚拟空间中走向随机生成的目标。 - **公平性约束:** 当任一参与者需要重置时,所有用户同步重置。重置界面包含位置校准功能,确保用户返回到原始物理位置。 - **速度估计:** 由于参与者的真实行走速度未知,系统使用用户上一段直线行走的平均速度作为下一段的估计速度。 - **评估指标:** 记录在发生8次共同重置之后,每个用户在VE中行走的距离。行走距离越长,RDW方法越好。 - **对比方法:** 最先进的 DAPF [15]。 **结果分析:** - **行走距离:** 如图7所示,使用本文方法时,用户在重置之间能够获得更大的预期行走距离,这意味着更好的沉浸式体验。 - **统计学显著性:** `Mann-Whitney U test` 结果显示,本文方法与DAPF之间存在统计学差异($U = 109.0, P < .001$)。 - **用户舒适度:** 参与者填写了 **SSQ (Simulator Sickness Questionnaire)** [36] 以记录主观感受。SSQ 记录显示,本文方法与DAPF之间在模拟器眩晕感方面没有显著差异,表明两种方法都没有给参与者带来明显的不适。 以下是原文 Figure 7 的图像,展示了用户在本文方法和DAPF方法下,每8次重置后的平均行走距离分布:  *图示:参与者的平均行走距离(米)分布。蓝色为本文方法,橙色为DAPF方法。本文方法在行走距离上表现出显著优势。* ## 6.2. 数据呈现 (表格) 本研究的实验结果主要以箱线图的形式呈现,原文中没有包含需要转录的表格。 ## 6.3. 消融实验/参数分析 论文没有专门的“消融实验”章节,但其在“实现细节”中提到了参数的选择,如 $k=10$(候选半径数量)、$\delta=0.5 \mathrm{~m}$(骨架姿态间距)和 $\lambda=30$(骨架方向数量)。这些参数是基于对空间扫描密度和计算效率的考虑而设定的。增益阈值则参考了广泛使用的RDW文献。这些参数的选择和设定是方法有效性的基础,但论文未进行针对这些参数的系统性消融实验来分析其对结果的独立贡献。 # 7. 总结与思考 ## 7.1. 结论总结 本文提出了一个针对在线多人虚拟现实 (VR) 应用的新型重定向行走 (RDW) 方法。该方法的核心目标是在用户身处独立物理环境 (PE) 的情况下,为他们提供公平的移动机会,并协调所有用户的重定向和重置,以最大限度地减少总重置次数。 主要发现和贡献包括: - **公平性解决:** 首次提出了在<strong>移动公平性约束 (locomotion fairness constraint)</strong> 下的多用户RDW方案,确保所有用户在重置时同步暂停和恢复,从而保持他们在虚拟环境 (VE) 中的相对位置不变。 - **重置次数优化:** 通过创新的协调策略,显著减少了所有用户的共同重置次数,解决了在公平性约束下重置频率可能过高的问题。 - **瓶颈用户概念:** 引入并实现了“<strong>瓶颈用户 (bottleneck” user)</strong> 的概念,即通过预测哪个用户最快触发下一次重置,来最大化共同重置之间的时间间隔。 - **预测机制:** 开发了两种关键预测方法:估算用户在遇到障碍物前可行走的最长时间,以及在给定时间内用户可达到的物理区域。 - **实验验证:** 通过仿真和用户研究,在不同用户数量、不均等和不规则PE等多种复杂场景下,验证了本文方法的优越性。实验结果表明,本文方法在减少重置次数和提升用户行走距离方面均显著优于现有最先进的RDW方法,同时保持了用户舒适度。 - **开源贡献:** 将其工作扩展到OpenRDW平台,使其成为首个支持异地多人在线VR应用的RDW平台。 ## 7.2. 局限性与未来工作 作者在论文中也坦诚指出了当前方法的局限性,并提出了未来的研究方向: * **固定曲率增益:** 目前方法在一个用户行走段内使用固定的曲率增益。如果允许在行走段内动态改变曲率增益,理论上可以使物理路径更灵活,从而延长实际行走时间。然而,这可能会牺牲用户舒适度,需要权衡。 * **虚拟目标知识:** 当前方法需要预先知道用户的下一个虚拟目标。这在某些具有明确路径或任务的VR应用中可行,但在用户行为高度自由、下一个目标难以预测的场景中,方法的通用性受限。 * **行走速度估计:** 用户的行走速度在VE中是已知的,但物理行走速度可能波动较大。虽然大多数现有方法假设速度恒定,但更精细的速度估计策略将有助于提升方法的鲁棒性。 * **旋转增益的引入:** 目前方法主要关注平移和曲率增益。引入旋转增益 (rotation gains) 可以更精细地控制用户转向时的方向,可能进一步延长最长行走时间并减少总体重置次数。 * **用户研究的PE多样性:** 目前的用户研究仅在一个PE布局组合下进行。未来应在更多样化的PE布局下进行用户研究,以进一步验证方法的性能。 * **公平性约束的放松:** 当前的<strong>移动公平性约束 (locomotion fairness constraint)</strong> 强制所有用户同步重置,这对于处于较大房间的用户来说可能过于严格,从而降低体验。未来研究可以探索在保证公平性的前提下,如何放松这一约束,例如引入一些非侵入性的“延迟”或“弹性”机制,允许用户在一定范围内异步重置。 ## 7.3. 个人启发与批判 ### 7.3.1. 个人启发 * **问题定义的清晰性:** 论文清晰地识别并定义了“多用户独立物理空间在线VR场景下的公平性问题”,这是一个当前元宇宙和多人VR发展中非常实际且关键的挑战。明确的问题定义是良好研究的基石。 * <strong>“瓶颈用户”</strong>的直觉洞察: 识别“瓶颈用户”是解决公平性约束下重置次数问题的核心。这个概念非常直观且有效,它将一个看似复杂的全局协调问题,转化为对最受限用户的关注,从而牵一发而动全身地优化整体。这种“最差情况优化”的思路在多智能体系统中具有普适性。 * **预测与规划的结合:** 通过精确估算障碍物遭遇时间 (`T_max(P)`) 和可达区域 (\varphi(p, T)$$),将预测能力融入到重定向策略中,使得重置决策从被动响应变为主动规划。这种前瞻性是提高RDW效率的关键。
- 离线预处理的有效性: 利用骨架姿态 (skeleton poses) 进行离线预处理,计算每个位置的可逃脱性 (escapability) 和安全性 (safety) 指标,有效地将运行时复杂的空间几何计算转化为快速查询,是工程实践中常用的优化手段。
- 公平性与沉浸感的平衡: 论文在保证公平性的前提下,通过减少重置次数来提升沉浸感,为在线VR体验提供了一个可行的解决方案。这对于在线游戏和协作应用的用户体验至关重要。
7.3.2. 批判与潜在改进
- 虚拟目标知识的假设: 论文假设已知用户的下一个虚拟目标。这在一些线性叙事或任务驱动的VR应用中成立,但在开放世界或自由探索型VR中,用户可能随时改变目标,这会极大地挑战当前方法的预测准确性。未来的工作可以探索结合用户意图预测模型或更鲁棒的、不依赖明确目标的重定向策略。
- “移动公平性约束”的强度: 尽管这个约束保证了虚拟世界中的相对位置,但在现实中,如果一个用户处于一个非常大的PE中,而另一个用户处于一个非常小的PE中,那么大PE中的用户会因为小PE用户的频繁重置而频繁“被牵连”重置,这可能导致不必要的沮丧。正如作者自己指出的,放松这一约束是未来研究方向。可以考虑引入一个“容忍度”或“优先级”机制,允许在不完全破坏虚拟相对位置的前提下,一定程度的异步重置,或者根据用户PE大小赋予不同的“重置投票权”。
- 对动态障碍物的处理: 论文主要关注静态物理障碍物。在更复杂的真实PE中,可能会有动态障碍物(如宠物、其他家庭成员、移动的家具)。当前方法可能需要扩展其障碍物遭遇预测机制来处理这种动态性。
- 计算开销与可扩展性: 尽管提到了实时运行,但随着用户数量 和PE复杂度的增加(尤其是不规则PE),离线预处理的计算开销和运行时对所有用户进行重定向决策的复杂度可能会增加。未来需要进一步分析在大规模场景下的可扩展性。
- 缺乏对用户心理因素的深层研究: 尽管使用了SSQ来评估舒适度,但RDW的“隐蔽性”和“欺骗性”在长期使用中是否会产生其他心理影响?用户对重置的“公平性”感知是否真的与系统定义的公平性一致?这些都可以是更深层次的用户体验研究方向。
相似论文推荐
基于向量语义检索推荐的相关论文。