Journal of the Korea Computer Graphics Society
The Korea Computer Graphics Society
Article

모바일 가상현실에서의이동 인터페이스에 관한 연구

홍승현1https://orcid.org/0000-0002-9135-452X, 나기리1https://orcid.org/0000-0002-9812-2297, 조윤식2https://orcid.org/0000-0003-2118-0904, 김진모1,*https://orcid.org/0000-0002-1663-9306
Seunghyun Hong1https://orcid.org/0000-0002-9135-452X, Giri Na1https://orcid.org/0000-0002-9812-2297, Yunsik Cho2https://orcid.org/0000-0003-2118-0904, Jinmo Kim1,*https://orcid.org/0000-0002-1663-9306
2한성대학교 일반대학원 컴퓨터공학과 jinmo.kim@hansung.ac.kr
1Division of Computer Engineering, Hansung University
2Department of Computer Engineering, Graduate School, Hansung University
*corresponding author: Jinmo Kim/Hansung University(jinmo.kim@hansung.ac.kr)

© Copyright 2021 Korea Computer Graphics Society. This is an Open-Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (http://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

Received: Jun 09, 2021; Revised: Jun 18, 2021; Accepted: Jun 25, 2021

Published Online: Jul 01, 2021

요약

본 연구는 모바일 가상현실에 적합한 이동 상호작용을 제공하기 위한 인터페이스를 제안하고 비교 실험을 통해 분석한다. 제안하는 인터페이스는 접근성과 활용성을 고려하여 모바일 HMD를 제외한 추가적인 장비를 사용하지 않는 것을 전제로 한다. 그리고 사용자의 시선을 활용하여 이동 상호작용을 제어하는 인터페이스를 두 단계로 나누어 설계한다. 핵심은 가상 현실에서의 직선 이동이 유발시킬 수 있는 멀미 등의 부정적 요인의 발생을 최소화하는 것이다. 이를 위해 시선을 지면으로 향하여 이동하도록 전/후진 버튼으로 구성된 인터페이스, 실제 걷기 동작에서의 시선 변화를 고려하여 정면 상단에 좌, 우 버튼으로 구성된 인터페이스의 두 단계를 설계한다. 제안한 인터페이스를 통한 이동 상호작용을 비교 분석할 수 있는 어플 리케이션을 제작하고, 사용자를 대상으로 만족하는 인터페이스 경험과 이동 과정에서의 부정적 영향을 확인하기 위한 설문 실험을 진행한다. 이를 통해 제안한 이동 상호작용이 사용자에게 만족하는 인터페이스 경험과 함께 멀미와 같은 부정적 영향 을 감소시키는 것으로 확인되었다.

Abstract

This study proposes an interface for providing mobile interaction suitable for mobile virtual reality (VR) and analyzes it through comparative experiments. The proposed interface is premised on not using additional equipment except for the mobile head-mounted display(HMD) in consideration of accessibility and usability. And the interface that controls the movement interaction using the user’s gaze is designed in two phases. The key is to minimize the occurrence of negative factors such as VR sickness that can be caused by straight line movement in virtual reality. To this end, two phases are designed: an interface composed of forward/backward buttons to move the gaze toward the ground, and an interface composed of left and right buttons on the front in consideration of the gaze change in real walking motion. An application that can compare and analyze movement interactions through the proposed interface is produced, and a survey experiment is conducted to analyze the user’s satisfaction with the interface experience and the negative impact on the movement process. It was confirmed that the proposed movement interaction reduced negative effects such as VR sickness along with a satisfactory interface experience for users.

Keywords: 모바일 가상현실; 이동 인터페이스; 상호작용; 유니티 엔진; 가상현실 멀미
Keywords: mobile virtual reality; movement interface; interaction; Unity engine; VR sickness

1. 서론

가상현실은 가상의 공간 속에서 사용자의 오감에 자극을 주어 현실과 유사한 다양한 경험을 제공한다. 최근 가상현실과 관련된 하드웨어 및 응용 기술이 빠르게 발전함에 따라 게임과 같은 엔 터테인먼트 분야는 물론 교육, 의료, 군사, 제조 등 다양한 산업 분야에 가상현실 기술이 활용되고 있다 [1, 2, 3, 4]. Oculus Quest 2, HTC Vive Focus 등 독립형 가상현실 HMD 기술의 발전은 공 간의 제약을 벗어나 몰입감 높은 가상현실 어플리케이션을 언제, 어디서든 경험할 수 있도록 하며 이러한 기술들을 토대로 사용자 가 현실과 가상의 경계를 넘나들 수 있는 새로운 체험 환경으로 발전하고 있다. 이와 더불어 일반 사용자들이 손쉽게 고사양의 스마트 기기를 접할 수 있게 됨에 따라 상대적으로 적은 비용으 로 고품질의 가상현실 경험을 제공받을 수 있는 모바일 플랫폼 기술 및 인터페이스에 대한 관심이 높아지고 있는 상황이다.

몰입형 가상현실에서 만족하는 경험, 향상된 몰입과 현존감을 제공하기 위해서는 사용자와 가상 환경과의 상호작용과 이를 지원하는 입력 장비, 인터페이스 방법 등이 중요하다. 이러한 이유 로 인하여 시선, 손, 걷기 등 사용자의 신체 정보로부터 행동, 움 직임, 의도 등을 정확하게 측정, 분석하여 사실적으로 표현하는 인터페이스 설계 및 상호작용 연구들이 진행되고 있다 [5, 6, 7]. 또한, 상호작용 과정에서 발생하는 물리적 반응을 피드백하는 햅 틱 시스템을 가상현실을 비롯한 실감 콘텐츠 분야에 응용하기 위한 연구들로 발전되고 있다 [8, 9]. 그리고 다중 사용자 가상 체험 환경에서의 협업 또는 다양한 플랫폼(가상현실, 증강현실, PC, 모바일 등)의 사용자 참여를 고려한 비대칭 가상환경에서의 상호작용과 사용자의 체험 환경에 최적화된 인터페이스 설계 연구들이 활발히 이루어지고 있다 [10, 11]. 최근에는 머신 러닝과 의융합을 통해 사용자의 행동 의사결정을 직관적인 구조에서 쉽 고 편리하게 수행할 수 있는 새로운 인터페이스로 확장되고 있는 상황이다 [12, 13].

모바일 플랫폼의 가상현실의 경우, PC 플랫폼과 비교하여 상 대적으로 HMD를 적용하고 어플리케이션을 구동시키는 과정이 쉽고, 장소나 체험 환경의 제약이 적다는 이점이있다. 그러나 가 상 공간 내 사용자의 활동 범위, 행동의 폭, 역할 등을 넓혀주고 몰입감 있는 상호작용을 구현하기 위해서는 별도의입력 장비나 새로운 인터페이스 기술이 필요하다. 스크린 터치 이외에 다른 입력방법이 어려운 모바일 환경에서 Xbox360과 같은 모바일 전 용 컨트롤러를 연결하여 다양한행동을 통해 상호작용을 구현할 수 있지만 모바일 플랫폼이 가지는 휴대용의 측면에서 보았을 때 부가적인 장비는 부담 요소로 작용할 수 있다. 이러한 이유로 모 바일 가상현실 환경에서 이동 상호작용을 표현하는 것이 어려운 일이다. 뿐만 아니라, 현실 세계에서 사용자의 시선, 신체(다리 등)의 변화가 없는 상태에서 가상 공간의 캐릭터 이동으로 인하 여 장면이 연속적으로 바뀌는 상황에서 오는 인지부조화현상이 발생할 수 있다. 그리고 이는 시간이 지날수록 멀미를 더욱 가중 시키는 것으로 나타난다 [6]. 이때, 이동 상황을 사용자가 스스로 정확히 인지하거나, 두 다리를 직접 활용한 시선 변화를 반영할 경우 사용자의 몰입을 유지하면서 멀미 현상을 감소시킬 수 있는 것으로 분석되었다 [14].

본 연구는 모바일 가상현실에서 부가적인입력 장비 없이 사용 자가 효과적으로 이동 상호작용을 할 수 있는 인터페이스를 설계 하고 분석하는 것이 핵심 목표이다. 이는 다리를 직접 사용하지 않는 걷기로 인해 정지 상태의 사용자가 직선 이동하는 가상의 캐릭터의 시점으로 투영되어어지러움 등의 멀미 현상이 발생하는 기존 인터페이스의 문제를 개선하고자 하는 것이다. 이를 위해 제안하는 인터페이스는다음의 두 단계로 나누어 설계하고 비교 분석하고자 한다.

  1. 사용자 시선 주변의 사물을 최소화하고 이동에만 집중할 수 있도록 지면 인터페이스(Ground UI)를 설계

  2. 걷기 과정에서의 시선 변화를 반영하여 사용자의 시선을 좌, 우로 바꿔가며 이동을 제어하는 걷기 인터페이스(Walking UI)를 설계

제안하는 두 단계의인터페이스의 효율성, 만족도 및 이동 과정 에서의 부정적 요인을 분석하기 위한 비교 설문 실험을 진행하여 체계적으로 검증하도록 한다.

2. 관련 연구

몰입형 가상현실은 시각, 청각, 촉각 등 여러 감각을 활용하여 사 용자가가상환경 또는 사물들과 현실감 높은 상호작용을 제공함 으로써 몰입을 높여 현존감을 향상시키는 연구들이 다양한 관점 에서 폭넓게 이루어지고 있다. 가상현실 HMD를 활용하여 입체 적인 시각 정보와 함께 Head Related Transfer Function(HRTF) 등을 기반으로 청각에서의 공간감을 극대화하는 사운드 처리, 시 선은 물론 손, 다리 등 신체 정보를 직접적으로 활용한 상호작용 등의 연구들이 진행되었다. 이를 기반으로 가상과 현실의 경계를 허물고 사실적인 가상현실을 표현하기 위하여 물리적 반응을 피 드백하는 햅틱 시스템, 자연스러운 걷기를 위한 모션 플랫폼 등의 응용 연구들이 최근까지 활발히 진행되고 있다 [7, 15, 16, 17, 18]. 가상현실 사용자 중심의 몰입형 상호작용 연구들은 Non-HMD, 모바일 플랫폼 등 다양한 사용자가 함께 참여하여 체험하는 비대 칭 가상환경에서의 사용자의 체험 환경에 맞춘 인터페이스 설계 및 상호작용 연구들로 발전되었다 [10, 11].

모바일 플랫폼 가상현실의 경우, 모바일을 HMD 안에 장착시 키기 때문에 스크린 터치 입력이 불가능해져 가상환경에서 의 사결정, 행동을 수행하는데 제한적이다. 이러한 이유로 간단한 가상현실 어플리케이션은 사용자의 시선(gaze pointer)을 주로 활 용한다. 이와 관련된 연구들로 가상 공간에서손으로 객체를 제어 하는 과정에서 시선의 변화, 움직임을 관찰하고 작업을 진행하고 목표를 달성하기까지의 과정을 분석하거나 [19] 참가자가 손을 씻는 작업을 모니터링하여 시각적 인지 과정을 분석하였다 [20]. 이렇듯 사용자가가상현실 환경에서 상호작용을 시작하는 첫 단 계는 시선으로부터 출발함을 알 수 있다. 이러한 연구들을 기반 으로 모바일 장치에서 고품질 몰입형 멀티 플레이어 VR을 지원 하는 방법을 연구 [21] 하거나 횡격막 호흡을 촉진하기 위한 VR 기반 호흡 바이오 피드백 게임을 개발 [22] 하는 등 접근성 높은 모바일의 특징을 활용하여 많은 사용자가 다양한 체험 환경을 경험할 수 있도록 발전하고 있다.

가상현실 환경을 구현하는 과정에서 사용자의 몰입을 방해하 거나 거부감을 불러일으키는 기술적, 환경적 요소들이 존재한다. 이와 관련하여, 사용자가가상환경을 체험하는 과정에서 멀미를 유발하는 요인들에 대해 연구하였다 [23]. 사용자마다다르게가 지는 경험과 나이 등의 특징은 물론 가상현실 어플리케이션의 기술적 요인(refresh rate, frame per seconds), 어플리케이션의 체 험 시간이나 조작 정도를 기반으로 멀미와의 관계를 세분화하여 분석하였다. 이외에도 자세, 시각적 정보 등 다양한 요소들을 기 반으로 분석하는 연구들이 진행되었다 [24, 25, 26].

모바일 가상현실에서의 사용자 인터페이스 또한 제한된 체험 환경과 입력 방식으로 인하여 몰입, 편리함 등의 긍정적 요인과 함께 멀미 등의 부정적 요인을 함께 고려하는 연구들이 진행되어 야 할 것이다. 특히, 제한된 공간과 장비, 입력 방식으로 걷기를 표현하는 과정에서 어려움이 존재한다. 추가적인장비를 모바일 HMD에연결하여 이동 상호작용을 구현하는 연구들도 진행되었 지만, 이는 경제적인 부담은 물론 모바일 플랫폼이 가지는 범용적 인 활용에서 볼 때 부정적인 요인들을 간과할 수 없다. 본 연구는 이러한 종합적인 측면을 고려하여 모바일 가상현실에서 사용자 중심의이동 인터페이스를 연구하려 한다.

3. 이동 인터페이스

제안하는 인터페이스는 모바일 가상현실에서 사용자가 이동을 수행할 때 몰입을 방해하지 않으면서 편리성과 접근성이 높은 상호작용 제공을 목적으로 한다. 이는 사용자의 시선을 기반으로 하며, 시선의 관점은 지면을 바라보는 방법과 걷기 과정에서의 시선 변화의 두 단계로 나누어 설계한다. 본 연구의 모바일 가 상현실 체험 환경과 인터페이스는 Unity3D 엔진 [27]에서 통합 개발환경을 구현한다. Figure 1은 제안하는 인터페이스의 핵심 구조를 나타낸 것이다.

jkcgs-27-3-55-g1
Figure 1: The core structure of the proposed interface.
Download Original Figure
3.1 인터페이스 설계

모바일 가상현실은 Figure 2 (a)와 같이 어플리케이션이 구동되 는 모바일의 화면을 좌안과 우안 화면으로 나누어 렌더링하고, 장착시킨 HMD를 통해 체험하는 구조이다. 따라서 모바일 어플 리케이션이 스크린을 터치하는 방식으로 입력을 처리하는 기존 의인터페이스를 활용하기 어려운 문제가 존재한다. 이러한 이유 로 모바일 가상현실 어플리케이션은 사용자의 시선 방향으로부 터 광선(ray)을 계산하고 광선과 충돌된 객체 또는 메뉴를 선택, 제어하는 방식으로 입력을 처리한다. 본 연구는 시선 기반 상호 작용을 토대로 이동 인터페이스를 설계한다. 이를 위해 Unity3D 엔진에 구글 가상현실 개발 도구(Google VR SDK) [28]를 통합하 여 개발환경을 구축한다. 구글 가상현실 개발 도구의 경우 모바 일의 변환과정을 HMD 사용자의 머리 움직임으로 대응하여 양안 시차 정보를 전달한다. Figure 2와 같이 구글 가상현실 개발도구 에서 제공하는 프리팹(GvrControllerPointer, GvrEventSystem 등) 을 활용하여 좌, 우로 분할 전송될 화면을 생성하고, 카메라 정면 방향에 대응되는 시선(gaze pointer)을 생성 및 입력까지 처리하 도록 한다. 이러한 과정을 통해 사용자의 머리가 움직이는 방향에 부합되는 양안 영상과 함께 시선으로부터의입력 과정을 HMD를 통해 처리할 수 있게 되는 것이다.

jkcgs-27-3-55-g2
Figure 2: Mobile virtual reality development environment in Unity engine, (a) Scene creation on mobile platforms, (b) Google VR Development Tools.
Download Original Figure
3.2 상호작용

몰입형 가상현실에 사용자가 가상환경에 존재하는 아바타(또는 캐릭터)의이동을 제어하는 방법으로 키보드나 가상현실 컨트롤 러 등을 활용한 키 입력 방식이일반적이다. 하지만 이때, 수평으 로 이동하는 장면과 실제 걷기 과정에서의 시선과 장면의 변화, 그리고 걷기에 대한 인지의 차이로 인하여 어지러움, 메스꺼움 등 멀미 현상을 발생시키는 문제가 발생한다. 이러한 이유로 시 선, 손을 활용한 인터페이스 연구 [29]는 물론 제자리걸음을 통한 가상 공간에서의 걷기 [6], 방향전환보행(Redirected Walking) 기 술 [30], 모션 캡쳐 장비를 통한 HMD 위치의 실시간 스트리밍 기술 [31] 등을 가상현실에서의 이동 상호작용에 활용하기 위한 연구들이 진행되고 있다. 그러나 이 역시도 부가적인 장비의 활 용으로 인한 비용의 부담 또는 넓은 체험 공간의 확보 등 한계가 존재한다.

본 연구는 앉거나 서서 편하게 체험할 수 있는 공간에서 HMD 외에 이동을위한 장비를 추가로 장착하지 않고 이동 상호작용을 제공하기 위한 인터페이스를 설계하고자 한다. 이는 접근성, 활 용성, 그리고 만족도를 높이면서 동시에 이동 과정에서의 부정적 요인을 최소화하고자 하는 것이 핵심 목표로, 두 단계로 나누어 제안한다.

우선, 첫 번째는 지면 인터페이스(Ground UI)로 정지 상태의 사용자 주변으로 많고 복잡한 사물과 배경이이동하여어지러움 을 유발하는 상황을 줄이고, 사용자가 이동 상태임을 정확히 인 지하도록 하는 것이 핵심이다. Figure 3은 첫 번째 인터페이스를 나타낸 것이다. 사용자의 정면 시선 45° 하단 지면 위에 전진, 후진 버튼을 배치하고, 사용자는 전진 또는 후진 버튼 메뉴를 바라 보며 현재이동 상호작용 중임을 사용자 스스로 인지한 상태에서 동시에 주변에 보이는 사물, 배경을 줄여 이동에만 집중하도록 설계한다.

jkcgs-27-3-55-g3
Figure 3: Ground UI structure and processing.
Download Original Figure

다음은 걷기 인터페이스(Walking UI)로 사용자가 다리를 활용 하여 걷기 행동을 수행하면 어깨와 함께 시선이 좌우로 변화를 한다. 두 번째 인터페이스는 사용자가 실제로는 걷지 않지만, 걸을 때의 시선 변화를 반영하여 설계한다. Figure 4는 두 번째 인터페 이스를 나타낸 것으로, 시선 정면 상단에 좌, 우 버튼을 배치하고 사용자는 배치된 버튼을일정 간격 내에 번갈아가면서 시선을 전환하면 이동 상호작용이 동작하는 방식으로 구현한다.

jkcgs-27-3-55-g4
Figure 4: Walking UI structure and processing.
Download Original Figure

Algorithm 1은 제안하는 두 인터페이스의 처리 과정을 정리한 것이다. 시선을 기반으로 버튼을 선택하는 과정은 Unity3D 엔진 의 레이캐스트(Raycast) 기능을 활용하여 사용자 시점과 대응되 는 카메라 정면 방향의 광선(Ray)을 계산하고 버튼 충돌체와 충 돌 검사를 통해 선택을 구현하는 것으로 두 인터페이스 모두 동일하게 처리한다.

4. 어플리케이션

제안하는 이동 인터페이스는 모바일 가상현실 어플리케이션에 서 시선을 활용하여 이동을 처리하는 과정에서 편리함과 함께 가상환경에서의 몰입을 유지하면서 멀미와 같은 부정적 요인을 줄인 체험 환경을 제시하는 것이다. 이를 위해 두 단계의이동 인 터페이스를 나누어 설계하고, 사용자를 대상으로 한 비교 설문 실험을 통해 인터페이스를 검증하고자 한다. 따라서 본 연구는 제안하는 인터페이스에 대한 사용자 평가를 위하여 모바일 가상 현실 어플리케이션을 직접제작한다.

어플리케이션은 사용자의 이동에 초점을 맞춰 장면을 구성한 다. 이동 과정에서 다양한 시각 정보들이 함께 제공되어야 제안 한 인터페이스의 효율성과 부정적 요인을 정확히 분석할 수 있기 때문에 4계절을 배경으로 테마에 맞는 실외 환경과 적절한 사운 드를 함께 제공하는 방식으로 제작한다. Figure 5는 본 연구에서 제작한 어플리케이션의 장면과 인터페이스를 통해 이동을 처리 하는 과정을 나타낸 것으로, 두 단계의인터페이스를 각각 나누어 어플리케이션에 제공하고 사용자는 선택적으로 활용할 수 있도 록 하였다.

jkcgs-27-3-55-g5
Figure 5: Results of the application production, (a) Scene composition, (b) Ground UI, (c) Walking UI.
Download Original Figure
Algorithm 1 The proposed two-phase interface processing process.

1: procedure GROUND UI

2: btn ← selected button from gaze pointer ray (forward or backward).

3: v ← the movement direction of the virtual avatar.

4: if btn == “forward” then

5: v = virtual avatar’s forward vector.

6: else if btn == “backward” then

7: v = virtual avatar’s backward vector.

8: else

9: v = zero vector.

10: end if

11: movement (or stop) of the virtual avatar via v.

12: end procedure

13: procedure WALKING UI

14: btn ← selected button from gaze pointer ray (left or right).

15: prebtn ← previous selected button.

16: delay ← the time interval at which the left-to-right (or right-to-left) button is selected.

17: if btn == “left” or btn == “right” then

18: calculate the delay time.

19: if delay < 0.5 then

20: if prebtn != btn then

21: move in the forward direction of the virtual avatar.

22: else

23: situation in which the gaze is looking at only one button (stop).

24: end if

25: else

26: timeout to switch gaze from left-to-right (or right-to-left) button.

27: end if

28: end if

29: end procedure

5. 실험 및 분석

본 연구에서 제안하는 인터페이스와 이를 기반으로 한 모바일 가 상현실 어플리케이션 구현에는 Unity 3D 2019.2.3.f1(64bit), 구 글 가상현실 개발도구(GoogleVRForUnity 1.200.1)를 활용하였 다. 어플리케이션 제작과 실험에 사용된 PC 환경은 Intel Core i7-6700, 16GB RAM, Geforce GTX 1080 GPU를 탑재하고 있다. 또 한, Galaxy Note 9 모바일 기기와 폭풍마경~ Plus 모바일 HMD 를 활용하여 제작된 모바일 가상현실 어플리케이션을 구동하여 실험하였다. Figure 6은 제작된 가상현실 어플리케이션을 체험 하는 실험 환경을 나타낸 것으로, 앉거나 서서 편하게 체험할 수 있는 크기의 공간으로 구성하였다.

jkcgs-27-3-55-g6
Figure 6: Configuration of mobile virtual reality experience environment.
Download Original Figure

Figure 6의 체험 환경에서 사용자를 대상으로 제안하는 인터 페이스의 만족도와 멀미 등의 부정적 영향을 비교 분석하기 위한 설문 실험을 진행하였다. 설문 참가자는 22 40세 사이의 총 10 명(남: 6, 여: 4)으로 구성되었다. 설문의 핵심 목적은 제안하는 인터페이스가 편리하고 만족하는 이동 경험을 제공함과 동시에 기존의 수평 이동 방식과 비교하여 이동 과정에서 발생할 수 있는 부정적 요인을 줄이는데도움을 줄 수 있는지 확인하는 것이다.

첫 번째 설문 실험은이동 인터페이스의 만족도를 비교 설문한 분석이다. 제안하는 두 단계의인터페이스가 사용자에게가상 환 경에서 만족하는 이동 경험을 제공하는지 여부를 비교 분석하고 자 한다. 이를 위해 A. Lund [32]의 USE(Usefulness, Satisfaction, and Ease of use) 설문지의 4개 항목, 30개 문항을 토대로 7점 척도 (1~7)로 값을 기록하였다. Table 1은 설문 결과를 토대로 통계 데 이터를 나타낸 것이다. 유용성(usefulness), 사용의 용이성(ease of use), 학습의 용이성(ease of learning), 만족도(satisfaction) 등 4개 항목에 대해서 인터페이스마다 약간의 차이가 나타남을 확인할수 있었다. 유용성과 학습의 용이성에서는 지면 인터페이스가 사 용의 용이성과 만족도는 걷기 인터페이스에서 작은 차이로 높게 기록되었다. 지면 인터페이스는단순하게 시선을 아래로 향하기 만 하면 이동을 쉽게 제어할 수 있어 학습하고 활용하는데 편리 하였지만, 이동 상호작용에 측면에서 시선의 변화를 반영하였을 때 걷기 경험이 주는 만족도는 이동 인터페이스가 더 좋을 수 있다는 것을 알 수 있었다. One-way ANOVA 분석을 통해 통계적 유의성(statistical significance)을 계산한 결과 제안한 두 인터페 이스의 만족도에 대해서 항목별로 유의미한 차이가 나타나지는 않았음을 알 수 있었다.

Table 1: Satisfaction analysis results of the proposed movement interface.(* mark indicates statistical significance.)
Ground UI Walking UI
Mean(SD)
usefulness 4.76(1.49) 4.65(1.48)
ease of use 5.26(0.46) 5.29(1.11)
ease of learning 6.66(0.47) 6.25(0.82)
satisfaction 5.01(1.17) 5.53(1.19)
Pairwise Comparison
usefulness F(1,18) = 0.074, p=0.788
ease of use F(1,18) = 0.004, p=0.949
ease of learning F(1,18) = 1.882, p=0.185
satisfaction F(1,18) = 0.965, p=0.337
Download Excel Table

두 번째 설문 실험은 제안한 인터페이스가가상현실에서의 멀미에 미치는 부정적 요인을 분석하는 것이다. 제안하는 인터페이 스는 사용자에게 만족하는 이동 경험과 더불어 가상현실에서 어 지러움, 메스꺼움 등 멀미 현상을 최소로 하는 것이 중요한 요소 이다. 따라서 본 연구는 인터페이스의 만족도와 함께 부정적 요인 도 함께 분석할 수 있도록 설문을 진행하였다. 이를 위해 Kennedy et al. [33]의 설문지(simulator sickness questionnaire, SSQ)를 활 용하여 신뢰할 수 있는 데이터를 도출하였다. SSQ는 총 16개의 항목으로 구성된 설문으로 가상현실에서의 멀미를 여러 관점에 서 분석하고 측정할 수 있도록 한다. 각각의 항목은 가상현실 어 플리케이션에 적용되는 다양한 상호작용이 사용자에게 미치는 영향, 증상을 여러 실험을 통해 분석된 결과로부터 도출된 값들이 다. 참가자는 16개의 항목에 대해 4가지 답변(none, slight, moderate, severe)을 4점 척도(0~3) 입력하게 된다. 그리고 참가자 각 각에 대하여 가중치(3.94)를 적용한 종합적인 값을 계산한다. 참 가자 전체의 점수를 통계 분석하여 가상현실에서의 멀미 현상을 분석하게 되는 것이다. 증상에 대한 객관적 분석을 위해서는 가 중치를 제외한 원시 데이터(raw data)를 통해 분석 [34]하기도 하 는데, 본 연구는 가중치를 제외하고 설문값의 평균을 계산하여 최대값(3)을 기준으로 부정적 요인의 변화를 분석하였다.

Table 2는 설문 결과를 나타낸 것으로 시선은 정면을 바라본 상태에서 수평 이동을 하는 일반적인 이동 상호작용(Default)과 제안하는 인터페이스를 비교하여 기존의 모바일 가상현실 어플 리케이션의 체험 환경에서 부정적 요인이 개선될 수 있는지를 확인하였다. 종합적으로 제안하는 인터페이스가 멀미에 대한 부정 적 요인이 감소되는 것을 알 수 있었다. 이동 인터페이스 중에서 도 걷기 과정에서의 시선 변화를 반영한 걷기 인터페이스가 30% 정도의 개선 효과를 보임을 알 수 있었으며, 눈의 피로, 초점과 관련된 요인에서 50%에 가까운 많은 개선을 보이는 것을 확인 할 수 있었다. 정지 상태에서 이동 상호작용을 하고 있지만 걷기 과정에서의 시선 변화를 이동에 반영함으로써 눈을 통해 이동을 인지하는 과정이 멀미를 최소화하는데도움을 주는 것을 비교 실험을 통해 알 수 있었다. One-way ANOVA 분석을 통해 통계적 유의성을 계산한 결과 제안한 두 인터페이스 모두 기존의 이동 상호작용과 비교하여 유의미한 차이가 나타남을 확인하였다. 하 지만, 제안한 두 인터페이스에서는 유의미한 차이가 없음을 알 수 있었다.

Table 2: VR sickness analysis results of the proposed movement interface.(* mark indicates statistical significance.)
Default Ground UI Walking UI
Mean(SD)
total 2.08(0.55) 1.61(0.36) 1.39(0.55)
nausea 2.21(0.44) 1.71(0.57) 1.53(0.75)
oculomotor 1.94(0.63) 1.50(0.35) 1.11(0.58)
disorientation 2.00(0.64) 1.54(0.41) 1.33(0.46)
Pairwise Comparison
Default vs Ground UI F(1,18) = 4.570, p<0.05*
Default vs Walking UI F(1,18) = 7.165, p<0.05*
Ground UI vs Walking UI F(1,18) = 1.042, p=0.321
Download Excel Table

6. 결론

본 연구는 모바일 가상현실에서의이동 상호작용에 적합한 걷기 경험과 이동 과정에서의 멀미 등 부정적 요인을 개선할 수 있는 인터페이스를 제안하고 비교 실험을 통해 통계적 분석을 수행하 였다. 제안하는 인터페이스는 사용자들이 쉽고간단하게 접근할 수 있는 모바일 플랫폼의이점을 살리기 위해 접근성과 활용성을 고려하여 시선을 기반으로 두 단계로 나누어 설계하였다. 우선, 첫 번째는 지면 위에 전/후진 버튼을 배치하여 정면에서 45° 하단 지면을 보면서 이동하도록 유도하여 주변에 보이는 사물을 줄이고 이동에만 집중하도록 하는 지면 인터페이스를 제안하였다. 다음으로 두 번째는 걷기 인터페이스로 걷기의 핵심 신체 부 위인 다리를 직접 사용하여 이동할 때 어깨와 함께 시선이 좌, 우로 움직이는 상황을 반영하여 시선 정면 상단에 좌, 우 버튼을 배치하고 좌 버튼과 우 버튼을 번갈아 가면서 시선을 전환하면 이동하도록 하는 방식이다. 이를 기반으로 두 단계의 인터페이 스를 비교 분석할 수 있는 어플리케이션을 제작하고, 사용자를 대상으로 만족하는 인터페이스 경험과 함께 이동 과정에서의 멀미 발생 정도를 확인하기 위한 설문 실험을 진행하였다. 그 결과 사용자는 편리하고 친숙하게 인터페이스에 적응하고 만족하는 이동 경험을 제공받았으며, 기존의이동 상호작용과 비교하여 가 상현실에서의 멀미 현상이 개선됨을 확인할 수 있었다. 향후, 다 양한 실험 어플리케이션과 함께 설문 실험에 참가하는 참가자의 수와 범위를 확대하여 보다 체계적인 설문 실험을 할 수 있도록 개선해 나갈계획이다.

감사의 글

이 논문은 정부(과학기술정보통신부)의 재원으로 한국연구재단 의 지원을 받아 수행된 연구임(No. NRF-2020R1F1A1063442)

References

[1].

J. Lee, M. Kim, C. Jeon, and J. Kim, “A study on gamepad/gaze based input processing for mobile platform virtual reality contents,” Journal of the Korea Computer Graphics Society, vol. 22, no. 3, pp. 31–41, 2016.

[2].

A. Lele, “Virtual reality and its military utility,” Journal of Ambient Intelligence and Humanized Computing, vol. 4, pp. 17–26, 2013.

[3].

W. Alhalabi, “Virtual reality systems enhance students’ achievements in engineering education,” Behaviour & Information Technology, vol. 35, no. 11, pp. 919–925, 2016. [Online]. Available:

[4].

S. Doolani, C. Wessels, V. Kanal, C. Sevastopoulos, A. Jaiswal, H. Nambiappan, and F. Makedon, “A review of extended reality (xr) technologies for manufacturing training,” Technologies, vol. 8, no. 4, 2020. [Online]. Available: https://www.mdpi.com/2227-7080/8/4/77

[5].

N. Sidorakis, G. A. Koulieris, and K. Mania, “Binocular eye-tracking for the control of a 3d immersive multimedia user interface,” in 2015 IEEE 1st Workshop on Everyday Virtual Reality (WEVR), March 2015, pp. 15–18.

[6].

J. Lee, K. Jeong, and J. Kim, “Mave: Maze-based immersive virtual environment for new presence and experience,” Computer Animation and Virtual Worlds, vol. 28, no. 3-4, p. e1756, 2017.

[7].

H. Joo, T. Simon, and Y. Sheikh, “Total capture: A 3d deformation model for tracking faces, hands, and bodies,” in Proceedings of The 2018 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), ser. CVPR ’18, vol. abs/1801.01615. Washington, DC, USA: IEEE Computer Society, 18–22 June 2018, pp. 8320–8329. [Online]. Available: http://arxiv.org/abs/1801.01615

[8].

I. Choi, E. Ofek, H. Benko, M. Sinclair, and C. Holz, “Claw: A multifunctional handheld haptic controller for grasping, touching, and triggering in virtual reality,” in Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems, ser. CHI ’18. New York, NY, USA: ACM, 21-26 April 2018, pp. 654:1–654:13. [Online]. Available:

[9].

M. Kim, J. Kim, K. Jeong, and C. Kim, “Grasping vr: Presence of pseudo-haptic interface based portable hand grip system in immersive virtual reality,” International Journal of Human–Computer Interaction, vol. 36, no. 7, pp. 685–698, 2020. [Online]. Available:

[10].

J. Lee, M. Kim, and J. Kim, “Rolevr: Multi-experience in immersive virtual reality between co-located HMD and non-hmd users,” Multim. Tools Appl., vol. 79, no. 1-2, pp. 979–1005, 2020. [Online]. Available:

[11].

Y. Cho, J. Kang, J. Jeon, J. Park, M. Kim, and J. Kim, “X-person asymmetric interaction in virtual and augmented realities,” Computer Animation and Virtual Worlds, vol. n/a, no. n/a. [Online]. Available: https://onlinelibrary.wiley.com/doi/abs/10.1002/cav.1985

[12].

T. Kang, M. Chae, E. Seo, M. Kim, and J. Kim, “Deephandsvr: Hand interface using deep learning in immersive virtual reality,” Electronics, vol. 9, no. 11, 2020. [Online]. Available: https://www.mdpi.com/2079-9292/9/11/1863

[13].

J. Kim, “Vivr: Presence of immersive interaction for visual impairment virtual reality,” IEEE Access, vol. 8, pp. 196 151–196 159, 2020.

[14].

J. Lee, M. Kim, and J. Kim, “A study on immersion and vr sickness in walking interaction for immersive virtual reality applications,” Symmetry, vol. 9, no. 5, 2017. [Online]. Available: https://www.mdpi.com/2073-8994/9/5/78

[15].

I. E. Sutherland, “A head-mounted three dimensional display,” in Proceedings of the December 9-11, 1968, Fall Joint Computer Conference, Part I, ser. AFIPS’68 (Fall, part I). New York, NY, USA: ACM, 1968, pp. 757–764. [Online]. Available:

[16].

W. Fitzpatrick, M. Wickert, and S. Semwal, “3d sound imaging with head tracking,” in 2013 IEEE Digital Signal Processing and Signal Processing Education Meeting (DSP/SPE), 2013, pp. 216–221.

[17].

H.-Y. Huang, C.-W. Ning, P.-Y. Wang, J.-H. Cheng, and L.-P. Cheng, “Haptic-go-round: A surrounding platform for encounter-type haptics in virtual reality experiences,” in Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems, ser. CHI ’20. New York, NY, USA: Association for Computing Machinery, 2020, p. 1–10. [Online]. Available:

[18].

A. Schroeder, E. Goodnight, M. Kühner, W. Gerner, M. Hebel, and D. Görlich, “Infinite walking in three dimensions in virtual reality: A shopping mall simulator game,” in Extended Abstracts of the 2020 Annual Symposium on Computer-Human Interaction in Play, ser. CHI PLAY ’20. New York, NY, USA: Association for Computing Machinery, 2020, p. 76–79. [Online]. Available:

[19].

R. S. Johansson, G. Westling, A. Bäckström, and J. R. Flanagan, “Eye–hand coordination in object manipulation,” The Journal of Neuroscience, vol. 21, no. 17, pp. 6917–6932, 2001.

[20].

J. Pelz, R. Canosa, J. Babcock, and J. Barber, “Visual perception in familiar, complex tasks,” in Proceedings of the 2001 International Conference on Image Processing. IEEE Computer Society, 2001, pp. 12–15. [Online]. Available: http://scholarworks.rit.edu/other/137

[21].

J. Meng, S. Paul, and Y. C. Hu, “Coterie: Exploiting frame similarity to enable high-quality multiplayer vr on commodity mobile devices,” in Proceedings of the Twenty-Fifth International Conference on Architectural Support for Programming Languages and Operating Systems, ser. ASPLOS ’20. New York, NY, USA: Association for Computing Machinery, 2020, p. 923–937. [Online]. Available:

[22].

C. Rockstroh, J. Blum, and A. Göritz, “A mobile vr-based respiratory biofeedback game to foster diaphragmatic breathing,” Virtual Reality, vol. 25, pp. 1–14, 06 2021.

[23].

E. M. Kolasinski, Simulator sickness in virtual environments. U.S. Army Research Institute for the Behavioral and Social Sciences, 1995.

[24].

T. A. Stoffregen and L. S. Jr., “Postural instability precedes motion sickness,” Brain Research Bulletin, vol. 47, no. 5, pp. 437 – 448, 1998.

[25].

H. B.-L. Duh, D. E. Parker, J. O. Philips, and T. A. Furness, “Conflicting motion cues to the visual and vestibular self-motion systems around 0.06 hz evoke simulator sickness,” Human Factors, vol. 46, no. 1, pp. 142–154, 2004.

[26].

J. D. Moss and E. R. Muth, “Characteristics of head-mounted displays and their effects on simulator sickness,” Human factors, vol. 53, no. 3, pp. 308–319, 2011.

[27].

UnityTechnologies, “Unity engine,” Unity Technologies, 2021. [Online]. Available: https://unity3d.com/

[28].

GoogleVR, “Googlevr sdk for unity v1.200.1,” Google Developers, 2019. [Online]. Available: https://github.com/googlevr/gvr-unity-sdk/releases

[29].

K. Jeong, S. Han, D. Lee, and J. Kim, “A Study on Virtual Reality Techniques for Immersive Traditional Fairy Tale Contents Production,” Journal of the Korea Computer Graphics Society, vol. 22, pp. 43–52, 2016.

[30].

J. Thomas and E. S. Rosenberg, “Reactive alignment of virtual and physical environments using redirected walking,” in 2020 IEEE Conference on Virtual Reality and 3D User Interfaces Abstracts and Workshops (VRW), 2020, pp. 317–323.

[31].

R. K. Kammerlander, A. Pereira, and S. Alexanderson, “Using virtual reality to support acting in motion capture with differently scaled characters,” in 2021 IEEE Virtual Reality and 3D User Interfaces (VR), 2021, pp. 402–410.

[32].

A. Lund, “Measuring usability with the use questionnaire,” Usability Interface, vol. 8, no. 2, pp. 3–6, 01 2001.

[33].

R. S. Kennedy, N. E. Lane, K. S. Berbaum, and M. G. Lilienthal, “Simulator sickness questionnaire: An enhanced method for quantifying simulator sickness,” The International Journal of Aviation Psychology, vol. 3, no. 3, pp. 203–220, 1993. [Online]. Available:

[34].

S. Bouchard, J. St-Jacques, P. Renaud, and B. K. Wiederhold, “Side effects of immersions in virtual reality for people suffering from anxiety disorders,” Journal of Cybertherapy and Rehabilitation, vol. 2, no. 2, pp. 127–137, 2009.

<저자소개>

홍 승 현

jkcgs-27-3-55-g7

  • 2018년~현재 한성대학교 컴퓨터공학부 학사과정

  • 관심분야: 가상현실, 증강현실, 실감형 콘텐츠 등

나 기 리

jkcgs-27-3-55-g8

  • 2019년~현재 한성대학교 컴퓨터공학부 학사과정

  • 관심분야: 가상현실, 증강현실, 실감형 콘텐츠 등

조 윤 식

jkcgs-27-3-55-g9

  • 2021년 한성대학교 컴퓨터공학부 학사

  • 2021년~현재 한성대학교 일반대학원 컴퓨터공학과 석사과정

  • 관심분야: 가상현실, 증강현실, HCI 등

김 진 모

jkcgs-27-3-55-g10

  • 2006년 동국대학교 멀티미디어학과 학사

  • 2008년 동국대학교 영상대학원 멀티미디어학과 석사

  • 2012년 동국대학교 영상대학원 멀티미디어학과 박사

  • 2012년~2014년 동국대학교 영상문화콘텐츠연구원 전임연구원

  • 2014년~2019년 부산가톨릭대학교 소프트웨어학과 조교수

  • 2019년~현재 한성대학교 컴퓨터공학부 조교수

  • 관심분야: 컴퓨터그래픽스, 가상현실, 증강현실, 게임 공학 등