Journal of the Korea Computer Graphics Society
The Korea Computer Graphics Society
Article

모션 캡처 기반 가상 아바타를 활용한 혼합현실 대화형 콘텐츠 제작

양현용1,2https://orcid.org/0009-0009-7923-7505, 공수민1https://orcid.org/0009-0002-0021-9718, 이지원3https://orcid.org/0000-0001-6848-5110, 김진모1,2,3,*https://orcid.org/0000-0002-1663-9306
Hyeonyong Yang1,2https://orcid.org/0009-0009-7923-7505, Sumin Kong1https://orcid.org/0009-0002-0021-9718, Jiwon Lee3https://orcid.org/0000-0001-6848-5110, Jinmo Kim1,2,3,*https://orcid.org/0000-0002-1663-9306
1한성대학교 컴퓨터공학부
2한성대학교 일반대학원 컴퓨터공학과
3한성대학교 일반대학원 정보컴퓨터공학과
1Division of Computer Engineering, Hansung University
2Department of Computer Engineering, Graduate School, Hansung University
3Production of Mixed Reality Interactive Content using Motion Capture based Virtual Avatar
*corresponding author: Jinmo Kim/ Hansung University (jinmo.kim@hansung.ac.kr)

© Copyright 2025 Korea Computer Graphics Society. This is an Open-Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (http://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

Received: Jun 13, 2025; Revised: Jun 30, 2025; Revised: Jul 10, 2025; Accepted: Jul 14, 2025

Published Online: Jul 25, 2025

요약

본 연구는 현실 공간에 모션 캡처를 기반으로 하는 가상 아바타가 혼합하여 실시간으로 상호작용하는 혼합현실 대화형 콘텐츠를 제작한다. 우선, 유니티 3D 엔진에서 OptiTrack 모션 캡처 시스템과 메타 퀘스트 3 혼합현실 HMD를 사용하여 대화형 콘텐츠를 제작하기 위한 통합개발 환경을 구축한다. 그리고, 광학식 모션 캡처를 통해 마커가 부착된 슈트를 착복한 액터의 전신 추적으로 표현되는 가상 아바타와 혼합현실 사용자가 실시간으로 소통하고 상호작용하는 방법으로 음성 및 동작 동기화 기능을 구현한다. 이를 기반으로, 가상 아바타와 혼합현실 사용자가 대화를 통해 소통하고 감정과 상황을 공유하는 체험환경에 관한 실질적인 응용을 목적으로 약 복용 도움에 관한 대화형 콘텐츠를 제작한다. 최종적으로 제작된 콘텐츠의 사용자 경험과 함께 모션 캡처 기반의 가상 아바타로 구성된 혼합현실 환경이 정해진 패턴의 GUI 기반 상호작용과 비교하여 몰입과 만족에 미치는 영향을 설문 실험을 통해 분석한다. 결과적으로, 액터를 통해 주어진 상황에 유연하게 대처하고 자연스럽게 소통할 수 있는 가상 아바타와 함께 구성된 혼합현실 체험환경이 사용자에게 흥미로운 경험과 함께 콘텐츠에서 제시하고자 하는 목적에 더욱 몰입할 수 있고, 콘텐츠에 관한 전반적인 만족도가 높아짐을 확인할 수 있었다.

Abstract

This study produces mixed reality (MR) interactive content that mixes motion capture-based virtual avatars in real space and interacts in real time. First, an integrated development environment is established for producing interactive content using the OptiTrack motion capture system and Meta Quest 3 MR HMD (Head Mounted Display) in the Unity 3D engine. Then, voice and action synchronization functions are implemented in a way that a virtual avatar expressed by full-body tracking of an actor wearing a suit with markers attached through optical motion capture and a MR user communicates and interacts in real time. Based on this, an interactive content about medication assistance is produced for the purpose of practical application of an experiential environment where a virtual avatar and a MR user communicate through conversation and share emotions and situations. Finally, the user experience of the produced content and the MR environment composed of motion capture-based virtual avatars are analyzed through survey experiments to compare the effects on immersion and satisfaction compared to GUI-based interactions with a fixed pattern. As a result, it was confirmed that a MR experience environment composed of a virtual avatar that can flexibly cope with a given situation and communicate naturally through an actor can provide an interesting experience to users and allow them to immerse themselves more in the purpose of the content and increase overall satisfaction with the content.

Keywords: 혼합현실; 모션 캡처; 가상 아바타; 대화형 콘텐츠; 유니티 3D 엔진
Keywords: Mixed Reality; Motion Capture; Virtual Avatar; Interactive Content; Unity 3D Engine

1 서론

현실과 가상을 연결하는 확장된 가상 세계인 메타버스는 확장현실 기술의 발전과 더불어 다양한 산업 분야로의 플랫폼 및 서비스가 구현되고 있다. 확장현실은 가상의 공간을 현실과 같이 구현하는 가상현실, 현실 세계 위에 가상의 객체, 정보 등을 표현하는 증강현실, 그리고 보다 확장된 개념으로 가상과 현실 세계가 합쳐져 새로운 환경과 정보를 생성하는 혼합현실을 아우르는 기술이다. 현실을 뛰어넘는 가상의 세계를 체험하거나 가상의 공간을 현실로 불러올 수 있는 확장현실 기술은 현실과 가상의 경계를 허물어 새로운 경험을 제공하는 기술로 발전하고 있다[1, 2].

최근의 가상현실은 HMD(Head Mounted Display)를 통해 차단된 시야에서 컴퓨터로 생성된 3차원의 그래픽 정보를 토대로 가상의 공간을 경험한다. 이를 통해 사용자는 현실 세계를 표현한 가상환경을 경험할 수도 있으면서 동시에 현실에서 경험할 수 없는 새로운 환경을 체험할 수 있다. Sra et al.[3]은 현실 세계의 실내 장면을 바탕으로 3차원 가상 장면을 재구성하여 현실 공간을 기반으로 걷기 가능한 가상환경에서의 영역 및 체험환경을 제공하는 연구를 진행하였다. 또한, HMD 사용자와 함께 HMD를 착용하지 않는 비몰입형 사용자도 함께 참여하는 비대칭 가상환경에 관한 연구를 통해 가상현실 체험환경의 폭을 넓히기 위한 시도들이 진행되기도 하였다[4]. 또한, 가상현실은 현실에서 경험하기 어렵거나 새로운 경험을 제공하는 기술로 응용되고 있다[5].

현실에서의 정보를 기반으로 하는 증강현실은 카메라 등을 통해 촬영된 이미지와 정보 위에 가상의 그래픽을 합성하여 증강된 현실 장면을 제공한다. 카메라를 통해 마커를 인식하고, 인식된 마커 위에 가상의 객체를 합성하는 방법으로 많이 사용됐으며 이미지나 3차원 객체, 지형 등을 인식하는 방법 등으로 발전하였다. 이러한 증강현실 기술은 CLO 3D와 함께 활용되어 증강현실 디지털 패션 콘텐츠를 제작[6]하는 데 사용되는 등 엔터테인먼트 분야를 비롯한 게임, 교육, 의료와 같은 다양한 분야에 응용되고 있다[7-10].

현실과 가상의 경계를 초월하여 확장된 현실 환경을 제공하는 혼합현실은 대표적인 혼합현실 HMD 기기인 메타 퀘스트 시리즈[11], 애플 비전 프로[12] 등을 통해 현실과 가상이 결합된 몰입감 높은 체험환경을 경험할 수 있다. Kong et al.[13]는 메타 퀘스트 프로를 활용하여 혼합현실 기반에서 가상 전기회로 실습 교육 콘텐츠를 제작하여 현실에서 발생할 수 있는 감전의 위험으로부터 안전하면서 새로운 교육 방법을 제안하였다. Kim et al.[14]는 가상현실과 혼합현실 사용자가 동시에 체험할 수 있는 탁구 콘텐츠를 제작하고 각각의 경험을 비교하는 연구를 진행하였다.

모션 캡처 기술은 센서나 카메라를 이용하여 사람의 동작이나 물체의 움직임을 감지하여 정교한 동작을 효과적으로 데이터화함으로써 애니메이션, 영화 등 다양한 미디어 산업에 활용되고 있다. 이러한 모션 캡처 기술은 메타버스 콘텐츠에서도 활용되어 액터의 움직임이 가상환경에서 아바타의 움직임으로 표현되어 몰입감 높은 상호작용과 현실적인 경험을 제공할 수 있다. Kammerlander et al.[15]은 가상현실과 모션 캡처를 활용하여 구성한 협업 가상환경에서 다양한 비율의 가상 캐릭터를 생성하는 방법에 관하여 연구하고 생성된 가상 캐릭터가 사용자에게 미치는 영향을 분석하였다. Fraser et al.[16]은 사실적인 가상 캐릭터의 얼굴 및 몸의 표현은 가상현실에서의 사용자와의 상호작용에 있어 현실감과 품질을 향상할 수 있음을 확인하는 연구를 진행하였다. 이처럼 현실과 가상을 연결할 수 있는 대표적인 기술 가운데 하나로 모션 캡처 기술이 활용되고 있다.

따라서, 본 연구는 현실과 가상환경이 상호작용하여 새로운 경험을 제공하는 혼합현실에 모션 캡처 기술을 응용하여, 혼합현실 기반의 체험환경에서 모션 캡처를 활용한 액터 기반 가상 아바타와 함께 실시간으로 상호작용하는 대화형 콘텐츠를 제작함을 목표로 한다. 그리고, 모션 캡처 기반 가상 아바타가 혼합현실 체험환경에서 사용자의 경험에 미치는 영향을 체계적으로 분석한다. 이를 위해 OptiTrack 모션 캡처 장비[17]를 활용하여 마커를 부착한 슈트를 착복한 액터와 메타 퀘스트 3 HMD를 착용한 혼합현실 사용자가 가상의 아바타와 현실 세계 사용자로서 상호작용 및 소통할 수 있는 체험환경 구축을 위해 유니티 3D 엔진[18]을 활용한 개발환경을 구축한다. 이를 위하여, 모션 캡처 플러그인(OptiTrack Unity Plugin)[19]과 Meta XR All-in-One SDK(Software Development Kit)[20]를 활용한 개발 공정을 정리한다. 통합개발 환경과 정의한 개발 공정을 토대로 구체적인 혼합현실 대화형 콘텐츠 제작 과정과 응용 방향을 제시하기 위하여 본 연구는 어린이를 대상으로 하는 약 복용 도움에 관한 주제의 콘텐츠를 직접 제작한다. 이는 약 복용에 관한 거부감이 크거나 어려움을 갖는 어린이를 대상으로 혼합현실 환경에서 캐릭터로 표현되는 가상 아바타와의 대화, 소통, 이야기를 통해 불안을 낮추고 정서적 안정을 유도하여 자연스럽게 약을 먹을 수 있도록 유도함을 목적으로 한다. 이를 위해, 액터 기반의 가상 아바타와 혼합현실 사용자가 서로 실시간으로 대화하고 상호작용할 수 있도록 유니티 3D 엔진에서 네트워크를 기반으로 한 음성과 동작 동기화 기능을 설계한다. 마지막으로, 제작된 혼합현실 대화형 콘텐츠가 제공하는 새로운 체험환경에서의 경험과 함께 모션 캡처 기반 가상 아바타와의 상호작용이 제공하는 가상환경에서의 현존감과 전반적인 만족도를 설문 실험을 통해 통계 분석한다[21-23].

본 논문의 주요 기여 내용은 다음과 같다.

1. 모션 캡처와 혼합현실 기반 통합개발 환경 구축: 모션 캡처 장비를 사용하여 마커를 부착한 슈트를 입은 액터 기반 가상 아바타와 메타 퀘스트 3를 착용한 혼합현실 사용자가 실시간으로 소통하고 상호작용할 수 있는 혼합현실 대화형 콘텐츠 제작을 위해 유니티 3D 엔진 기반의 통합개발 환경 구축 및 제작 공정 정리

2. 약 복용 도움 대화형 콘텐츠 제작: 혼합현실 기반의 체험환경에서 모션 캡처를 통해 캐릭터로 참여하는 액터 기반 가상 아바타와 혼합현실 사용자가 실시간으로 상호작용하며 이야기를 통해 자연스럽게 약을 먹을 수 있도록 유도하는 콘텐츠 제작하고, 이를 기반으로 설문 실험을 통한 사용자 평가를 진행함으로써 새로운 체험환경이 제시하는 응용 가능성 검증

2. 통합개발 환경 구축

2.1 모션 캡처 기반 가상 아바타

모션 캡처는 몸에 센서를 부착시키거나, 적외선을 이용하는 등의 방법으로 인체의 움직임을 디지털 형태로 기록하는 기술로 마커가 부착된 슈트를 입은 액터의 동작을 두 대 이상의 카메라를 통해 촬영하여 움직임을 정확히 측정하는 광학식 방법과 주요 관절 부위에 관성 센서를 부착하여 움직임을 추정하는 관성식 방법이 있다. 본 연구는 광학식 방법으로 OptiTrack Prime 17W 카메라 16대로부터 마커가 부착된 슈트를 착복한 액터의 동작을 실시간으로 추적한다(Figure 1). 그리고 모티브(Motive 3.1.4) 소프트웨어를 통해 슈트에 부착된 41개의 마커를 토대로 주요 관절과 뼈대로 구성된 스켈레톤(Skeleton)을 가상 아바타로 연결하여 실시간으로 애니메이션을 동기화할 수 있다.

jkcgs-31-3-127-g1
Figure 1. An actor wearing a suit with markers attached and a skeleton is created for human motion estimation in Motive software.
Download Original Figure

추적된 액터의 움직임을 토대로 모티브 소프트웨어를 통해 생성된 스켈레톤 정보를 유니티 3D 엔진에서 연동하기 위해 플러그인(OptiTrack Unity Plugin 14.0)을 사용한다. 가상 아바타로 활용한 캐릭터 모델을 정의하고, 주요 기능인 스크립트 컴포넌트(OptitrackSkeletonAnimator.cs)를 추가한다. 또한, 모티브 소프트웨어에서 생성한 스켈레톤 이름과 컴포넌트의 이름 속성(Skeleton Asset Name)을 동일하게 입력하면 모티브 소프트웨어서 계산된 스켈레톤의 동작이 유니티 3D 엔진에서 정의한 캐릭터의 동작으로 실시간으로 동기화된다(Figure 2). 단, 유니티 3D 엔진에서 사용하는 캐릭터 모델은 리깅이 포함된 모델이어야 하며, 애니메이션 타입 설정을 Humanoid로 지정해야 한다. 또한, 만약 캐릭터 모델이 기존의 애니메이션 정보를 가지고 있다면 해당 애니메이션 동작이 아닌 모션 캡처 애니메이션과 동기화되기 위해 Animator 속성을 비활성화해야 한다.

jkcgs-31-3-127-g2
Figure 2. A skeleton in motive software synchronized with an actor wearing a full body suit with markers attached (left), a humanoid character model with motion capture plugin applied in Unity 3D (right).
Download Original Figure
2.2 혼합현실 콘텐츠 제작 공정

본 연구는 혼합현실 콘텐츠 제작을 위한 장비로 메타 퀘스트 3 HMD를 사용한다. 메타 퀘스트 3 HMD에는 내장된 2개의 RGB 카메라를 통해 풀 컬러 패스스루(Full Color Passthrough) 방식을 통해 현실 세계의 이미지를 HMD를 통해 확인할 수 있다. 유니티 3D 엔진에서 메타 퀘스트 3를 기반으로 콘텐츠 제작을 위한 개발 환경을 구축하는 방법으로 Meta XR All-in-One SDK를 활용한다. 이는 혼합현실 체험환경 구축에 필요한 다양한 기능을 Building Block 방식으로 제공하여 개발자가 쉽게 원하는 기능을 구현할 수 있도록 지원하고 있다.

메타 퀘스트 3에서 제공하는 공간 설정 기능은 현실 세계의 기본적인 물리적 구조인 바닥과 벽을 지정하고, 창문과 책상 등 현실 공간을 구성하는 객체의 경계를 지정하고 물리적 구조 정보에 관한 공간 정보를 저장하여 개발에 쉽게 활용할 수 있다. 또한, 이는 가상 객체와의 결합을 통해 표현되는 혼합현실 체험환경에서 자연스러운 장면을 표현하는 데 활용된다. 저장된 공간 정보를 유니티 3D 엔진으로 불러와 현실 세계의 물리적 구조를 가진 확장된 가상환경으로 재구성할 수 있으며, 이 역시 Meta XR All-in-One SDK의 Building Block의 Effect Mesh 기능을 통해 구현할 수 있다(Figure 3). 본 연구에서는 책상과 의자로 구성된 일반적인 사무실 실내 공간을 토대로 공간 정보를 저장하고 책상의 물리적 구조에 맞춰 모션 캡처 기반 가상 아바타와 함께 가상 객체가 책상 위의 지정된 위치와 방향에 배치될 수 있도록 설계한다(Figure 4). 마지막으로, Meta XR All-in-One SDK의 Building Block에서 제공하는 손 추적(Hand Tracking) 기능을 활용하여 가상 객체를 제어하는 등의 상호작용을 구현한다.

jkcgs-31-3-127-g3
Figure 3. Visualizing stored space information using Meta XR All-in-One SDK in Unity 3D.
Download Original Figure
jkcgs-31-3-127-g4
Figure 4. A motion capture based virtual avatar and virtual information expressed on the desk's physical structure based on stored space information: in Unity 3D (left) scene and perspective of MR user (right).
Download Original Figure
2.3 동기화

통합개발 환경 구축의 마지막 단계는 모션 캡처 기반 가상 아바타와 혼합현실 사용자 사이의 실시간 소통 및 상호작용을 위한 동기화이다. 서로 다른 공간, 참여 방식 그리고 플랫폼의 사용자 사이의 실시간 대화 및 통일된 행동 정보 공유를 위해서는 음성과 동작에 관한 동기화가 필요하다. 본 연구는 포톤 엔진(Photon Engine)에서 제공하는 유니티 3D 엔진 기반의 네트워크 기능인 PUN 2(Photon Unity Networking)[24]와 Photon Voice 2[25]를 활용하여 동기화 기능을 구현한다. PUN 2를 기반으로 액터를 통해 동작하는 가상 아바타와 혼합현실 사용자의 행동, 동작 등을 동기화하여 실시간으로 정확한 상호작용(Figure 5)을 가능하게 하며, Photon Voice 2를 기반으로 무선 이어폰을 착용한 액터와 메타 퀘스트 3 HMD에 내장된 스피커와 마이크를 통해 혼합현실 사용자와 음성으로 대화할 수 있도록 구현한다(Figure 6). 추가적으로, 혼합현실 사용자의 정면에 웹캠을 설치하여 액터 역시 혼합현실 사용자의 모습이 확인 가능하도록 영상 정보를 제공하였다.

jkcgs-31-3-127-g5
Figure 5. A humanoid character model for the motion capture user with PUN(Photon Unity Networking) 2 and Photon Voice 2 plugin provided by Photon Engine applied in Unity 3D.
Download Original Figure
jkcgs-31-3-127-g6
Figure 6. A motion capture user wearing the motion capture suits with markers attached and wireless earphones proceeding the content with checking MR user on screens in the Motion Tracking Studio.
Download Original Figure

3. 약 복용 도움 콘텐츠

본 연구에서는 모션 캡처 기반 가상 아바타와 혼합현실 사용자가 함께 참여하는 체험환경 구축을 위하여 동기화 기능을 포함한 통합개발 환경을 구현하고, 이를 기반으로 사용자가 실시간으로 소통 및 상호작용하는 대화형 구조의 콘텐츠 제작 응용을 목적으로 약 복용 도움이라는 주제를 제시하였다. 이는 약 복용에 대한 안 좋은 기억, 거부감 등을 갖거나 일반적인 어려움을 가진 어린이를 대상으로 한다. 캐릭터로 표현되는 가상 아바타의 이야기를 바탕으로 약 복용 과정에서 흥미롭고 긍정적인 경험을 제공하여 이후에도 부정적 감정을 줄일 수 있도록 하는 것을 목적으로 한다. 어린이 사용자의 선호, 호감 등을 반영한 캐릭터에 모션 캡처 기반의 가상 아바타를 통해 표현되는 자연스러운 움직임과 함께 혼합현실 콘텐츠를 통해 소통하고 체험하는 과정이 약 복용이라는 콘텐츠의 목적을 효과적으로 전달하는 데 도움을 주도록 한다. 다만, 본 연구에서 제작하는 약 복용 도움 콘텐츠는 의학적 목적이 아닌 체험형 콘텐츠로 실제 약을 사용하는 대신 약통만 실제와 같은 제품을 사용하고, 음료 등으로 대체하였다. 그리고, 콘텐츠를 진행하는 동안 옆에 보호자 또는 지도자가 함께하여 안전하게 체험할 수 있도록 진행하였다.

jkcgs-31-3-127-g7
Figure 7. A MR user wearing a mixed reality HMD and experiencing medication assistance content in front of a web camera, and a mixed reality user’s perspective.
Download Original Figure

4. 실험 및 분석

4.1 실험 설계

약 복용 도움 대화형 혼합현실 콘텐츠는 모션 캡처 기반 가상 아바타와의 실시간 상호작용이 혼합현실 사용자에게 높은 몰입과 함께 콘텐츠의 목적을 효과적으로 전달하면서 동시에 만족하는 경험을 제공하는 것을 실험하기 위하여 제작된 결과이다. 즉, 의학적 목적보다는 가상 아바타와의 혼합현실 사용자 간 상호작용이 가지는 경험, 만족, 몰입 등에 대한 긍정적 요인을 확인하는 것이 핵심 목표이기 때문에 의학 전문가를 통해 어린이를 대상으로 실제 약 복용에 대한 거부감 완화 효과를 검증하는 것은 아니다. 따라서, 제안하는 체험환경에 관한 사용자 경험, 현존감, 만족도에 대한 사용자 평가는 혼합현실과 모션 캡처 등 관련 기술에 대한 이해도가 상대적으로 높은 성인을 대상으로 진행하고, 어린이와 학부모를 대상으로 콘텐츠 목적에 관한 주관적 설문 평가를 수행하였다. 그리고 실험에 대한 설명 시 성인에게는 해당 콘텐츠는 어린이를 대상으로 설계되었음을 안내하였다. Table 1은 액터와 혼합현실 사용자 사이의 대화 내용 중 일부로 가상 아바타와의 이야기 흐름을 파악할 수 있도록 정리한 것이다.

Table 1. Example scenario of the produced medication assistance content.
Dialogue Description
Actor :Hi! I’m the scary Lion!
But I’m scared of taking medicine...
Aren’t you, too?
MR user : Yes.
Actor : But if it’s a magic medicine,
I think I can take it.
MR user : A Magic medicine?
The content proceeds as a story that can build empathy based on the MR user's information
Actor : If you help me,
we can make magic medicine!
Can you put the medicine in front of you
on the shiny spot here?
Activate circular effect in front of the character
MR user : (Put the model medicine bottle on the activated effect in front of the character) Create a magical medicine virtual object in front of the character and another at the same position as the medicine bottle
Actor : Wow! It's a magic medicine!
I’ll try it first.
(Take the action of picking up the magic medicine in front of the character and taking it)
MR user : Okay
Activate healing effect around the character
Actor : Now it’s your turn.
You don’t need to be scared!
MR user : (Take the action of picking up the magic medicine and taking it)
Actor : You did great!
It wasn’t scary, right?
MR user : It wasn’t scary
Actor : Now, think about what you did with me every time you take the medicine.
Activate healing effect around the MR user
Download Excel Table

사용자 평가 실험은 제안하는 체험환경에 대한 비교 평가를 위하여 두 가지 체험 방식으로 나누어 설계한다.

  1. 액터가 수행하는 모션 캡처 기반 가상 아바타와 함께 참여하여 상호작용하는 혼합현실 체험환경

  2. 혼합현실 사용자가 기존의 GUI 방식으로 정의된 버튼을 누르면 사전에 정의된 행동과 대사가 실행되는 혼합현실 체험환경(Figure 8)

jkcgs-31-3-127-g8
Figure 8. Content screens of the GUI environment from the perspective of a MR user wearing an HMD.
Download Original Figure

액터가 혼합현실 사용자의 행동, 반응, 대화에 맞춰 유연하게 이야기를 이끌어 가며 대응할 수 있는 체험환경을 정해진 대본과 행동에 맞춰 콘텐츠를 체험하는 기존의 GUI 방식과 비교하여 사용자 경험에 미치는 영향을 비교하기 위한 목적이다. 설문 실험은 콘텐츠가 제공하는 전반적인 경험에 대한 분석과 혼합현실 체험환경에서의 현존감 그리고 제작된 콘텐츠가 목적을 달성하는 데 있어 제안하는 새로운 상호작용 방식이 가지는 만족도를 분석하기 위해 3가지 설문지를 활용하여 진행한다. 우선, 사용자 경험과 관련하여 7개 항목과 14개의 설문 문항으로 구성된 GEQ(Game Experience Questionnaire)[21]의 In-game 모듈을 기반으로 5점 척도로 응답받는다. 또한, 모션 캡처 기반 가상 아바타와 GUI 방식 각각에 대한 유용성과 만족도를 비교 분석하기 위하여 USE (Usefulness, Satisfaction, Ease of use)[22] 설문지를 활용한다. USE 4가지 항목 가운데 Usefulness와 Satisfaction 항목의 문항을 선택하였으며, 7점 척도로 응답받았다. 마지막으로, 현존감을 확인하기 위해 PQ (Presence Questionnaire)[23] 설문지를 활용하였다. 24개의 문항, 7개의 항목으로 구성된 설문지 가운데 혼합현실 체험환경에서의 몰입을 분석하기 위한 Realism 항목과 이야기를 통해 상호작용하는 과정에서의 현존감을 비교하기 위한 Sounds 항목의 총 10개의 문항을 선별하여 7점 척도로 응답받아 설문에 활용하였다.

실험 참가자는 혼합현실 사용자로 메타 퀘스트 3 HMD를 착용하고 두 가지 체험 방식을 각각 체험한 다음 GEQ, USE, 그리고 PQ 설문지에 답변하는 과정으로 진행된다. 실험 순서는 참가자 중 절반은 제안하는 모션 캡처 기반 가상 아바타와 상호작용하는 체험환경을 나머지 절반은 GUI 방식의 체험환경을 먼저 진행하는 방식으로 설계하였다. 액터는 모션 캡처 사용에 대한 경험 및 지식을 가진 비전문가 두 명(30대 여성, 20대 남성)으로 구성되었으며, GUI 환경에서 가상 캐릭터의 대사를 녹음하여 음성 인터페이스로 활용하기 위해 두 명의 액터 목소리로 녹음하였다.

4.2 사용자 평가 분석

사용자 평가를 위한 설문 실험 참가자는 총 12명으로 남성 10명, 여성 2명으로 구성하였고, 나이는 19세부터 36세, 평균 26세이다. 모든 참가자는 두 가지 체험환경으로 구성된 콘텐츠를 각각 체험한 후 GEQ, USE, 그리고 PQ 설문지에 응답한다. Table 2는 각 체험환경에 따른 세 가지 설문지의 응답 결과를 정리한 것이다. 설문 결과를 토대로 통계 분석을 위한 과정으로 우선, 두 가지 체험환경에서의 결과에 따른 등분산 검정을 수행한다. 본 연구는 Levene’s test를 통해 설문 결과의 등분산 검정을 수행하였다. 등분산 검정 결과 모든 설문 결과에 대해서 유의확률보다 큰 값(p>0.05)이 나타나 등분산임을 가정할 수 있고, 따라서 이를 기반으로 두 체험환경 사이의 통계적 유의성을 비교 분석하기 위하여 Student’s t-test를 수행하였다. 경험에 관한 전반적인 결과, 유용성, 만족도, 그리고 현실감과 음성을 통한 대화 과정에서의 결과 모두 제안하는 모션 캡처 기반 가상 아바타와의 상호작용 과정이 높은 결과를 나타내었지만, Flow 항목(t=2.56, p<0.05)을 제외하고는 유의미한 차이는 나타나지 않았다. 가상 아바타가 혼합현실 사용자의 대화 과정에서 혼합현실 사용자의 반응, 대화 방식 등을 고려하여 유연하게 대처하는 과정이 전체적인 결과 향상에 도움을 준 것으로 판단할 수 있었다. 특히, 가상 아바타와의 상호작용(대화와 행동)을 통해 혼합현실 사용자가 콘텐츠에 집중함을 느낄 수 있었다는 결과를 보여주는 Flow 항목에서는 특히 유의미한 차이를 보일 수 있었다.

Table 2. Comparative analysis results on the proposed motion capture-based virtual avatar experience environment and the existing GUI experience environment.
Our GUI
Mean(SD)
GEQ Competence 3.21(1.12) 2.96(0.89)
Sensory and Imaginative Immersion 3.29(1.01) 2.67(1.07)
Flow 3.25(0.97) 2.29(0.86)
Tension 0.29(1.01) 0.38(0.71)
Challenge 2.21(1.10) 2.21(0.50)
Negative affect 0.54(0.86) 1.13(1.00)
Positive affect 3.17(1.21) 2.96(0.81)
USE Usefulness 6.02(1.59) 5.42(1.17)
Satisfaction 5.75(1.64) 5.24(1.48)
PQ Realism 5.74(1.41) 5.44(1.23)
Sounds 4.97(1.71) 5.36(1.19)
Pairwise Comparison (t-value, p-value)
GEQ Competence (0.61, p=0.55)
Sensory and Imaginative Immersion (1.47, p=0.16)
Flow (2.56, p<0.05)
Tension (-0.23, p=0.82)
Challenge (0.00, p=1.00)
Negative affect (-1.53, p=0.14)
Positive affect (0.49, p=0.63)
USE Usefulness (1.06, p=0.30)
Satisfaction (0.80, p=0.43)
PQ Realism (0.55, p=0.59)
Sounds (-0.65, p=0.52)
Download Excel Table

다음은 실험 순서에 따른 체험환경 경험의 차이를 비교 분석하였다. 본 연구에서는 참가자를 두 그룹으로 나누어 모션 캡처 기반 가상 아바타 체험환경과 GUI 방식의 체험환경을 각각 먼저 진행하는 방식으로 설계하였다. Table 3은 진행 순서에 따른 결과를 정리한 것으로, 같은 체험환경을 진행 순서에 따라 두 그룹으로 나누어 데이터를 비교한 결과를 포함하며 나중에 체험한 환경에서의 결과가 높게 나타나는 것을 확인할 수 있었다. 모션 캡처 기반 가상 아바타 체험환경의 경우 특히, GUI 방식을 체험하고 난 이후의 값이 뚜렷하게 달라짐을 보인다. 이는 가상 아바타가 제공하는 상호작용이 현실과 유사하고 사용자의 관점에서 더욱 집중하고 몰입할 수 있도록 유도하며 콘텐츠의 목적을 전달하는 데 유용하였음을 GUI를 먼저 체험한 다음 뚜렷하게 느꼈음을 나타내는 것으로 분석할 수 있다. 이 역시, 체험 순서에 따른 통계적 유의성을 확인하기 위하여 등분산 검정(Levene’s test)을 수행한 결과 모션 캡처 기반 가상 아바타와의 체험환경 설문 결과 가운데 GEQ의 Sensory and Imaginative Immersion과 USE의 Satisfaction 항목에서만 순서에 따른 결과가 등분산이 가정되지 않은 결과(p<0.05)를 보였다. 다만, 값의 차이가 크지 않고, 참가자 집단의 수가 적은 점을 고려하여 Student’s t-test를 수행하였다. 그 결과, GUI를 먼저 체험한 사용자 그룹의 모션 캡처 기반 가상 아바타 체험환경에서 체험 순서에 따른 PQ의 Sounds 항목(t=-3.75, p<0.05)에 관하여 유의미한 차이를 확인할 수 있었다. 이는 정의된 대사를 기반으로 진행되던 이야기 구조를 먼저 체험하고 난 이후에 액터와 자연스럽게 대화를 이어가는 체험환경을 경험하였을 때 청각적 현존감의 차이를 크게 느꼈던 것으로 판단한다.

Table 3. Comparative analysis results on experience environments according to experience order.
Our GUI
Mean(SD) Our first
GUI first
GEQ Competence 2.92(1.53) 3.08(0.92)
3.50(0.45) 2.83(0.93)
Sensory and Imaginative Immersion 2.83(1.29) 2.83(1.29)
3.75(0.27) 2.50(0.89)
Flow 3.08(1.16) 2.33(0.98)
3.42(0.80) 2.25(0.82)
Tension 0.58(1.43) 0.50(0.84)
0.00(0.00) 0.25(0.61)
Challenge 1.67(1.13) 2.25(0.42)
2.75(0.82) 2.17(0.61)
Negative affect 0.42(0.80) 0.92(0.86)
0.67(0.98) 1.33(1.17)
Positive affect 2.83(1.69) 3.08(0.66)
3.50(0.32) 2.83(0.98)
USE Usefulness 5.33(2.08) 5.33(1.21)
6.71(0.28) 5.50(1.23)
Satisfaction 5.19(2.25) 5.36(1.70)
6.31(0.28) 5.12(1.37)
PQ Realism 5.24(1.86) 5.29(1.48)
6.24(0.54) 5.60(1.04)
Sounds 3.72(1.29) 5.22(1.54)
6.22(1.00) 5.50(0.84)
Pairwise Comparison (t-value, p-value)
GEQ Competence (-0.90, p=0.39) (0.47, p=0.65)
Sensory and Imaginative Immersion (-1.70, p=0.12) (0.52, p=0.61)
Flow (-0.58, p=0.57) (0.16, p=0.88)
Tension (1.00, p=0.34) (0.59, p=0.57)
Challenge (-1.90, p=0.09) (0.28, p=0.79)
Negative affect (-0.48, p=0.64) (-0.70, p=0.50)
Positive affect (-0.95, p=0.37) (0.52, p=0.62)
USE Usefulness (-1.61, p=0.14) (-0.24, p=0.82)
Satisfaction (-1.21, p=0.25) (0.27, p=0.79)
PQ Realism (-1.26, p=0.24) (-0.42, p=0.68)
Sounds (-3.75, p<0.05) (-0.39, p=0.71)
Download Excel Table

마지막으로, 진행된 설문 실험을 위하여 본 연구에서는 2명의 액터가 콘텐츠를 진행하였다. 제작된 콘텐츠의 목적을 효과적으로 전달하기 위해서는 이야기를 이끌어가는 액터의 역할이 중요한 만큼 액터에 따른 결과 차이를 분석하였다. 참가자를 역시 두 그룹으로 나누어 절반은 30대 여성인 액터(A1)를 맡아 실시간으로 모션 캡처 기반 가상 아바타로 함께 참여하고, 같은 액터의 음성으로 녹음된 GUI 환경을 체험하도록 하였다. 나머지 절반은 20대 남성인 액터(A2)가 같은 방식으로 진행하였다. Table 4는 이러한 실험 설계를 바탕으로 설문 응답 결과를 정리한 것이다. 실험 순서에 따른 경험의 차이와 유사하게 액터에 따른 차이도 일부 명확하게 나타나는 것을 확인할 수 있다. 전반적으로 남성 액터(A2)와의 상호작용 경험이 더 긍정적이었음을 확인할 수 있었다. 액터에 따른 통계적 유의성을 확인하기 위하여 우선 등분산 검정(Levene’s test)을 수행한 결과 액터에 따른 체험환경을 수행하는 과정에서 GEQ의 Tension 항목에서만 등분산이 가정되지 않는 결과를 보였다. 하지만 이 역시도, 순서에 따른 등분산 검정 결과와 같은 이유인 점을 고려하여 Student’s t-test를 수행하였다. 그 결과, GUI 방식의 체험환경에서 액터에 따른 GEQ의 Flow 항목(t=-2.73, p<0.05)과 Negative affect 항목(t=2.71, p<0.05)에서 유의미한 차이를 보였다. 정의된 음성이 입력에 따라 재생되는 GUI 방식에서 액터 목소리의 연기력이나 어조에 대한 인상이 콘텐츠를 집중하는 과정을 방해하거나 지루하게 하는 등 부정적인 영향을 발생시킬 수 있음을 확인할 수 있었다. 하지만, 이 역시도 혼합현실 사용자와의 실시간 상호작용을 통해 상황과 성향에 맞춰 이야기를 이끌어 간다면 해결이 가능한 부분으로도 해석될 수 있다.

Table 4. Comparative analysis results on experience environments by actor.
Our GUI
Mean(SD) with A1
with A2
GEQ Competence 2.67(1.37) 2.67(0.98)
3.75(0.42) 3.25(0.76)
Sensory and Imaginative Immersion 2.83(1.25) 2.25(1.08)
3.75(0.42) 3.08(0.97)
Flow 3.08(1.16) 1.75(0.76)
3.42(0.80) 2.83(0.61)
Tension 0.58(1.43) 0.75(0.88)
0.00(0.00) 0.00(0.00)
Challenge 2.00(1.48) 2.33(0.61)
2.42(0.58) 2.08(0.38)
Negative affect 0.83(1.13) 1.75(0.76)
0.25(0.42) 0.50(0.84)
Positive affect 2.67(1.60) 2.58(0.92)
3.67(0.26) 3.33(0.52)
USE Usefulness 5.42(2.12) 5.02(1.40)
6.63(0.41) 5.81(0.81)
Satisfaction 5.12(2.16) 4.45(1.64)
6.38(0.50) 6.02(0.79)
PQ Realism 5.38(1.95) 4.83(1.47)
6.10(0.50) 6.05(0.52)
Sounds 4.22(1.72) 4.78(1.24)
5.72(1.45) 5.94(0.88)
Pairwise Comparison (t-value, p-value)
GEQ Competence (-1.86, p=0.09) (-1.15, p=0.28)
Sensory and Imaginative Immersion (-1.70, p=0.12) (-1.40, p=0.19)
Flow (-0.58, p=0.57) (-2.73, p<0.05)
Tension (1.00, p=0.34) (2.09, p=0.06)
Challenge (-0.64, p=0.54) (0.85, p=0.41)
Negative affect (1.19, p=0.26) (2.71, p<0.05)
Positive affect (-1.51, p=0.16) (-1.75, p=0.11)
USE Usefulness (-1.37, p=0.20) (-1.20, p=0.26)
Satisfaction (-1.39, p=0.19) (-2.11, p=0.06)
PQ Realism (-0.87, p=0.41) (-1.91, p=0.09)
Sounds (-1.63, p=0.13) (-1.88, p=0.09)
Download Excel Table

전체적인 설문 실험 결과, 대화형 콘텐츠를 체험하는 과정에서 기존의 GUI 방식에 익숙한 사용자들에게 본 연구에서 제안하는 새로움 체험환경은 몰입할 수 있고, 만족하며, 향상된 경험을 제공할 수 있을 것으로 판단한다. 또한, 콘텐츠의 목적을 잘 전달할 수 있는 전문적인 액터가 참여할 수 있는 방향으로 발전한다면 콘텐츠의 목적을 더욱 효과적으로 달성할 수 있고, 체험환경이 제공하는 긍정적인 효과는 더욱 극대화할 수 있을 것으로 기대한다.

4.3 주관적 평가 분석

본 연구에서 제작한 혼합현실 대화형 콘텐츠는 어린이의 약 복용 도움을 목적으로 하고 있다. 따라서, 어린이의 관점에서 제작된 콘텐츠가 실질적으로 도움이 될 수 있는지에 관한 판단이 필요하다. 다만, 혼합현실 장비를 직접 활용하여 체험하는데 발생할 수 있는 위험 또는 부정적 요인을 고려하여 콘텐츠 진행 과정을 영상으로 제작하였다. 총 4명의 11세 여자 어린이 참가자를 대상으로 진행하였고, 영상을 시청한 다음 Table 5에서 제시된 주관식 문항에 각자의 의견을 기록하였다. 단, 가상 아바타와의 상호작용이 미치는 영향을 확인하기 위하여 어린이 상담에 많이 쓰이는 방식으로 인형을 앞에 두고 인형과 대화하듯이 진행하는 방식을 함께 영상으로 제작하여 실험에 활용하였다(Figure 9). 즉, 어린이들은 제안하는 가상 아바타와의 체험환경과 인형 방식의 상담 체험환경 영상을 각각 시청한 다음 설문에 답을 기록하는 방식으로 진행된다. 그리고 이 과정에서 보호자의 입장도 함께 확인하기 위하여 같은 실험을 보호자에게도 진행하였다. 보호자는 평균 46세의 여성으로 구성되었다.

Table 5. Subjective survey questions used in user evaluation of children and parent.
# Questions
1. Have you ever had a negative experience with taking medicine?
1-1. If you had a negative experience, why did it happen?
2. Between a virtual avatar and a doll, which content did you feel more immersed in?
3. Between a virtual avatar and a doll, which content do you think would be more helpful for taking medicine?
4. Between a virtual avatar and a doll, which content do you think would leave a more lasting memory?
5. Between a virtual avatar and a doll, which content would you like to experience?
Download Excel Table
jkcgs-31-3-127-g9
Figure 9. A video showing a user engaging in medication assistance content using a doll.
Download Original Figure

설문 결과 모든 어린이 참가자는 1번 문항에 ‘없다’라고 답하였으나, 연관 문항에서 3명은 쓴맛에 대한 경험은 있었다는 부연 답을 작성하였다. 그리고 2번 문항부터 4번 문항까지 모두가 가상 아바타라고 답하였다. 하지만 1명의 어린이는 마지막 5번 문항에서 인형 콘텐츠를 체험하고 싶다는 의견을 주었는데, 디지털 콘텐츠에 익숙해져 있는 어린이들에게 오히려 인형으로 진행되는 콘텐츠가 생소하게 느껴져서 호기심을 유발하는 의견을 내놓기도 하였다. 또한, 어린이의 시선에서 관심 있게 접근해야 할 의견으로 콘텐츠 체험 시간을 지루하지 않게 짧게 설정하면 좋다는 내용이 있었다. 제작된 콘텐츠의 체험 시간과 관련해서는 특별한 고민을 하지 않았었는데 숏폼과 같은 미디어에 익숙한 어린이의 시선에서는 콘텐츠의 내용과 방식도 중요하지만 시간 또한 중요함을 알 수 있었다.

마지막으로 보호자에게 같은 설문을 진행한 결과, 3명이 1번 문항에 ‘있다’라고 답하였으며, 그 이유로 어린이와 같이 쓴맛에 대한 경험이었다. 다음으로 2, 4, 5번 문항에는 모두 ‘가상 아바타’로 답하였으며, 3번 문항에서 1명의 보호자는 ‘인형’으로 답을 하였다. 가상 아바타보다 인형이 주는 친근함이 아이의 긴장, 부정적 환경을 개선하는 데 도움을 줄 수 있다는 의견으로 판단한다. 기타 의견으로 가상 객체인 약의 모양이나 효과를 더 화려하게 변경하여 쓴맛의 이미지를 상쇄하면 좋을 것 같다는 내용을 적어주기도 하였다. 주관적 설문 평가를 통해 액터가 진행하는 가상 아바타와의 상호작용이 아이들의 긴장을 낮추고 호기심을 유발하는 데 도움을 주는 것으로 확인되었다. 궁극적으로 약 복용에 직접적인 도움을 주는지는 추가적인 실험이 필요할 것으로 판단하지만 가상 아바타와 함께 참여하는 혼합현실 환경이 콘텐츠의 내용을 효과적으로 전달하고 목적을 달성하는 데 도움이 되는 새로운 체험환경으로 응용될 수 있다는 것이다.

5. 한계 및 토의

혼합현실 대화형 콘텐츠로 제작한 약 복용 도움 콘텐츠는 약 복용에 거부감이 크거나 어려움을 갖는 어린이를 대상으로 하고 있다. 하지만, 해당 콘텐츠는 새로운 체험환경과 이를 위한 통합개발 도구의 활용 및 검증을 위하여 제작되었다. 이러한 이유로, 의료 기관 또는 의학 전문가의 검증을 통해 해당 콘텐츠와 체험환경의 유용성을 객관적으로 실험하지 않았다. 또한, 어린이를 대상으로 혼합현실 콘텐츠를 체험하는 실험을 진행하는 것은 고려해야 할 조건이 많고 까다로워 현재는 성인을 대상으로 제작된 콘텐츠를 체험하고 설문을 진행하였다. 따라서, 향후 제안하는 체험환경에 기반하여 제안하는 체험환경에 관한 객관적 검증을 위해서 사용자의 관심과 흥미를 높일 수 있는 게임과 같은 엔터테인먼트 분야, 집중과 몰입을 통해 정보 전달 효과를 높이는 교육 등의 분야에 제안하는 모션 캡처 기반 가상 아바타를 활용한 혼합현실 콘텐츠를 다양하게 제작하고, 여러 연령대의 많은 수의 참가자를 대상으로 실험을 진행하여, 제안하는 체험환경 평가에 대한 신뢰도를 높이고 활용성을 확인하고자 한다.

다음으로, 액터를 통해 표현되는 가상 아바타 구현을 위해 사용된 모션 캡처 장비는 고가이며 큰 규모의 공간이 요구된다. 또한, 액터의 연기 역량 또한 콘텐츠의 몰입과 효과에 직접적인 영향을 미칠 수 있다는 한계가 존재한다. 이러한 점들은 제안하는 혼합현실 대화형 콘텐츠 제작을 위한 통합개발 환경 및 체험환경의 활용에 있어서 중요한 제약이 될 수 있다. 따라서, 상대적으로 저가의 관성식 모션 캡처나 키넥트와 같은 장비 등으로 가상 아바타를 대체하는 방법과 함께 OpenAI의 오디오 모델 등을 활용하여 상황에 맞는 음성으로 변환하거나 액터의 동작에 기반하여 사전에 제작된 애니메이션을 변형하여 사용하는 방식 등을 통해 액터에 대한 의존도를 낮추는 방향으로의 연구 등이 추가로 진행된다면 제안하는 방법의 활용성도 높아질 것으로 판단한다.

6. 결론

본 연구는 모션 캡처 기반 가상 아바타와 혼합현실 사용자가 함께 실시간으로 상호작용하는 대화형 콘텐츠 제작을 위한 통합개발 환경을 구축하고 새로운 체험환경을 제시하였다. 액터를 활용한 가상 아바타 구현을 위하여 OptiTrack 모션 캡처 장비를 활용하고, 슈트를 입은 액터의 움직임에 맞춰 가상 아바타의 애니메이션이 실시간으로 스트리밍되기 위한 개발과정을 정리하였다. 또한, 메타 퀘스트 3를 기반으로 Meta XR All-in-One SDK를 활용하여 혼합현실 개발 환경을 구축하는 제작 공정을 정의하였다. 마지막으로 모션 캡처 기반 가상 아바타와 혼합현실 사용자 사이의 상호작용을 위하여 음성과 동작을 정확하게 동기화하기 위한 네트워크 기능을 구현함으로써 새롭게 제시하는 체험환경 구축을 위한 통합개발 환경을 제안하였다.

구축된 통합개발 환경을 토대로 혼합현실 대화형 콘텐츠 제작 공정을 확인하기 위하여 약 복용 도움을 주제로 하는 콘텐츠를 제작하고, 이를 활용하여 설문 실험을 통해 사용자 경험, 유용성, 만족도, 몰입에 기반한 현존감 등을 분석하였다. 설문 실험 결과 제안하는 모션 캡처 기반 가상 아바타와의 상호작용을 통한 혼합현실 체험환경이 향상된 경험과 만족을 제공함을 확인할 수 있었다. 또한, 어린이와 보호자를 대상으로 제안하는 콘텐츠의 목적을 달성하는데 제안하는 체험환경이 가지는 이점을 확인하도록 주관적 설문 실험을 진행하였고, 가상 아바타와의 상호작용이 가지는 혼합현실 환경이 긴장을 낮추고 흥미를 유발하여 콘텐츠를 편안하게 체험할 수 있다는 결과를 확인할 수 있었다. 이와 같은 결과들을 통해, 본 연구에서 제작된 체험환경은 의료 행위에 대한 긍정적 경험을 유도하는 새로운 교육 및 치유적 응용 가능성을 제시하며 나아가 엔터테인먼트, 교육, 심리 치료 등 다양한 분야에서 사용자 중심의 대화형 혼합현실 콘텐츠 개발을 위한 실질적인 토대와 새로운 방향을 제시한다.

감사의 글

본 연구는 한성대학교 학술연구비 지원과제임 (김진모, Jinmo Kim).

References

[1].

L. Oppermann, F. Buchholz and Y. Uzun, “Industrial Metaverse: Supporting remote maintenance with avatars and digital twins in collaborative XR environments,” Extended Abstracts of the 2023 CHI Conference on Human Factors in Computing Systems, Article 178, pp. 1–5, 2023.

[2].

E. Schott, E. B. Makled, T. J. Zoeppig, S. Muehlhaus, F. Weidner, W. Broll and B. Froehlich, “UniteXR: Joint Exploration of a Real-World Museum and its Digital Twin,” Proceedings of the 29th ACM Symposium on Virtual Reality Software and Technology, Article 25, pp. 1–10, 2023.

[3].

M. Sra, S. Garrido-Jurado and P. Maes, “Oasis: Procedurally Generated Social Virtual Spaces from 3D Scanned Real Spaces,” IEEE Transactions on Visualization and Computer Graphics, vol. 24, no. 12, pp. 3174–3187, 2018.

[4].

J. Lee, M. Kim and J. Kim, “RoleVR: Multi-experience in immersive virtual reality between co-located HMD and non-HMD users,” Multimedia Tools and Applications, vol. 79, pp. 979–1005, 2020.

[5].

Y. Cho, M. Park and J. Kim, “XAVE: Cross-Platform Based Asymmetric Virtual Environment for Immersive Content,” IEEE Access, vol. 11, pp. 71890-71904, 2023.

[6].

T.-S. Kang, D.-Y. Lee, and J. Kim, “Production of Digital Fashion Contents based on Augmented Reality Using CLO 3D and Vuforia,” Journal of the Korea Computer Graphics Society, vol. 26, no. 3, pp. 21–29, 2020.

[7].

E. Zhu, A. Hadadgar, I. Masiello, and N. Zary, “Augmented reality in healthcare education: an integrative review,” PeerJ, vol. 2, pp. e469, 2014.

[8].

C. E. Hughes, C. B. Stapleton, D. E. Hughes and E. M. Smith, "Mixed reality in education, entertainment, and training," IEEE Computer Graphics and Applications, vol. 25, no. 6, pp. 24–30, 2005.

[9].

L. Chen, T. Day, W. Tang and N. John, "Recent Developments and Future Challenges in Medical Mixed Reality," 2017 IEEE International Symposium on Mixed and Augmented Reality (ISMAR), pp. 123–135, 2017.

[10].

W. Hönig, C. Milanes, L. Scaria, T. Phan, M. Bolas and N. Ayanian, "Mixed reality for robotics," 2015 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pp. 5382–5387, 2015.

[11].

Meta Quest, Meta, [Internet] Available:https://www.meta.com/kr/en/quest/, 2024.

[12].

Apple Vision Pro, Apple, [Internet] Available:https://www.apple.com/apple-vision-pro/, 2024.

[13].

S. Kong, J. Kim, G. Jeong, G., E. Park, Y. Cho and J. Kim, “Production of Virtual Electrical Circuit Practice Education Contents based on Mixed Reality using Meta Quest Pro,” Journal of the Korea Computer Graphics Society, vol. 30, no. 3, pp. 61–69, 2024.

[14].

J. Kim, S. Kong, M. Jang and J.Kim, “A Study on Production and Experience of Immersive Contents based on Mixed Reality and Virtual Reality using Meta Quest Pro,” Journal of the Korea Computer Graphics Society, vol. 30, no. 3, pp. 71–79, 2024.

[15].

R. K. Kammerlander, A. Pereira and S. Alexanderson, "Using Virtual Reality to Support Acting in Motion Capture with Differently Scaled Characters," 2021 IEEE Virtual Reality and 3D User Interfaces (VR), pp. 402–410, 2021.

[16].

A. D. Fraser, I. Branson, R. C. Hollett, C. P. Speelman, S. L. Rogers, S. L, "Expressiveness of real-time motion captured avatars influences perceived animation realism and perceived quality of social interaction in virtual reality," Frontiers in Virtual Reality, vol. 3, p. 981400, 2022.

[17].

OptiTrack, NaturalPoint, [Internet] Available:https://optitrack.com/, 2024.

[18].

Unity engine, UnityTechnologies, [Internet] Available:https://unity.com/, 2024.

[19].

OptiTrack Unity Plugin, OptiTrack, [Internet] Available:https://docs.optitrack.com/plugins/optitrack-unity-plugin, 2024.

[20].

Meta XR All-in-One SDK, Oculus, [Internet] Available:https://assetstore.unity.com/packages/tools/integration/meta-xr-all-in-one-sdk-269657, 2024.

[21].

W. A. IJsselsteijn, Y. A. De Kort, K. Poels, “The Game Experience Questionnaire,” Eindhoven: Technische Universiteit Eindhoven, 2013.

[22].

A. M. Lund, “Measuring usability with the use questionnaire12,” Usability interface, vol. 8, no. 2, pp. 3–6, 2001.

[23].

B. Witmer, C. Jerome, M. Singer, “The Factor Structure of the Presence Questionnaire,” Presence: Teleoperators and Virtual Environments, vol. 14, no. 3, pp. 298–312, 2005.

[25].

Photon Voice 2, Photon Engine, [Internet] Available:https://assetstore.unity.com/packages/tools/audio/photon-voice-2-130518, 2024.

< 저 자 소 개 >

양 현 용

jkcgs-31-3-127-i1

  • 2025년 한성대학교 컴퓨터공학부 학사

  • 2025년~현재 한성대학교 일반대학원 컴퓨터공학과 석사과정

  • 관심분야: 가상현실, 혼합현실, 컴퓨터그래픽스, HCI

공 수 민

jkcgs-31-3-127-i2

  • 2025년 한성대학교 컴퓨터공학부 학사

  • 관심분야: 가상현실, 증강현실, 실감형 콘텐츠 등

이 지 원

jkcgs-31-3-127-i3

  • 2018년 부산가톨릭대학교 소프트웨어학과 학사

  • 2021년 한국과학기술원 문화기술대학원 석사

  • 2024년~현재 한성대학교 일반대학원 정보컴퓨터공학과 박사과정

  • 관심분야: 컴퓨터그래픽스, 컴퓨터 비전, VR/AR, LLM

김 진 모

jkcgs-31-3-127-i4

  • 2006년 동국대학교 멀티미디어학과 학사

  • 2008년 동국대학교 영상대학원 멀티미디어학과 석사

  • 2012년 동국대학교 영상대학원 멀티미디어학과 박사

  • 2012년~2014년 동국대학교 영상문화콘텐츠연구원 전임연구원

  • 2014년~2019년 부산가톨릭대학교 소프트웨어학과 조교수

  • 2019년~현재 한성대학교 컴퓨터공학부 부교수

  • 관심분야: 컴퓨터그래픽스, VR/AR/MR, 메타버스, 게임 공학 등