Article

CLO 3D와 Vuforia를 활용한 증강현실 기반 디지털 패션 콘텐츠 제작

강태석1https://orcid.org/0000-0003-0786-1447, 이동연2https://orcid.org/0000-0002-4813-5559, 김진모3,*https://orcid.org/0000-0002-1663-9306
Tae-Seok Kang1https://orcid.org/0000-0003-0786-1447, Dong-Yeon Lee2https://orcid.org/0000-0002-4813-5559, Jinmo Kim3,*https://orcid.org/0000-0002-1663-9306
Author Information & Copyright
1한성대학교 컴퓨터공학부
2한성대학교 글로벌패션산업학부
3한성대학교 컴퓨터공학부
1Division of Computer Engineering, Hansung University goxotjr@naver.com
2Division of Global Fashion Business, Hansung University zkthfnr@naver.com
3Division of Computer Engineering, Hansung University jinmo.kim@hansung.ac.kr
*corresponding author: Jinmo Kim/Hansung University(jinmo.kim@hansung.ac.kr)

© Copyright 2020 Korea Computer Graphics Society. This is an Open-Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (http://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

Received: Jun 12, 2020; Revised: Jun 22, 2020; Accepted: Jun 25, 2020

Published Online: Jul 01, 2020

요약

본 연구는 패션에 대한 첨단 시뮬레이션 기술로 가상 의류 시각화를 지원하는 3D 패션 디자인 소프트웨어인 CLO 3D와 증강 현실 어플리케이션 제작을 위한 모바일 플랫폼 증강현실 개발 도구인 vuforia를 활용하여 유니티 엔진 개발 환경에서 대화식 구조의 디지털 패션 콘텐츠 제작을 위한 공정을 정의한다. CLO 3D 소프트웨어를 통해 패턴, 재봉선, 텍스쳐 등의 작업을 거쳐 가상 의류 모델을 제작하는 방법과 유니티 엔진 개발 환경에서 vuforia 개발 도구의 기능과 속성 들을 활용하여 컴퓨터 비전 기술 기반의 증강현실 콘텐츠를 제작하는 방법을 정리한다. 그리고 패션 디자이너, 디렉터 등 실무 사용자의 관점에서 현실적으로 활용 가능한 새로운 방식의 증강현실 디지털 패션 콘텐츠를 정의한 제작 공정의 흐름으로 직접 제작함으로써 활용 방법을 제시한다.

Abstract

This study defines the pipeline for digital fashion contents production using CLO 3D, a 3D fashion design software that supports virtual clothing visualization as a cutting-edge simulation technology for fashion, and vuforia, a mobile platform augmented reality (AR) development kit for creating AR applications. The proposed production pipeline is organized in a method to produce a virtual clothing model through CLO 3D software through works of patterns, sewing lines, textures, etc., and AR contents based on computer vision techniques using the functions and properties of vuforia development kits in the Unity engine development environment. In addition, we present application method that can be practically utilized from the perspective of practical users, such as fashion designers and directors, by creating a new type of AR digital fashion contents directly as a flow of the defined production pipeline.

Keywords: 증강현실; 디지털 패션 콘텐츠; 뷰포리아; 클로 3D; 유니티 엔진
Keywords: augmented reality; digital fashion contents; vuforia; CLO 3D; Unity engine

1. 서론

증강현실 (Augmented Reality, AR)은 현실 세계에 가상 이미지 를 자연스럽게 추가하여 실시간으로 상호작용하며 체험하는 기술을 의미한다. 증강현실은 실제와 가상 콘텐츠를 결합하고, 실시간 대화식의 구조를 지니며,3차원 공간으로 구성되는 세 가지 주요 특징을 가진 시스템을 나타내기도 한다 [1].

스마트 기기의 대중화와 증강현실의 발전으로 모바일 플랫폼을 기반으로 한 증강현실 시스템이 게임은 물론 환자의 신체에 가상의 해부학 구조를 합성하여 보여주는 의료 분야, 컴퓨터 그 래픽이 잡지에서 튀어나오는 듯한 마케팅 분야, 건설되는 않은 가상 건물을 현실 세계에 표현하는 건설 분야 등 다양한 분야로 확대, 적용되고 있다 [2, 3, 4].

증강현실 기술은 컴퓨터 비전 (vision) 기반의 증강현실과 위 치기반 증강현실로 구분한다. 컴퓨터 비전을 활용한 증강현실은 Figure 1 (a)와 같이 패턴이나 마커 등을 활용하여 사전에 학습된 물체 또는 이미지를 인식하여 현실 세계와 가상 환경을 합성하 는 방법이다. 위치기반 증강현실은 GPS 또는 센서로부터 측정된 현실 세계의 위치 정보로부터 가상의 그래픽 이미지 또는 객체 를 합성하는 방식으로 포켓몬 고게임 [5]이 대표적인 예로 볼 수 있다 (Figure 1 (b)).

jkcgs-26-3-21-g1
Figure 1: Types and examples of AR technology: (a) AR using computer vision [6], (b) location based AR [5].
Download Original Figure

증강현실과 관련된 기술적 연구들로, Kim et al. [7]은 시선 추 적에 의하여 동적으로 구동되는 해상도와 초점 깊이를 가진 안경 방식의 근거리 증강현실 디스플레이를 제안하였다. 또한, 모바 일 기반의 양안식 HMD 기기를 사용하는 마커 방식의 증강현실 체험 환경에서 단안 영상으로부터 3차원 입체 영상을 생성하는 기법을 제안 [8]하거나 마커 인식 문제와 가상 객체가 실제 공간 에 합성되는 과정에서 깊이감이 고려되지 않는 문제를 개선하는 연구 [9] 등이 진행되었다.

최근에는 증강현실 어플리케이션을 보다 쉽게 제작할 수 있는 증강현실 소프트웨어 개발 도구로 vuforia, AR Core 등이 제공 되어 다양한 분야에서 증강현실 기술이 활용되고 있는 상황이 다 [10].

본 연구는다양한 산업 분야에 적용되고 있는 증강현실 기술이 상대적으로 제한적으로 적용되고 있는 디지털 패션 분야에 보다 폭넓게 적용하기 위한 방법으로 CLO 3D 소프트웨어 [11]와 실내 외 장소의 구분없이 쉽게 접근할 수 있는 증강현실 콘텐츠 제작을 위해 vuforia 개발 도구 [6]를 활용한 디지털 패션 콘텐츠 제작 공 정을 정의한다. 그리고 기존에 패션 마케팅 분야에 주로 국한되어 제작되던 증강현실 콘텐츠를 보다다양한 용도를 활용할 수 있도록 일반 사용자뿐만 아니라 실무 사용자들에게 도움을 줄 수 있는 패션 디자인 및 디렉션에 응용 가능한 콘텐츠로 직접제작하도록 한다. 다음은 본 연구에서 제시하는 핵심 목표를 정리한 것이다.

  1. 디지털 패션 디자인 솔루션인 CLO 3D와 증강현실 소프트웨어 개발 도구인 vuforia를 활용하여 대화식 구조의 몰입감 높은 증강현실 콘텐츠를 제작하는 공정을 정의한다.

  2. 일반 사용자를 대상으로 하는 패션 마케팅 중심의 콘텐츠가 아닌 실무 사용자의 패션 디자인, 디랙션에 도움을 줄 수 있 는 새로운 접근 방식의 콘텐츠를 정의한 제작 공정을 토대로 제작한다.

2. 관련 연구

증강현실은 현실 세계에 컴퓨터로 생성된 가상의 그래픽 객체, 영상 등을 합성하여 장면을 만드는 기술이다. 결과적으로 사용자는 가상의 환경으로 증강된 현실 세계를 보고, 상호작용할 수 있다. 이러한 증강현실 기술은 가상현실 (Virtual Reality, VR), 증강현실, 원격현장감 (Telepresence) 그리고 기타 관련 기술을 다루는 종합적인 영역을 지칭하는 혼합현실 (Mixed Reality, MR)로 발 전되고 있다 [12].

Azuma [13]는 증강현실을 실제와 가상을 결합하고, 실시간 대화형 구조를 가지며,3차원으로 표현된 시스템으로 정의한다. 즉, 증강현실 기술은 태블릿, 스마트폰 또는 증강현실 안경과 같은 다양한 기기를 통해 디지털 및 물리적정보를 실시간으로 결합하여 새로운 경험을 제공할 수 있는 환경을 만들 수 있게 된다. 이러 한 증강현실 시스템은 제공되는 정보의 유형, 추적 방법 그리고 디스플레이 방식에 따라 유형을 크게 분류할 수 있다. 특히, 가상 객체를 현실 세계의위치에 정확히 배치하는 것이 중요한 요인이 므로 추적 방식은 중요한 구성 요소 중 하나이다. 증강현실에서의 추적은 크게 컴퓨터 비전, 센서 (GPS) 기반 그리고 이 둘을 결합 한 하이브리드 기반의 방식으로 구분된다. 이는 사용자의 위치 (실내 또는 실외), 주변 조명이나 센서의 정확도 등을 고려하여 콘텐츠의 목적에 맞는 추적 방식을 활용하고 있다 [3]. 이와 관련 하여 컴퓨터 비전을 활용하여 마커를 인식하고, 실제 공간의위치 정보를 추적하는 과정에서 사용자의 몰입을 방해하는 마커인식 문제나 깊이감을 고려하지 않은 증강현실 장면 생성을 개선하기 위한 연구 [9]들이 진행되고 있다.

증강현실은 디스플레이의 형태에 따라 모니터와 같은 컴퓨터 디스플레이, 모바일 플랫폼의 디스플레이, 안경 방식의 HMD 그 리고 사전에 설치된 표면 물체 (외벽, 인테리어 공간 등)에 투영 시키는 프로젝션 방식으로 구분한다. 증강현실 어플리케이션의 목적과 접근성, 몰입감, 사용자의 규모 등 여러가지 요인들을 고 려하여 디스플레이 형태를 결정하게 된다. 모바일 플랫폼의 디스 플레이는 휴대하기 쉽고 장소에 구애 받지 않는 높은 접근성으로 인하여 콘텐츠 제작에 많이 활용된다. 안경 방식의 HMD는 몰 입감 높은 체험 환경을 제시하는 이점이 있고, 여기에 현실적인 상호작용을 사용자에게 제공하기 위하여 시선, 손 동작 추적을 결합한 방식의 새로운 디스플레이 방식 및 상호작용을 제안하는 연구들이 수행되었다 [7, 14]. 이외에도 공간감과 함께 다양한행 동을 수행할 수 있는 프로젝션 방식을 활용하여 빔 프로젝터를 통해 증강현실 교육 체험 환경을 제시하는 연구 [15]들이 진행되 기도 하였다.

증강현실에서는 사용자로 하여금 어떠한 경험을 제공하느냐 에 따라 다양한 목적의 콘텐츠들이 제작되고, 이를 지원하는 기 술들이 새롭게 연구되고 있다. 정보 제공을 목적으로 3D 지도를 활용하여 실시간 증강현실 건물 안내 시스템을 제작 [3]하고, 공 공지하시설물 관리를 위한 시스템을 개발 [16]하거나 단순한 부 동산 어플리케이션을 제작 [17]하는 등의 연구들이 진행되었다. 이외에도 교육, 군사 훈련, 마케팅, 인테리어, 재활 의료 등 다양한 산업 분야에서 활용 가능한 새로운 아이디어를 제시하는 증강현실 콘텐츠들이 제작되고 있다. 관광지의 콘텐츠를 토대로 증강현 실 기술을 활용한 교육용 콘텐츠 [18], 분대전투 공격 시나리오를 기반으로 증강현실 기술을 적용한 군사 훈련 시스템 [19]을 제작 하는 연구들이있다. 또한, Rauschnabel et al. [20]은 마케팅의 관 점에서 소비자가 증강현실 어플리케이션의 이점과 증강 품질을 인식하고 평가하는 방법과 이 평가가 브랜드 태도의 후속 변화를 어떻게 이끌어 내는지 이론화하는 프레임 워크를 제시하고경험 적으로 테스트하는 연구들을 진행하기도 하였다. 이외에도 건축 디자인 작업에서 건축가를 위한 환경을 제공하고 증강현실 환경을 통한 협업으로 편리한 작업을 수행할 수 있는 응용 연구 [21], 자폐증 스펙트럼 장애 (Autism Spectrum Disorder, ASD)를 가진 청년들이 면접 연습을 할 수 있는 증강현실 응용 프로그램을 제작 하는 연구 [22]들이 진행되었다. 이러한 응용 연구들은 블루투스 통신을 이용하여 실시간 네트워크 증강현실 콘텐츠로 발전시키 거나 딥 러닝을 증강현실 콘텐츠 제작에 활용하는 연구들도 발전 되고 있다 [23, 24].

최근에는 증강현실 환경을 체험하는 사용자의 심리적, 사회적 요인을 분석하는 연구들도 진행되고 있다. Conely et al. [25]은 증강현실 학습 환경 Mantaray AR을 제안하고, 이를 토대로 대학생의 학습 결과에 미치는 영향, 협업 및 참여에 대한 인식을 조사 및 분석하는 연구들을 진행하였다. 그리고 Miller et al. [26]은 증강현실이 사회적 상호작용에 미치는 영향을 참가자의 작업, 비 언어적 행동, 증강현실 HMD 착용 등으로 구분하여 체계적으로 분석하였다.

이처럼 증강현실은 다양한 산업 분야와의융합을 통해 새로운 콘텐츠들이 제작 됨은 물론 이 과정에서 다양한 응용 기술들이 연구되고 있는 상황이다. 본 연구는 이러한 관점에서 컴퓨터 비전 기반의 증강현실과 디지털 패션 분야와의융합을 통한 콘텐츠 제작 공정과 함께 마케팅 중심의 기존 증강현실 응용 사례와는다른 접근방법으로 패션 디렉터, 디자이너 등 실무 사용자의 관점에서 활용 가능한 아이디어를 제시하고자 한다.

3. 증강현실 기반 디지털 패션 콘텐츠

3.1 개요

증강현실을 활용한 디지털 패션 콘텐츠는 잡지를 활용한 가상 패 션 아이템, 의상 정보 전달, 가상 드레스 룸 또는 패션 전시 등 마케팅을 목적으로 하는 콘텐츠들이 주로 제작되고 있다. 하지만 본 연구는 실무 사용자의 패션 디렉팅 및 디자인 과정에서 작업자 간 효과적의의사소통과 몰입감 높은 정보 전달이 가능하도록 디지털 패션 콘텐츠에 증강현실 기술을 적용한다. 이러한 과정에 서사실적인 가상 패션 아이템 또는 의상을 토대로 정확한 정보 전달을 위해 3DS MAX, MAYA와 같은 그래픽 소프트웨어보다 패션 콘텐츠에 최적화된 소프트웨어를 활용한다.

따라서, 본 연구는 실시간 대화형 콘텐츠 저작 도구인 유니티 엔진 [27] 개발 환경에서 다양한 의상, 패션 아이템 등을 디자인 할 수 있는 패션 기업에 특화된 디자인 솔루션인 CLO 3D 소프 트웨어와 증강현실 소프트웨어 개발 도구인 vuforia를 활용하여 콘텐츠를 제작하는 공정을 정의한다. 이를 토대로 실무 사용자간 의사소통에 활용되는 작업지시서에 증강현실 기술을 적용하여 정확하고 입체적인 정보 전달이 가능한 새로운 접근 방식의 콘 텐츠를 제작한다. Figure 2는 본 연구에서 제안하는 제작 공정을 정리한 것으로, 유니티 엔진 환경에서 CLO 3D를 활용하여 콘 텐츠를 제작하는데 필요한 가상 패션 모델을 제작하는 과정에서 vuforia 증강현실 개발도구를 통한 콘텐츠 제작의 흐름으로 진행 된다.

jkcgs-26-3-21-g2
Figure 2. The proposed digital fashion content production pipeline.
Download Original Figure
3.2 CLO 3D를 활용한 가상 패션 모델 제작

CLO 3D 소프트웨어 [11]는 원단의 재질, 물리적 특성을 구현해 다양한 의상 패턴을 실물처럼 그래픽 화면상에서 제작해 볼 수 있도록 돕는 가상 의류 소프트웨어로, 패턴사들이 실시간 수정 및 드레이핑 작업을 하고 신속하게 패턴 오류를 점검할 수 있도 록 돕는다. 의상은 물론 신발, 가방, 장갑 등 패션 아이템 제작이 가능하여 국내 외 여러 의류 기업들이 활용하고 있다. 사실적인 가상 의류 디자인과 아바타 기능을 활용한 의상 및 패션 아이템 피팅 등 CLO 3D를 통해 제작되는 3D 가상 의류 기술은 오프라인 매장을 가상으로 옮겨와 직접 쇼핑하는 것과 같은 경험을 제공하 는 가상현실 스토어, 의류 생산 또는 판매 과정에서 클라우드를 기반으로 텍스트 중심이 아닌 3D 그래픽으로 표현되는 의상 데이터베이스를 구축하는 등 활용 방법과 분야가 다양하게지고 있는 상황이다.

디지털 패션 콘텐츠를 제작함에 있어서 그래픽 리소스 제작에 활용되는 3DS MAX, MAYA와 같은 디자인 솔루션 보다는 CLO 3D를 활용하는 것이 패션 디자이너, 제작자의 관점에서 더욱 중 요하고 필요할 것이다. 따라서 본 연구는 증강현실기반 디지털 패션 콘텐츠를 제작하는 과정에서 CLOD 3D를 활용하여 가상 모델을 제작하는 방법과과정을 보여준다.

Figure 3은 CLO 3D 소프트웨어의 사용자인터페이스로 라이 브러리, 2D/3D 뷰, 속성 등의 화면으로 구성된다. 본 연구는 증강현실 기술을 활용한 디지털 패션 콘텐츠 제작을 위해 2D 패 턴으로부터 3D 의상을 제작하고, 아바타 기능을 활용하여 가상 캐릭터에 제작된 의상을 다양한 자세로 피팅하여 가상 모델을 생성하고 이를 유니티 엔진 개발환경에서 활용할 수 있는 파일 포멧으로 내보내는 과정을 중심으로 정리한다.

jkcgs-26-3-21-g3
Figure 3: Example of a virtual clothing production process using CLO 3D: (a) 2D pattern work, (b) simulation using an avatar.
Download Original Figure

가상 의상을 제작하는 기본 과정으로 우선, 2D 패턴 윈도우를 활용하여 패턴 제도, 재봉선 설정, 원단의 텍스쳐 편집 등의 일 련의 과정을 수행한다. 2D 패턴 작업을 위한 재봉선 수정, 원단 추가 및 색상, 재질 설정 등은 오프라인 상에서 수행되는 작업과 크게 다르지 않다. 또한, 패션 디자인과 관련된 기본 지식이 없는 일반 사용자들도 CLO 3D 소프트웨어 사용법과 숙지한다면 간단한 의상은 쉽게 제작할 수 있는 기능 및 환경을 제공하고 있다. Figure 3은 CLO 3D를 활용하여 2D 패턴 작업과정을 통해 제작 된 의상과 이를 아바타를 통해 착장하여 시뮬레이션 한 결과를 나타낸 것이다. CLO 3D는 내부적으로 옷감 시뮬레이션 (cloth simulation) 기능을 포함하고 있어 제작한 의상을 아바타에 자연 스럽게 입혀 표현하는 것이 가능한다. 또한, 수천 개의 실제 체형 데이터를 기반으로 하고 있는 아바타 편집기를 통해 성별, 체격, 헤어 등 사용자가 편집 속성을 통해 수정이 가능함은 물론 입력 정보 외에 다른 부위도 실제 데이터에 근거한 사실적인 체형으로 맞춰져 가상 의류 제작은 물론 피팅 과정 또한 사실적으로 표현이 가능하다.

제작된 가상 의상을 착용한 아바타 캐릭터를 하나의 모델로 콘텐츠에 활용하고자 할 경우, T 포즈나 정자세가 아닌 다양한 자세에서 의상을 착용해야 한다. CLO 3D는 관절정보를 갖고 있 는 아바타와 관절정보를 활용하여 사전에 작업한 자세 동작들을 활용하여 변경할 수 있다. Figure 4는 CLO 3D에서 제공하는 다양한 자세들을 적용하여 제작된 가상 의상을 표현한 결과와 이를 유니티 엔진에서 사용 가능한 파일 포멧 (.fbx)로 변환하여 저장 한 다음 확인한 결과이다. CLO 3D 에서 제작된 의상 모델만 사용하거나 아바타에 착용한 캐릭터 모델 전체를 활용할 수 있다. 또한, 변환 과정에서 모델을 분류해서 저장할 경우, 특정 모델 (상의, 하의, 신발 등)만 선택하여 활성화 또는 비활성화하는 것 역시 가능하다.

jkcgs-26-3-21-g4
Figure 4. Character model with various postures and result in Unity engine: (a) avatar of various postures, (b) compatibility with Unity engine.
Download Original Figure
3.3 Vuforia를 활용한 증강현실 콘텐츠 개발
3.3.1 Vuforia 개발 도구구성

Vuforia는 증강현실 어플리케이션을 제작하는데 활용되는 모바일 플랫폼 전용 증강현실 소프트웨어 개발 도구이다 [6]. 이는 컴퓨터 비전 기술을 사용하여 이미지, 3D 객체 타깃을 실시간으로 인식하고 추적하는 기술을 지원한다. vuforia 개발 도구는 안드로 이드, iOS, 유니버셜 윈도우 등 독립적인 플랫폼은 물론 유니티 엔진에서 모바일 및 홀로렌즈 장비를 활용한 개발 환경까지 제 공한다. 최근에는 개발도구를 별도로 다운받아 설치하는 방식이 아니라 유니티 엔진 내부에서 하나의 기능으로 제공하고 있어 개발자들이 쉽게 활용할 수 있는 이점이 있다. Figure 5는 유니티 엔진에서 vuforia 개발도구를 활성화하고 활용하는 과정을 나타 낸 것이다. 본 연구는 실내에서도 쉽게 접근 가능한 모바일 기반의 증강현실 콘텐츠 제작을 목적으로 유니티 엔진 개발 환경에서 컴퓨터 비전 기술을 기반으로 한 vuforia 개발도구를 활용한다.

jkcgs-26-3-21-g5
Figure 5. Vuforia development environment in the Unity engine.
Download Original Figure
3.3.2 유니티 엔진에서의 vuforia 개발 환경

Vuforia 개발도구는 컴퓨터 비전 기술을 기반으로 마커기반 추적 방법과 무마커 추적 방법을 제공한다. vuforia에서 사용하는 마커는 흑백 도형의 단순한 패턴으로 구성된 마커가 아니라 이미지 또는 객체를 활용하여 정보 트리거 역할을 한다. 그리고 기기에 연결된 카메라가 마커를 현실 세계에서 인식하면 카메라 뷰에 가상 콘텐츠가 마커의 월드 공간 위에 표시되는 방식이다. vuforia 에서 제공하는 마커로는 한장이미지, 직육면체 객체 (6장의 이미 지), 실린더 객체 그리고 3차원 객체가 있다. QR 코드처럼 단순한 한 장의 이미지 위에 가상 객체를 합성하는 기존의 증강현실 콘텐츠는 물론 복잡한 3D 객체를 인식하여 합성함으로써 보다 복잡한 증강현실 세계를 생성할 수 있는 특징을 가진다. 무마커 추적을 사용하는 방식은 GPS, 가속 센서 등과 카메라로부터 촬영 된 현실 세계 이미지를 분석하여 공간정보를 계산하는 등 복잡한 영상처리 알고리즘에 의존하여 가상 객체를 합성한다.

본 연구는 패션 디자인의 관점에서 쉬운 접근과 활용성을위해 이미지 타깃을 활용한 증강현실 콘텐츠 제작 공정을 정의한다. 이미지 타깃은 마커 기반 추적에 사용되는 특정 마커 타입으로 콘텐츠에 수동으로 등록해야 하고, 가상 객체를 표시하는 트리 거 역할을 하는 이미지이다. 이미지 타깃은윤곽선이 복잡하면서 독특한 모양이 포함된 이미지를 사용해야 이미지를 더 정확히 인식할 수 있다. Figure 6은 vuforia 개발자 사이트 [6]에 마커를 위한 이미지 타깃을 등록하고, 유니티 엔진 개발환경에서 이미지 타깃을 트리거로 하여 가상 객체를 합성하기 위한 설정 과정을 나타낸 것이다. 이미지 타깃과 가상 객체 사이의 계층 관계를 설 정하면, 카메라로부터 이미지 타깃이인식되었을 때 자식 관계인 가상 객체가 이미지 타깃을 월드 공간상 위치로 하여 자연스럽게 합성되는 것을 확인할 수 있다.

jkcgs-26-3-21-g6
Figure 6: Contents production process using vuforia development kits: (a) image target registration through vuforia developer portal, (b) image target and virtual object setup process in Unity engine, (c) generated AR scene.
Download Original Figure

CLO 3D로부터 제작된 가상 의류 모델을 활용하여 상황에 적절한 이미지 타깃을 통해 증강현실 장면을 생성하고 대화형 기능을 추가하여 패션 콘텐츠를 제작한다. 대화형 기능의 경우 모바일 플랫폼의 특성상 스크린 터치 또는 버튼 등의 사용자인터페이스 (UI)를 통한 입력처리 방식을 통해 유니티 엔진의 스크립트를 활 용하여 구현한다.

3.4 디지털 패션 콘텐츠 제작

본 연구에서 제안하는 디지털 패션 콘텐츠는 마케팅 또는 전시 중심의 기존의 콘텐츠와는 다른 활용 방안으로, 패션 디자이너, 디렉터 등이 실무적 작업에 활용할 수 있는 새로운 접근 방식으로 작업지시서를 활용한 증강현실 콘텐츠를 제작한다. 작업지시서는 디자이너가 디자인한 의류를 실제로 제작하기 위하여 생산자 및 공장 등에 전달하는 양식으로 치수(스펙), 부자재, 도식화, 봉재 및 작업 사항 등을 자세히 기입한다. 작업지시서상의 내용을 토대로 샘플 의류를 생산하게 되는데, 이 과정에서 디자이너와 생산자의 의사소통에서의 문제점들이 발생하게 된다. 텍스트와 이미지 중심으로 표현되는 작업지시서 문서만으로는 디자이너가 궁극적으로 원하는 의류의 결과물을 표현하기 어렵기 때문이다. 2차원으로 도식화된 작업지시서 상의 내용 만으로 디자이너의 디자인과 생각 등을 완벽하게 표현하기에는 한계가 존재하고, 이로 인하여 디자이너와 생산자 사이의 해석 차이가 발생하여 결과적으로 의도와 다른 결과물이 나오거나 여러번의 샘플 수정 과정을 반복해야 하는 문제가 발생하게 된다.

본 연구는 기존의작업지시서를 이미지 타깃으로 한 증강현실 콘텐츠를 함께 제공함으로써 3차원 가상 의상 모델을 직관적인 구조에서 확인할 수 있는 기능을 제공하여 이러한 한계를 극복 하고 정확한 정보전달을 위한 새로운 도구로 활용하고자 한다. 제안하는 증강현실 기본 콘텐츠는 그래픽 처리를 위한 고사양의 하드웨어와 별도의 소프트웨어 구입 비용이 발생하는 CLOD 3D 를 직접 사용할 경우에 발생하는 경제적 문제점 및 하드웨어에 의존적인 제한된 작업 환경, 복잡한 기능을 갖춘 소프트웨어를 새롭게 학습해야하는 어려움 또는 불편함 등의 문제를 해결하기 위한하나의 대안으로 모바일 플랫폼을 활용하여 누구나 어디서 든 쉽고 빠르게 접근이 가능하고, 직관적인 인터페이스를 통해 간단한 구조로 원하는 정보를 확인할 수 있도록 실무자의 관점에 서설계하였다.

Figure 7은 작업지시서를 활용한 증강현실 콘텐츠 제작의 예 를 보여준것으로, 작업지시서를 통해 궁극적으로 생산하고자 하 는 의상 모델을 CLO 3D를 통해 디자인하고, 이를 증강현실 기 술을 통해 현실 세계와 합성하여 표현함으로써 아바타를 통해 착용감, 세밀한 디자인적 표현 등을 정확하게 전달한다.

jkcgs-26-3-21-g7
Figure 7: Example of AR contents production using work orders: (a) work order sample, (b) application example of AR techniques.
Download Original Figure

아바타 편집기를 통해 제작하고자 하는 의상의 가장 적합한 체격, 헤어 등을 편집하고 다양한 자세들을 바꿔가며 실제 사람이 착용하였을때의 느낌이 정확하게 전달할 수 있도록 한다. 또한, 모바일 터치를 통한 줌인/아웃 기능을 추가하여아바타의 크기를 조정할 수 있도록 한다. 이를 통해 실제 사람과 유사한 크기에서의 정보전달은 물론 작은 크기에서 좀 더 세밀한 관찰이 가능할 수 있도록 구현한다.

4. 실험 및 분석

제안하는 CLO 3D와 vuforia 개발 도구를 활용한 대화식 구조의 증강현실 콘텐츠 제작 공정과 이를 검증하기 위한 새로운 접근 방식의 작업지시서를 활용한 콘텐츠는 Unity 3D 2019.2.3f1(64-bit) 엔진 환경에서 CLO 3D 5.2, vuforia engine 8.5.9를 활용하여 설계 및 제작하였다. 콘텐츠 제작 및 실험에 사용된 PC 환경은 Intel Core i7-6700, 16GB RAM, Geforce GTX 1080GPU를 탑재 하고 있다. 또한, Galaxy Note 9 모바일 기기를 활용하여 제작된 콘텐츠를 구동하여 실험하였다.

Figure 8은 모바일 기기를 활용하여 제작된 콘텐츠를 동작하 는 과정을 나타낸 것이다. 카메라를 통해 작업지시서를 촬영하고 인식된 이미지를 토대로 작업지시서에 대응되는 가상 의류를 합성하여 보여주게 된다. 그리고 사용자가 원하는 정보를 대화식 구조에서 실시간으로 확인하기 위하여 버튼으로 구성된 UI를 함께 제공한다. 이러한 일련의 과정을 통해 빠르고 정확한 정보전달이 가능한 작업 환경을 제공하도록 하였다.

jkcgs-26-3-21-g8
Figure 8: Examples of digital fashion content production and execution process using CLO 3D and vuforia.
Download Original Figure

5. 결론

본 연구는 가상 의류 소프트웨어인 CLO 3D와 모바일 플랫폼 증강현실 개발 도구인 vuforia를 활용하여 대화식 구조의 높은 몰입 감과 정확한 정보전달이 가능한 디지털 패션 콘텐츠를 제작하기 위한 공정을 정의한다. 이를 위해 CLO 3D를 활용하여 가상 패션 모델 제작 방법을 의상 제작, 아바타 착용 및 자세 적용을 통한 캐릭터 설정의일련의 과정으로 요약하였다. 그리고 유니티 엔진 개발 환경에서 vuforia 개발도구를 통해 콘텐츠를 제작하기 위한 과정을 AR 카메라, 이미지 타깃 및 가상 모델 적용 등의 순서로 정리하였다. 이러한 제작 공정의 활용을 구체적으로 확인하기 위해 실제 증강현실 콘텐츠를 제작하였다. 제작된 콘텐츠는 마케팅 중심의 기존 디지털 패션 콘텐츠 범위를 넘어 실무 사용자의 패션 디자인 작업에서의 활용을위하여 작업지시서를 활용한 증강 현실 콘텐츠를 제작하였다. 실제 현장에서 사용되는 작업지시서 양식을 참고하여 최대한 유사하게 표현할 수 있도록 설계하였고, 모바일 기기에 빌드하여 디자이너의의도에 맞게 동작함을 확인 하였다. 다만, 제작된 콘텐츠를 패션 업종에 종사하는 실무 사용자를 대상으로 한 설문 실험까지는 진행하지 못한 만큼 추후에 활용가능성 등을 체계적으로 분석할 수 있는 사용자 평가 실험을 진행할 계획이다.

감사의 글

이 논문은 정부(과학기술정보통신부)의 재원으로 한국연구재단의 지원을 받아 수행된 연구임(No. NRF-2020R1F1A1063442)

References

[1].

I. E. Sutherland, “A head-mounted three dimensional display,” in Proceedings of the December 9-11, 1968, Fall Joint Computer Conference, Part I, ser. AFIPS ’68 (Fall, part I). New York, NY, USA: Association for Computing Machinery, 1968, p. 757–764. [Online]. Available:

[2].

G. S. V. Itzstein, M. Billinghurst, R. T. Smith, and B. H. Thomas, Augmented Reality Entertainment: Taking Gaming Out of the Box, 01 2017, pp. 1–9.

[3].

S.-J. Kim, Y.-M. Bae, and Y.-J. Choi, “Design and implementation of real-time augmented reality building information system combined with 3d map,” Journal of the Korea Computer Graphics Society, vol. 24, no. 4, pp. 39–54, 2018. [On-line]. Available:

[4].

Y. Lee and J. Choi, “Tideland animal ar: Superimposing 3d animal models to user defined targets for augmented reality game,” International Journal of Multimedia and Ubiquitous Engineering, vol. 9, pp. 343–348, 04 2014.

[5].

Niantic, “Pokémon go,” Niantic, Inc., 2019. [Online]. Available: https://play.google.com/store/apps/details?id=com.nianticlabs.pokemongo

[6].

PTC, “Vuforia engine,” PTC, Inc., 2020. [Online]. Available: https://developer.vuforia.com/

[7].

J. Kim, Y. Jeong, M. Stengel, K. Aks¸it, R. Albert, B. Boudaoud, T. Greer, J. Kim, W. Lopes, Z. Majercik, P. Shirley, J. Spjut, M. McGuire, and D. Luebke, “Foveated ar: Dynamically-foveated augmented reality display,” ACM Trans. Graph., vol. 38, no. 4, July 2019. [Online]. Available:

[8].

S. Rho, J. Lee, J.-I. Hwang, and J. Kim, “3d stereoscopic augmented reality with a monocular camera,” Journal of the Korea Computer Graphics Society, vol. 22, no. 3, pp. 11–19, 2016. [Online]. Available: http://dx.doi.org/10.15701/kcgs.2016.22.3.11

[9].

C. Lu, J. Park, and J. Park, “An augmented reality solution for improving marker recognition and solving human occlusion,” Journal of Korea Game Society, vol. 20, no. 2, pp. 183–192, 04 2020.

[10].

Y.-J. Cho, J.-H. Kim, J.-H. Oh, and I.-Y. Chung, “Development of zoo tourism application anisearch using augmented reality technology,” Journal of Digital Contents Society, vol. 19, no. 10, pp. 1833–1841, 10 2018.

[11].

CLO-Virtual-Fashion, “Clo 3d fashion design software,” CLO Virtual Fashion, 2020. [Online]. Available: https://www.clo3d.com/

[12].

P. Milgram, H. Takemura, A. Utsumi, and F. Kishino, “Augmented reality: A class of displays on the reality-virtuality continuum,” Telemanipulator and Telepresence Technologies, vol. 2351, pp. 282–292, 01 1994.

[13].

R. T. Azuma, “A survey of augmented reality,” Presence: Teleoper. Virtual Environ., vol. 6, no. 4, p. 355–385, Aug. 1997. [Online]. Available:

[14].

K. H. Kim and J. M. Yu, “Development of a remote augmented reality board game wearing hmd based on hand motion tracking,” Journal of Digital Contents Society, vol. 20, no. 12, pp. 2583–2589, 12 2019.

[15].

I. Koh, H. Lee, D. Lee, S. Ahn, and S. Choi, “Table manners education system based on projected augmented reality,” in Proceedings of HCIK 2019. The HCI Society of Korea, 2019, p. 52–56.

[16].

H.-J. Lee, J.-S. Kim, H.-S. Seo, and Y.-S. Cho, “Development of location based augmented reality system for public underground facility management,” Journal of Digital Contents Society, vol. 19, no. 2, pp. 237–243, 2 2018.

[17].

T. Shin, W. Jin, S. Lee, Y. Choi, and D. Yoon, “Real estate applications based on ar marker detection technology,” in Proceedings of Korea Computer Graphics Society 2017. Korea Computer Graphics Society, 2017, p. 149–150.

[18].

S. J. Park, Y. Jeong, S. J. Kim, and M. R. Jung, “Ar strip: A study of augmented reality education contents on tourist sight,” in Proceedings of HCIK 2018. The HCI Society of Korea, 2018, p. 805–807.

[19].

Y. Park, “Military training system using augmented reality technology based on battle of squad attack scenario,” in Proceedings of KSC 2018. The Korean Institute of Information Scientists and Engineers, 2019, p. 1242–1244.

[20].

P. A. Rauschnabel, R. Felix, and C. Hinsch, “Augmented reality marketing: How mobile ar-apps can improve brands through inspiration,” Journal of Retailing and Consumer Services, vol. 49, pp. 43 – 53, 2019.

[21].

V. T. Phan and S. Y. Choo, “Interior design in augmented reality environment,” International Journal of Computer Applications, vol. 5, pp. 16–21, 2010.

[22].

A. Hartholt, S. Mozgai, E. Fast, M. Liewer, A. Reilly, W. Whitcup, and A. S. Rizzo, “Virtual humans in augmented reality: A first step towards real-world embedded virtual roleplayers,” in Proceedings of the 7th International Conference on Human-Agent Interaction, ser. HAI ’19. New York, NY, USA: Association for Computing Machinery, 2019, p. 205–207. [Online]. Available:

[23].

H.-I. Jung and H.-W. Jung, “Real-time network augmented reality development utilizing the bluetooth networking,” Journal of Korea Game Society, vol. 18, no. 5, pp. 15–22, 10 2018.

[24].

J. Choe, J. Lee, D. Kang, and S. Seo, “Ar based beverage information visualization and sharing system using deep learning,” Journal of Digital Contents Society, vol. 21, no. 3, pp. 445–452, 3 2020.

[25].

Q. Conley, R. K. Atkinson, F. Nguyen, and B. C. Nelson, “Mantarayar: Leveraging augmented reality to teach probability and sampling,” Computers & Education, vol. 153, p. 103895, 2020.

[26].

M. R. Miller, H. Jun, F. Herrera, J. Yu Villa, G. Welch, and J. N. Bailenson, “Social interaction in augmented reality,” PLOS ONE, vol. 14, no. 5, pp. 1–26, 05 2019. [Online]. Available:

[27].

Unity-Technologies, “Unity,” Unity Technologies, 2020. [Online]. Available: https://unity.com/

<저자소개>

강 태 석

jkcgs-26-3-21-g9

  • 2015년~현재 한성대학교 컴퓨터공학부 학사과정

  • 관심분야: 가상현실, 증강현실, 실감형 콘텐츠 등

이 동 연

jkcgs-26-3-21-g10

  • 2014년~현재 한성대학교 글로벌패션산업학부 학사과정

  • 관심분야: 패션디자인, 패션콘텐츠, 증강현실 등

김 진 모

jkcgs-26-3-21-g11

  • 2006년 동국대학교 멀티미디어학과 학사

  • 2008년 동국대학교 영상대학원 멀티미디어학과 석사

  • 2012년 동국대학교 영상대학원 멀티미디어학과 박사

  • 2012년~2014년 동국대학교 영상문화콘텐츠연구원 전임연구원

  • 2014년~2019년 부산가톨릭대학교 소프트웨어학과 조교수

  • 2019년~현재 한성대학교 컴퓨터공학부 조교수

  • 관심분야: 컴퓨터그래픽스, 가상현실, 증강현실, 게임 공학 등