Journal of the Korea Computer Graphics Society
The Korea Computer Graphics Society
Article

비선형 강성 모델을위한 드레이프 시뮬레이션 결과 추정

심응준1https://orcid.org/0009-0006-5974-1542, 주은정1https://orcid.org/0000-0002-4549-9277, 최명걸2,*https://orcid.org/0000-0002-6089-9455
Eungjune Shim1https://orcid.org/0009-0006-5974-1542, Eunjung Ju1https://orcid.org/0000-0002-4549-9277, Myung Geol Choi2,*https://orcid.org/0000-0002-6089-9455
1(주)클로버추얼패션
2가톨릭대학교
1CLO Virtual Fashion Inc.,
2The Catholic University of Korea
*corresponding author: Myung Geol Choi/ The Catholic University of Korea (mgchoi@catholic.ac.kr)

© Copyright 2023 Korea Computer Graphics Society. This is an Open-Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (http://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

Received: Jun 17, 2023; Revised: Jun 30, 2023; Accepted: Jul 05, 2023

Published Online: Jul 25, 2023

요약

가상 시뮬레이션을이용한 의류 디자인 개발에서는 가상과 실제의 차이가 최소화되어야 한다. 가상 의상과 실제 의상의유사 성을 높이는 데에 가장 기본이 되는 작업은 의상 제작에 사용될 옷감의 물성을 최대한 유사하게 표현할 수 있는 시뮬레이션 파라미터를 찾는 것이다. 시뮬레이션 파라미터 최적화 절차에는 전문가의 수작업으로 이루어지는 튜닝 과정이 포함되는데, 이 작업은 높은 전문성과 많은 시간이 요구된다. 특히 조정된 시뮬레이션 파라미터를 적용한 결과를 다시 확인하기 위해 시뮬레이션을 반복적으로 실행할 때 많은 시간이 소요된다. 최근 이 문제를 해결하기 위해 파라미터 튜닝에 주로 사용되는 드레이프 테스트 시뮬레이션 결과를 빠르게 추정하는 인공신경망 학습 모델이 제안되었다. 하지만 기존 연구에서는 비교적 간단한 선형 강성 모델을 사용하였으며 드레이프 시뮬레이션 전체를 추정하는 대신 일부만 추정하고 나머지는 보간하는 방 식을 사용하였다. 실제 의류 디자인 개발 과정에서는 주로 비선형 강성 모델이 적용된 시뮬레이터가 사용되지만, 이에 대한 연구는 아직 부족하다. 본 논문에서는 비선형 강성 모델을 대상으로 드레이프 시뮬레이션 결과를 추정하기 위한 새로운 학습 모델을 제안한다. 본 연구에서 제안된 학습 모델은 시뮬레이션 결과인 고해상도 메시 모델 전체를 추정한다. 제시하는 방법의 성능을 검증하기 위해 세 가지 드레이프 테스트 방식을 대상으로 실험을 진행하여 추정정확도를 평가한다.

Abstract

In the development of clothing design through virtual simulation, it is essential to minimize the differences between the virtual and the real world as much as possible. The most critical task to enhance the similarity between virtual and real garments is to find simulation parameters that can closely emulate the physical properties of the actual fabric in use. The simulation parameter optimization process requires manual tuning by experts, demanding high expertise and a significant amount of time. Especially, considerable time is consumed in repeatedly running simulations to check the results of applying the tuned simulation parameters. Recently, to tackle this issue, artificial neural network learning models have been proposed that swiftly estimate the results of drape test simulations, which are predominantly used for parameter tuning. In these earlier studies, relatively simple linear stiffness models were used, and instead of estimating the entirety of the drape mesh, they estimated only a portion of the mesh and interpolated the rest. However, there is still a scarcity of research on non-linear stiffness models, which are commonly used in actual garment design. In this paper, we propose a learning model for estimating the results of drape simulations for nonlinear stiffness models. Our learning model estimates the full high-resolution mesh model of drape. To validate the performance of the proposed method, experiments were conducted using three different drape test methods, demonstrating high accuracy in estimation.

Keywords: 옷감; 드레이프; 시뮬레이션; 회귀분석기; 오토인코더; 인공신경망; 학습모델
Keywords: cloth; drape; simulation; regression model; autoencoder; neural network; learning model

1 서론

의류 산업 분야에서는 효율적인 의상 디자인 개발을 위해 가상 의상 시뮬레이션 기술이 널리 사용되고 있다. 가상 의상 디자인 개발의 첫 번째 단계는 사용하고자 하는 실제 옷감의 물리적 특 성을 최대한 유사하게 재현하는 최적의 시뮬레이션 파라미터를 찾는 것이다. 그러나 옷감 시뮬레이터의 시뮬레이션 파라미터 최 적화 과정은 쉽지 않는 작업으로 여겨지고 있다. 자동으로 시뮬레 이션 파라미터를 찾는 기술의 사용 결과는 디자인 전문가들이 요 구하는 정확도에 미치지 못하기 때문에, 전문가들은 시뮬레이션 파라미터를 수동으로 조정하는 파라미터 튜닝을 수행해야 한다. 예를 들어 실물 옷감으로 쿠식 드레이프 테스트 [1]를 시행하고 그와 동일한 드레이프 형태를 시뮬레이션으로 얻기 위해 시뮬레 이션 파라미터를 조정하는 것이다. 이러한 파라미터 튜닝은 높은 전문성과 많은 시간이 요구되는 작업이다. 드레이프 시뮬레이션 결과의 변화와 시뮬레이션 파라미터 사이의 관계가 직관적이지 않으며, 경험이 많은 전문가들조차도 예측하기 어렵기 때문이다.

시뮬레이션 파라미터 튜닝 과정에서 특히 많은 시간 소요가 발생하는 부분은 파라미터를 조정한 후 시뮬레이션 결과를 확인 하는 과정이다. 튜닝을위한 옷감 시뮬레이션에서는 가능한 옷감 메시 모델의 정점 해상도를 높이고 시뮬레이션 시간 간격을 줄여 최상의 정확도로 시뮬레이션하기 때문에 간단한 드레이핑 시뮬 레이션에도 많게는 수십 초의 시뮬레이션 시간이 소요된다. 튜닝 과정에서는 이러한 시뮬레이션 과정을 수십번 혹은 수백번 반복 적으로 실행해야 하므로 한 번의 튜닝 작업을 완료하는 데 수십 분에서 수시간의 시간이 걸린다.

최근 이러한 문제를 해결하기 위해 시뮬레이션 파라미터와 드 레이프 테스트의 시뮬레이션 결과 사이의 상관관계를 학습하는 인공신경망 학습 모델이 제안되었다 [2]. 이러한 학습 모델은 주 어진 시뮬레이션 파라미터에 대한 드레이프 테스트의 결과를 시 뮬레이션 과정을 거치지 않고 추정할 수 있게 한다. 이를 이용 하면 사용자는 빠르게 광범위한 시뮬레이션 파라미터 공간을 탐 색하면서 드레이프 테스트 결과를 확인할 수 있으며 결과적으로 파라미터 튜닝 시간을 획기적으로 줄일 수 있다. 하지만 기존 연 구에서는 비교적 간단한 선형 강성 모델을 사용하였으며, 보다 정교한 시뮬레이션을위해 사용되는 비선형 강성 모델에 대한 연 구는 아직 부족하다.

본 논문에서는 비선형 강성 모델을위한 드레이프 시뮬레이션 결과 추정을 위한 학습 모델을 제안한다. 비선형 강성 모델은 파 라미터 수가 많고 각 파라미터의 영향력이 서로 다르기 때문에 파라미터 변화와 시뮬레이션 결과 변화 사이의 관계가 더욱 복잡 하다. 특히 서로 다른 시뮬레이션 파라미터로부터 거의유사한 드 레이프 테스트 결과가 도출되는 경우가 많기 때문에 학습이 쉽지 않다. 또한 드레이프 메시의 정점 수가 많아질수록 인공신경망의 학습이 어려워지는 문제가 있다. 기존 연구에서는 이러한 문제를 해결하기 위해 드레이프 메시의 테두리 부분만 추정하고 나머지 는 보간하는 방식을 사용하였다. 하지만 이러한 방식은 드레이프 테스트 결과의 정확도를 떨어뜨리는 원인이 될 수 있다. 본 논 문에서는 이러한 문제를 해결하기 위해 시뮬레이션 파라미터와 드레이프 메시 사이를 직접 학습하는 것이 아니라, 먼저 드레이 프 테스트 결과를 오토인코더 모델로 인코딩하여 특징 벡터를 추 출한 후, 시뮬레이션 파라미터와 특징 벡터의 관계를 학습한다. 새로운 시뮬레이션 파라미터가 주어지면 특징 벡터를 추정한 후 디코딩하여 드레이프 메시 전체를 복원한다. 그 결과 다양한 드 레이프 테스트에 대한 시뮬레이션 결과를 높은 정확도로 추정할 수 있다.

본 연구에서 제시하는 방법을 검증하기 위해, 쿠식 드레이프를 포함한 세 가지 다른 형태의 드레이프 테스트를 대상으로 실험을 진행하고 정량적정성적으로 결과를 평가한다.

2 연구 배경

가상 의상 디자인 소프트웨어는 실제 의상 제품의 프로토타입을 개발하는 데 널리 사용되고 있다. 가상 시뮬레이션으로 제작된 의류의 결과물은 실제 제품과 최대한 비슷해야 하며, 이를 위해 서는 먼저 가상 옷감의 물리적 특성이 실제 옷감과 최대한 비슷해 야 한다. 시뮬레이터가 정해지고 나면 가상 옷감의 물리적 특성은 온전히 시뮬레이션 파라미터에 의해서만 결정된다. 따라서, 최종 의상 제작에 사용될 옷감의 물리적 특성을 재현하기 위한 최적 의 시뮬레이션 파라미터를 찾는 것은 가상 의류 제작에서 가장 중요한 문제 중 하나로 여겨진다.

2.1 시뮬레이션 파라미터 측정

카와바타 추정 시스템 (KES)은 옷감의 다양한 물리적 특성을 측 정하기 위해 사용되는 가장 대표적인 산업용 장비이다 [3]. 산업 용 측정 장비는 높은 정확도를 보장하지만, 일반인들이 사용하기 에는 어렵고 복잡하며 비용이 많이 든다. 또한, 가상 시뮬레이션 에서의 옷감에 대한 물리적 역학이 실제 세계의 옷감과는 차이기 있기 때문에, 물리적으로 정확한 측정값을 사용하는 것이 보다 사 실적인 시뮬레이션 결과를 도출한다고가정할 수 없다. 이 때문에 일부 가상 패션소프트웨어는 해당 소프트웨어에 특화된 옷감 샘 플의 물성 측정 장치와 측정된 값으로부터 해당 소프트웨어의 특 성에 최적화된 시뮬레이션 파라미터를 계산해주는 프로그램을 제공한다. 예를 들어, 사용자는 주어진 장치를 이용하여 특정한 상황에서 옷감 샘플이 굽혀지는 정도에 대한 각도를 측정한다. 다음, 이 각도 값을 제공된 소프트웨어에 입력하면 굽힘 강성에 대한 시뮬레이션 파라미터가계산되어 나온다. 이러한 방법으로 얻은 시뮬레이션 파라미터의 정확도는 많은 경우 실제 옷감 제품 개발에 사용하기에는 충분하지 않다. 작은 옷감 샘플에서 관찰된 물리적 특성은 같은 옷감으로 제작된 의상에서는 동일하게 나타 나지 않는 경우가 많기 때문이다. 여러 가성 패션 디자인 소프트 웨어에서 제공하는 시뮬레이션 파라미터 측정 방법의 장단점에 대한 자세한 내용은 [4]를 참조하는 것을 추천한다.

2.2 시뮬레이션 파라미터 추정

샘플을 측정된 값에 의존하지 않고 주어진 실제 옷감의 드레이프 테스트 결과를 보고 그와 가장 유사한 시뮬레이션 결과를 도출 하도록 하는 머신러닝 기술들이 제안되어왔다. 이에 대한 기존 연구들은 크게 최적화 기법과 지도 학습 기법의 두 가지 범주로 나눌 수 있다. 최적화 기법은 기본적으로 시뮬레이션 파라미터 를 조금씩 조정하면서 조정된 파라미터를 사용한 드레이프 시 뮬레이션 결과를 확인해 보는 과정을 반복하는 것이다. 목표 드 레이프와 충분히 유사한 시뮬레이션 결과를 얻을 때 까지 반복된 다 [5, 6, 7, 8]. 최적화 방법은 반복되는 시뮬레이션으로 인해 계산 시간이 길다는 단점이 있다. 앞선 연구에서 제시한 실험 결과에 따르면 하나의 목표 드레이프에 대한 파라미터 최적화 시간은 적 게는 몇 시간부터 많게는 수십 시간까지 걸린다.

지도 학습 방법은 대량의 학습 데이터로부터 드레이프 형태 와 시뮬레이션 파라미터 사이의 관계를 사전에 학습하고 사용하 는 것이다. 그 결과 특정한 드레이프 형태가 입력으로 주어지면 그와 같은 결과를 생성하는 파라미터를 빠르게 추정할 수 있다 [9, 10, 11, 12, 13]. 학습 방법의 한계점은 한 가지 드레이프 형태 를 도출하는 시뮬레이션 파라미터가 유일하다는 가정에서부터 출발한다는 점이다. 하지만 드레이프 테스트 시뮬레이션에서서 로 다른 시뮬레이션 파라미터가 거의 동일한 드레이프 결과를 도출하는 경우는 쉽게 발견할 수 있다. 그런 경우가 절대로 발 생하지 않는 드레이프 테스트 방법을 개발하는 것은 매우 어려운 일이며 그것을 증명하는 것도 어렵다. 본 연구에서의 학습 모델은 드레이프를 보고 시뮬레이션 파라미터를 추정하는 것이 아니라 그 반대 방향, 파라미터를 보고 드레이프 결과를 추정하는 방식 을 학습한다. 시뮬레이터가결정론적이라면, 하나의 시뮬레이션 파라미터는 항상 동일한 드레이프 형태를만들어내기 때문에 학 습의 정확도를 높이기에 유리하다.

2.3 시뮬레이션 파라미터 튜닝

가상 시뮬레이션을 사용하여 실제 의상 디자인을 개발하는 전문 가들 사이에는 최적화 또는 지도 학습 등의 방법으로 추정된 시 뮬레이션 파라미터의 부정확함을 보완하기 위해 수동 파라미터 튜닝이 반드시 필요한 것으로 여겨지고 있다. 일반적인 수동 파 라미터 튜닝 방법은 다음과 같다. 쿠식 드레이프 테스트 등의 한 가지 드레이프 테스트 방식을 결정한 후 실제 옷감으로 드레이프 테스트를 수행하고 기록한다. 다음, 가상 환경에서 동일한 드레 이프 테스트 조건을 설정하여 시뮬레이션을 통해 가상 드레이프 테스트를 수행한 후 실제와 차이를 확인한다. 그 후 전문가의 직 관에 의존하여 파라미터를 수정하고 다시시뮬레이션 결과를 확 인하는 과정을 실제와 가상이 충분히 가까워질 때까지 반복하는 것이다. 즉, 최적화 기법의 과정을 사람이 수동으로 하는 것이며, 이를 통해 전문가가 경험적으로 터득한 특정 시뮬레이터의 특성 을 반영하여 보다 나은 결과를 얻는 것이다. 이 과정에서는 전문 가들 마다의 주관적인 판단이나 기호가 반영되기도 한다. 문제는 이러한 튜닝 과정의 필요성은 상당하지만 전문가들에게 조차도 어려운 작업으로 여겨지고 있다는 점이다. Ju 등 [2]은 산업 현 장에서 전문 디자이너들이 수동 시뮬레이션 파라미터 튜닝에 투 자하는 시간을 조사한 결과, 하나의 옷감에 대한 파라미터 튜닝 작업은 평균 30분 이상의 시간이 소요되면 최대 2시간 이상이 필 요한 것으로 나타났다.

2.4 선형과 비선형 강성 모델

실제 옷감의 강성은 선형적이지 않다. 실제 옷감의 강성을 측정 하면 인장 강성 (stretch stiffness)과 굽힘 강성 (bending stiffness) 이 서로 다른 비선형 함수로 정의된다. 하지만 초기 가상 시뮬레 이터들은 선형 강성 모델을 사용하였다 [14]. 이는 강성 모델을 단순화하여 시뮬레이션속도를 높이기 위함이었다. 컴퓨터 성능 이 시작하였다 [15, 6, 7]. 향상되면서 비선형 강성 모델이 개발되 고 점점 더 많이 사용되기 현재는 높은 정확도가 요구되는 의상 시뮬레이션에서는 비선형 강성 모델이 더 보편적으로 사용되고 있다. Ju 등 [2]은 선형 강성 모델을 사용하는 옷감 시뮬레이터를 대상으로 시뮬레이션 파라미터와 드레이프 테스트 결과 사이의 관계를 학습하였지만, 본 연구에서는 비선형 강성 모델을 사용하 는 옷감 시뮬레이터를 대상으로 한다. 특히 연구 결과의 실용성을 높이기 위해 세계적으로 가장 널리 사용되고 있는 CLO [16]에서 사용되는 강성 모델을 대상으로 실험을 수행한다.

3 비선형 강성 모델

본 연구에서 사용된 옷감 시뮬레이션 모델은 스프링-매스 모델의 표준으로 간주되고 있는 Baraff와 Witkin [14]의 방법을 기초로 하 여 확장한 것이다. 본 연구에서는 안정적인 적분을 위해 Choi 등 이 제안한 BDF-2 암시적적분 (implicit integration) [17]을 적용하 였다. 실험의 대상으로 선택한 시뮬레이션 파라미터는 드레이프 모양 형성에 가장 큰 영향을 미치는 인장 강성과 굽힘 강성이다. 응력-변형률 (Stress-Strain) 관계는 비선형 함수로 정의되었으며 의류 산업에서 가장 널리 사용되고 있는 가상 의상 시뮬레이터 인 CLO3D [16]의 정의를 따른다. 인장 계수 함수 s(l)은 늘어난 길이 l에 대한 지수 함수로 정의된다.

s ( l ) = α exp ( α e | l l 0 | l 0 )
(1)

굽힘 계수 함수 b(θ)는 다음과 같은 구간별 상수 함수로 정의 된다.

b i ( θ ) = { β cos ( θ ) > t β S β cos ( θ ) t
(2)

여기서 θ는 두 인접한 메시 삼각형이 꺾인 각도이며, 완전히 펼쳐진 상태는 θ = 0◦이다. 만약 특정 수준 이상 꺾이면, 굽힘 강 도는 0과 1 사이로 정의된 βs에 의해 스케일링 된다. 옷감의 밀도 역시 드레이프 형태에 중대한 영향을 미친다. Feng 등은 [18] 밀 도를 시뮬레이션에 반영하는 방법을 제안했으며, 이 방법은 인장 강성 값을 밀도로 나누어 사용하는 것이다. 이 경우, 밀도는 상 수로 고정할 수 있다. 본 연구에서도 동일한 방식으로 밀도를 고 려하였다. 따라서 실험에서 고려하는 시뮬레이션 파라미터는 α, αe, β, βs이다. 인장과 굽힘 강성은 각각 경사 (warp), 위사 (weft), 대각 (bias) 방향에 대해 독립적으로 정의된 이방성 모델로 정의 된다. 파라미터의 총 개수는 총 12개이다.

4 드레이프 방법과 학습 데이터

본 연구에서는 CIR, SQR, CAP이라는 이름의 세 가지 드레이프 형태로 실험을 진행하였다. CIR는 원형 옷감 시료를 그보다 면 적인 적은 원형 디스크 위에 올려 놓고 중력에 의해 자연스럽게 흘러 내린 부분의 드레이프 형상을 관찰 하는 것이다. 이 방법은 쿠식 드레이프 테스트라는 이름으로 알려져 있다. 옷감 시료가 흘 러내리는 부분의 폭이 모든 부분에서 동일하기 때문에, 형성되는 주름의 모양이 무게 차이에 의해 영향을 받지 않는 다는 장점이 있다. 반면, SQR은 최근 신경망 기반 학습에 주로 사용된 방법으 로, 쿠식 드레이프 방법과 동일하지만 원형 대신 정사각형 옷감 시료를 사용하는 방법이다. Ju 등은 [12] 정사각형 형태가 위사 방향과 경사 방향을 구별하는 데 유리하다고 주장하였다. SQR 방식은이방성 (anisotropic) 특성을 식별하기 위해서 유리하지만 시료의 네 귀퉁이가 다른 부분에 비해 무게가 더 많이 실려 주름 형상에 영향을 미친다는 단점이 있다. 마지막으로, CAP은 의상 의 한 종류인 케이플릿의 모양에서 영감을 얻어 개발된드레이프 테스트 방법이다. 파라미터 튜닝에 경험이 많은 디자이너를 대 상으로 한 조사를 통해 개발된 방식으로 실제 사람이 의상을 입 을 때 어깨와 목 주변에 형성되는 주름의 형태를 관찰하기 위해 개발되었다. 이 방법은 옷감 시료를 케이플릿 모양으로 만든 후 마네킹에 입히는 방법이다. 옷감 시료의 모양은 쉽게 반복 생산 할 수 있도록 설계되었으며, 넓은 원형 시료 한 가운데 작은 원형 구멍있는 도넛 모양이다. 본 실험에서는 CAP 테스트를 위한 마 네킹으로 Alvanon [19]에서 생산한 Physical Alvaform of North America Women Size 2 모델을 사용하였다. 그림. 1는 각 방법에 대한 옷감 시료와 지지대의 모양과 크기를 나타낸다.

jkcgs-29-3-117-g1
Figure 1: Three draping types used in our experiments. (a) CIR is the original Cusick’s draping test method, (b) SQR is Cusick’s method using a square specimen, and (c) CAP is a new draping using a capelet specimen shaped like a donut.
Download Original Figure

신뢰할 수 있는 학습 데이터를 생성하기 위해, 먼저 충분한 양 의 실제 옷감에 대한 데이터를 확보하였다. 구체적으로 클로버츄 어패션 [16]에서 5000 가지의 실제 옷감에 대해 최적화된 시뮬레 이션 파라미터 데이터를 제공받았다. Ju 등의 방법을 따라 [12], 가우스 혼합 모델 (GMM)을 사용하여 5000개 파라미터 데이터 를 k 클러스터로 분류한 다음, 각 클러스터에 대해 동일한 수를 샘플링하였다. 본 연구에서는 k = 5로 설정하고 각 클러스터에 대해 60000개씩 총 300000개의 파라미터 데이터를 샘플링하였 다. 다음, 각 파라미터 샘플에 대해 위에서 정의한 세 가지 유형 의 드레이핑 테스트 시뮬레이션을 수행하고 결과를 메시 데이터 로 저장하였다. 시뮬레이션에서 사용된 가상 옷감 시료들은 CIR 과 SQR의 경우 최대 정점 간격이 5mm 미만으로, CAP의 경우 10mm 미만으로 무작위 샘플링된 삼각형 메시로 제작되었다. 시 료들의 정점 수는 CIR는 5,148개, SQR는 6,563개, CAP는 4,890 개이다. 모든 시뮬레이션에서 시간 간격은 0.03초로 설정하였다.

5 드레이프 추정 모델

추정 모델의입력은 시뮬레이션 파라미터이고 출력은 해당 파라 미터로 시뮬레이션한 드레이프 테스트의 결과 메시이다. 본 연구 에서 제시하는 추정 모델은 먼저 드레이프 메시에 대한 512차원 특징 벡터를 추정하고, 다음 그 특징 백터를 디코딩하여 드레이프 메시를 복원한다 (그림 2 참조).

jkcgs-29-3-117-g2
Figure 2: Overview of the proposed drape simulation prediction model.
Download Original Figure

인코딩 특징 벡터를 추출하기 위해, 본 연구에서는 Spiral-Net++ [20] 오토인코더를 사용하였다. SpiralNet++는 메시 구조 의 지역적 특징과 전역적 특징을 동시에 고려하여 인코딩할 수 있는 메시 구조에 특화된 컨볼루션 신경망의 일종이다. 세 가지 드레이프 유형에 대해 각각 특징 벡터의 차원을 모두 512로 설정 하여 인코딩하였다.

회귀분석기 본 연구에서는 시뮬레이션 파라미터와 특징 벡터 사이의 관계를 학습하기 위해 MLP (multi-layer perceptron) 회귀 모델을 사용하였다. 이 모델은 각각 64, 128, 256, 512, 1024, 512, 256, 128, 64개의 노드를 갖는 9개의은닉 층으로 구성되어 있다. 각 층 사이에는 ReLU 활성화 함수가 사용되었다.

학습 먼저, 학습 데이터의 시뮬레이션 드레이프 메시를 사용하 여 오토인코더를 학습시켰다. 그 다음, 학습된 오토인코더를 사 용하여 모든 학습 데이터의 시뮬레이션 드레이프 메시를 인코딩 하고 특징 벡터를 추출하였다. 그 후, 특징 벡터를 사용하여 시뮬 레이션 파라미터와 특징 벡터 사이의 관계에 대한 회귀 모델을 학습시켰다.

6 실험 결과

학습 데이터를 생성하기 위해서는 대량의 시뮬레이션이 수행되 어야한다. 이를 위해 본 연구에서는 AMD Ryzen 9 7950X 16-Core Processor CPU, 64GB RAM 시스템이 사용되었으며, 총 120 개의 CPU로 동시에 시뮬레이션하였다. 각 드레이프 방법마다 시 뮬레이션이 수렴되는데 걸리는 시간이 서로 다르므로 전체 시뮬 레이션 수행 시간도 드레이프 방법에 따라 다르다. 100 개의 드레 이프 시뮬레이션이 완성되는 데에 걸린 평균 시간은 CIR, SQR의 약 30초, CAP의 경우 약 1분이 걸렸다.

6.1 학습 데이터의 양과 학습 정확도

먼저 CIR 드레이프 타입으로 학습 데이터의 양을 다르게 하여 학습을 진행하고 제시된 학습 모델의 적합한 학습 데이터의 양을 결정하였다. 그림 3는 학습 데이터 크기에 따른 인코딩-디코딩 오 차와 회귀 오차의 변화를 나타낸다. 오토인코더의 오차는 40000 개의 학습 데이터로 학습했을 때 이미 충분히 낮았고, 더 많은 데이터로 학습하여도 오차에 큰 변화가 없었다. 반면에, 시뮬레 이션 파라미터와 특징 벡터 사이의 회귀 학습에서는 학습 데이 터 수가 100000개일 때부터 오차 변화량이 현저히 감소하였다. 이 차이는 시뮬레이션 파라미터의 다양성이 드레이프 형상의 다 양성보다 높기 때문이며, 시뮬레이션 파라미터와 드레이프 형상 사이의 관계를 직접 학습하는 경우 학습 정확도를 높이는 것이 상대적으로 어려울 것이라는 본 연구의 가설을 뒷받침한다. 다 음에 소개되는 모든 실험에서 오토인코더 학습을위해 무작위로 선택된 40000개의 학습 데이터를 사용하였고, 회귀 학습을 위해 전체 100000개의 학습 데이터를 사용하였다.

jkcgs-29-3-117-g3
Figure 3: Training accuracy according to the number of training data. (Left) The accuracy of autoencoder for drape shapes. (Right) The accuracy of regression between simulation parameters and latent vectors.
Download Original Figure
6.2 정량 평가

본 연구에서 제시한학습 모델의 학습수렴의 안정성과 정확성을 검증하기 위해, 10000개의 검증 데이터를 사용하여 학습 오차를 측정하였다. Fig.4은 각 드레이프 유형에 대해 학습 에폭의 증가 에 따른 학습 오차의 변화를 보여준다. 오토인코더와 회귀 모델 모두 약 500 에폭에서 수렴하였다. 이를 바탕으로 본 연구에서는 모든 실험에 500 에폭까지 학습된 모델들을 사용하였다. 오차는 두드레이프의 대응하는 정점들 사이의 평균 거리로 계산되었다. 표.2는 오토인코더의 디코딩 오차와 세 가지 드레이프 유형의 시 뮬레이션 예측 모델의 예측 정확도를 보여준다. 모든 경우에서 안정적으로 학습되었으며, 학습 정확도는 높음을 알 수 있다.

jkcgs-29-3-117-g4
Figure 4: (top) Training error of autoencoder by epoch. (bottom) Prediction accuracy (R2) of our simulation prediction model by epoch.
Download Original Figure

학습을 위해 12th Gen Intel(R) Core(TM) i7 CPU, 32.0GB RAM, NVIDIA Geforce RTX 3080 GPU가 장착된 컴퓨터를 사 용하였다. 각 드레이프 방식마다 500 에폭 학습에 소요된 시간은 표 1 같다.

Table 1: Training time for 500 epochs.
CIR SQR CAP
AE training time (min) 372.72 299.08 243.02
Regression training time (min) 468.18 449.21 461.98
Download Excel Table
Table 2: Reconstruction error (millimeter) and prediction accuracy (R2) of the three drape types.
Reconstruction Error Prediction Accuracy
CIR SQR CAP CIR SQR CAP
Mean Std. 0.19
0.32
0.38
0.65
0.93
2.60
R 2 0.83 0.91 0.75
Download Excel Table

Fig. 5는 평균 정점 거리 오류가 5.01 mm인 예이며, 이 값은 디 코딩 오차의 평균보다 높다. 이 정도의 오차에서 시각적인 차이는 거의 없음을 알 수 있다.

jkcgs-29-3-117-g5
Figure 5: An example of 5.01 mm average vertex distance between two drape mesh. The color on the surface of the right drape mesh indicates the distance of each vertex from the corresponding vertex on the left drape mesh. The more red the color, the greater the distance.
Download Original Figure
6.3 정성 평가

정성 평가를 위해 일반적인 의상 제작에 많이 사용되는 서로 다

른 두 가지 실제 옷감을 대상으로 실험을 진행하였다. 그림 6의 첫번째 열은 실제 옷감 시료를 이용하여 쿠식 드레이프를 수행한 결과이다. 먼저 해당 옷감에 대한 최적의 시뮬레이션 파라미터를 찾기 위해 튜닝 경험이 많은 전문가에게 파라미터 튜닝을 요청 하였다. 그림 6Ground Truth 열은 그 결과로 얻은 시뮬레이션 파라미터를 사용하여 쿠식 드레이프 시뮬레이션을 수행한 결과 이다. 다음 동일한 시뮬레이션 파라미터를 본 연구에서 제시한 드레이프 추정 모델에 입력하여 쿠식 드레이프 결과를 추정하였 으며, 그 결과는 그림 6Predicted 열과같다. 그림에 표시된 색 깔은 Ground TruthPredicted 메시의 차이를 나타내며 척도는 그림 5과 같다. 즉, 초록색으로 표시된 영역은 약 5mm의 오차가 있음을 의미한다. 대부분 영역에서의 오차가 5mm 이하임을 볼 수 있다. 실제 옷감의 쿠식 드레이프 수행결과와 전문가 튜닝으 로 최적화된 파라미터를 이용한 시뮬레이션 결과, 그리고 본 연 구가 제시한 추정 모델로 추정한 드레이프 모양이 모두 유사하며 시각적 차이가거의 없는 것으로 나타났다.

jkcgs-29-3-117-g6
Figure 6: Comparison of the ground truth and the predicted drapes for two different fabrics.
Download Original Figure
Table 3: The types of compositions of fabrics presented in the experiments of Fig. 6.
Fabric Type Composition
1 Woven / Pile / Corduroy Cotton (100%)
2 Cut & Sew Knit / Single / Jersey Cotton (60%),
Polyester (40%)
Download Excel Table

7 결론

본 연구에서는 비선형 강성 모델 옷감 시뮬레이터를 대상으로 시 뮬레이션 파라미터와 드레이프 테스트 시뮬레이션의 최종 결과 사이의 관계를 학습하였다. 학습 데이터는 실제 옷감 데이터에 최적화된 시뮬레이션 파라미터에 기초하여 생성 모델을 만들고 이를 사용하여 신빙성 높은 대량의 시뮬레이션 데이터를 생성하 였다. 제시한 학습 모델에서는 메시 데이터로 표현되는 드레이 프 결과를 인코딩하여 특징 벡터를 추출하는단계와 시뮬레이션 파라미터와 특징 벡터 사이의 관계를 학습하는 부분으로 나누어 었다. 정점의 개수가 많은 고해상도 메시 드레이프를 상대적으로 적은 차원의 특징 벡터로 표현하여 학습에 효율을 높이고 높은 정확도를 달성하기에 유리한 조건을 만들었다. 그 결과 실험한 세 가지 서로 다른 드레이프 테스트 방법에서 모두 높은 재현 정 확도를 달성할 수 있었다.

본 연구에서는 기존 연구와 비교하여 실용성 면에서도 높은 수준의 결과를 달성하였다. Ju 등 [2]의 최근 연구는 선형 강성 모델을 대상으로 하였으며 전체 드레이프 메시를 추정하는 대신 드레이프 메시의 테두리 곡선만을 추정하고 비어있는 부분을 모 두 보간하여 유추하는 방식을 사용하였다. 반면 본 연구에서는 비선형 강성 모델을 대상으로 하였으며 전체 드레이프 메시를 추 정하였다. 또한 세 가지 서로 다른 드레이프 테스트 방법에 대해 실험 결과를 확인하여, 본 연구의 방법이 실제 파라미터 튜닝에 사용되었을 때 상황에 맞는 다양한 드레이프 형태에 적용할 수 있음을 보였다.

하지만 새로운 드레이프 테스트 방법에 적용할 경우 대량의 학 습 데이터를 생성하는 과정을 거쳐야하는 것은 여전히 쉽지 않은 문제로 남아있다. 본 연구에서 제시하는 방법에서는 학습 데이 터가 시뮬레이션 파라미터 공간의 샘플링과 시뮬레이션 과정을 거쳐 생성되므로 이론상 무한히 많은 데이터를 생성할 수 있다. 하지만 실제로는 시뮬레이션 과정에 소요되는 계산 비용이 매우 높다는 현실적인 문제가 있다. 학습 데이터의 양을 줄이면서도 학습 정확도를 유지하기 위해서는 시뮬레이션 파라미터 공간을 깊이 분석하여 실제존재하는 옷감에 대한 영역을 보다 정교하게 정의하는 것이 필요하다. 이는 더 많은 연구가 필요한 부분이다.

본 연구에서는 한 가지 옷감 시뮬레이션 모델만을 대상으로 실 험을 진행하였다. 비록 본 연구에서 제시된 학습 모델은일반적인 스프링-매스 시뮬레이션 모델에는 모두 적용될 수 있지만, 니트 구조에 특화된 옷감 시뮬레이터 [21, 22, 23]에 대해서는 본 연 구의 학습 모델이 적용될 수 있는지 추가 연구가 필요하다. 또한 니트 구조 옷감에서 흔히 발생하는 테두리 부분 말림 현상은 드레 이프 테스트 과정에서 주름 형성을 방해하는 요인이 되는 것으로 알려져 있다. 이러한 문제에 자유로운 드레이프 테스트 방법을 개발하는 것도 향후 연구 과제이다.

향후 본 연구의 결과를 이용하여 Ju 등 [2]이 제시한 것과 같이 상호작용을 위한 사용자 인터페이스가 적용된 시뮬레이션 파라 미터 튜닝 시스템을 개발하여 실제 의류 디자이너들을 대상으로 사용성 평가를 진행할 예정이다. 또한 기존의 파라미터 최적화 방 식에서의 반복되는 시뮬레이션 과정을 본 연구에서 제시한 빠른 드레이프 결과 추정 방법으로 대체하여 자동 최적화의 속도를 향 상시키는 방법도 연구할 예정이다. 특히 최적화 속도가 빨라지면 전역 최적화를 통해 광범위한 파라미터 공간을 탐색할 수 있는 기회가 늘어나기 때문에, 기존 최적화 결과의 정확도를 높이는 것도 가능할 것으로 기대된다.

감사의 글

본 연구는 일부 정부(과학기술정보통신부)의 재원으로 한국연 구재단의 지원을 받아 수행된 연구(No. 2021R1F1A1048002) 입 니다.

References

[1].

G. E. Cusick, “The dependence of fabric drape on bending and shear stiffness,” Journal of the Textile Institute Transactions, vol. 56, no. 11, pp. T596–T606, 1965.

[2].

E. Ju, K.-y. Kim, J. Lee, S. Yoon, and M. G. Choi, “Interactive exploration of drapes by simulation parameters,” Computer Animation and Virtual Worlds, vol. 33, no. 3-4, p. e2058, 2022.

[3].

S. Kawabata and M. Niwa, “Fabric performance in clothing and clothing manufacture,” Journal of the Textile Institute, vol. 80, no. 1, pp. 19–50, 1989.

[4].

S. Kuijpers, C. Luible-Bär, and H. Gong, “The measurement of fabric properties for virtual simulation—a critical review,” IEEE SA INDUSTRY CONNECTIONS, pp. 1–43, 2020.

[5].

K. S. Bhat, C. D. Twigg, J. K. Hodgins, P. K. Khosla, Z. Popović, and S. M. Seitz, “Estimating cloth simulation parameters from video,” in Proceedings of the 2003 ACM SIGGRAPH/Eurographics symposium on Computer animation, 2003, pp. 37–51.

[6].

H. Wang, J. F. O’Brien, and R. Ramamoorthi, “Data-driven elastic models for cloth: modeling and measurement,” ACM transactions on graphics (TOG), vol. 30, no. 4, pp. 1–12, 2011.

[7].

E. Miguel, D. Bradley, B. Thomaszewski, B. Bickel, W. Matusik, M. A. Otaduy, and S. Marschner, “Data-driven estimation of cloth simulation models,” in Computer Graphics Forum, vol. 31, no. 2pt2. Wiley Online Library, 2012, pp. 519–528.

[8].

S. Yang, Z. Pan, T. Amert, K. Wang, L. Yu, T. Berg, and M. C. Lin, “Physics-inspired garment recovery from a single-view image,” ACM Transactions on Graphics (TOG), vol. 37, no. 5, pp. 1–14, 2018.

[9].

K. L. Bouman, B. Xiao, P. Battaglia, and W. T. Freeman, “Estimating the material properties of fabric from video,” in Proceedings of the IEEE international conference on computer vision, 2013, pp. 1984–1991.

[10].

S. Yang, J. Liang, and M. C. Lin, “Learning-based cloth material recovery from video,” in Proceedings of the IEEE International Conference on Computer Vision, 2017, pp. 4383–4393.

[11].

W. Bi, P. Jin, H. Nienborg, and B. Xiao, “Estimating mechanical properties of cloth from videos using dense motion trajectories: Human psychophysics and machine learning,” Journal of vision, vol. 18, no. 5, pp. 12–12, 2018.

[12].

E. Ju and M. G. Choi, “Estimating cloth simulation parameters from a static drape using neural networks,” IEEE Access, vol. 8, pp. 195 113–195 121, 2020.

[13].

C. Rodriguez-Pardo, M. Prieto-Martin, D. Casas, and E. Garces, “How will it drape like? capturing fabric mechanics from depth images,” arXiv preprint arXiv:2304.06704, 2023.

[14].

D. Baraff and A. Witkin, “Large steps in cloth simulation,” in Proceedings of the 25th annual conference on Computer graphics and interactive techniques, 1998, pp. 43–54.

[15].

P. Volino, N. Magnenat-Thalmann, and F. Faure, “A simple approach to nonlinear tensile stiffness for accurate cloth simulation,” ACM Transactions on Graphics, vol. 28, no. 4, pp. Article–No, 2009.

[16].

CLO Virtual Fashion Inc., “CLO3D,” https://www.clo3d.com/, 2009–2023.

[17].

K.-J. Choi and H.-S. Ko, “Stable but responsive cloth,” ACM Trans. Graph., vol. 21, no. 3, p. 604–611, jul 2002.

[18].

X. Feng, W. Huang, W. Xu, and H. Wang, “Learning-based bending stiffness parameter estimation by a drape tester,” ACM Trans. Graph., vol. 41, no. 6, 2022.

[19].

Alvanon Inc., “ALVANON,” https://www.alvanon.com/, 2007–2023.

[20].

S. Gong, L. Chen, M. Bronstein, and S. Zafeiriou, “Spiralnet++: A fast and highly efficient mesh convolution operator,” in Proceedings of the IEEE/CVF international conference on computer vision workshops, 2019, pp. 0–0.

[21].

J. M. Kaldor, D. L. James, and S. Marschner, “Simulating knitted cloth at the yarn level,” in ACM SIGGRAPH 2008 papers, 2008, pp. 1–9.

[22].

G. Cirio, J. Lopez-Moreno, and M. A. Otaduy, “Yarn-level cloth simulation with sliding persistent contacts,” IEEE transactions on visualization and computer graphics, vol. 23, no. 2, pp. 1152–1162, 2016.

[23].

C. Jiang, T. Gast, and J. Teran, “Anisotropic elastoplasticity for cloth, knit and hair frictional contact,” ACM Transactions on Graphics (TOG), vol. 36, no. 4, pp. 1–14, 2017.

<저자소개>

심 응 준

jkcgs-29-3-117-i1

  • 2016년 건국대학교 멀티미디어학과 학사

  • 2018년 UST KIST-school 석사

  • 2018 ~ 2020 한국과학기술연구원(KIST) 바이오닉스 연구단 별정직 연구원

  • 2020 ~ 2022 이마고웍스 AI Team Lead

  • 2022 ~ 현재 클로버추얼패션 Machine Learning Engineer

  • 관심분야 : 컴퓨터 그래픽스, 메쉬 디폼,생성을 위한 딥러닝 모델

주 은 정

jkcgs-29-3-117-i2

  • 2004년 연세대학교 컴퓨터공학과 학사

  • 2010년 서울대학교 컴퓨터공학부 박사

  • 2011년 서울대학교 컴퓨터연구소 박사후 연구원

  • 2012년 한국과학기술연구원(KIST) 실감교류로보틱스 센터 박사후 연구원

  • 2013~2017년 삼성전자 DMC 연구소 및 영상 디스플레이 사업부 책임 연구원

  • 2018년~ CLO Virtual Fashion

  • 현재 CLO Virtual Fashion, Head of Research KR

  • 관심분야 : Computer Graphics, Character Modeling/Animation, 2d/3d data related Machine learning, Generative AI

최 명 걸

jkcgs-29-3-117-i3

  • 2004년 경북대학교 컴퓨터공학과 학사

  • 2010년 서울대학교 컴퓨터공학부 박사

  • 2011년 JST ERATO Design Interface Project 박사후 연구원

  • 2012년~2013년 IPAB, Edinburgh University 박사후 연구원

  • 2014년~현재 가톨릭대학교 미디어기술콘텐츠학과 미디어공학전공 교수

  • 관심분야: 컴퓨터 그래픽스, 캐릭터 애니메이션, 가상현실