Journal of the Korea Computer Graphics Society
The Korea Computer Graphics Society
Article

사용자 경험 향상을 위한 딥러닝 기반 차량용 AR 매뉴얼

이정민1https://orcid.org/0000-0002-4212-8382, 김준학1https://orcid.org/0000-0003-1960-0586, 석정원1https://orcid.org/0000-0002-8327-5995, 박진호1,*https://orcid.org/0000-0001-8738-3128
Jeong-Min Lee1https://orcid.org/0000-0002-4212-8382, Jun-Hak Kim1https://orcid.org/0000-0003-1960-0586, Jung-Won Seok1https://orcid.org/0000-0002-8327-5995, Jinho Park1,*https://orcid.org/0000-0001-8738-3128
1숭실대학교 대학원 IT융합학과, 주식회사 딥파인, 주식회사 딥파인, 숭실대학교 글로벌미디어학부
1Soongsil University Graduates School, DEEP.FINE Co., Ltd., DEEP.FINE Co., Ltd., Soongsil University Graduates School
*corresponding author: Jinho Park/Soongsil University(c2alpha@ssu.ac.kr)

© Copyright 2022 Korea Computer Graphics Society. This is an Open-Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (http://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

Received: Jun 09, 2022; Revised: Jun 29, 2022; Accepted: Jul 04, 2022

Published Online: Jul 25, 2022

요약

본 논문은 주로 사용되는 AR 콘텐츠의 증강 방법을 적용하기 어려운 차량 실내공간에서도 사용할 수 있는 차 량용 AR매뉴얼을 구현하고, 실공간과 가상 객체의 증강 정합도 향상을 위해 딥러닝 모델을 적용하였다. 차량 핸들의 로고를 딥러닝 학습을 통해 위치와 각도, 기울기 등과 관계없이 인식하고, 이를 중심으로 3차원 실내 공간좌표를 생성하여 실제 차량 부품 위에 정확히 가상버튼을 증강한다. 여기에 동일 학습모델을 기반으로 차 량의 주요 경고등 심볼을 인식할 수 있는 기능을 함께 구현하여 차량용 AR매뉴얼로서의 기능성과 활용성을 높 인다.

Abstract

This paper implements an AR manual for a vehicle that can be used even in the vehicle interior space where it is difficult to apply the augmentation method of AR content, which is mainly used, and applies a deep learning model to improve the augmentation matching between real space and virtual objects. Through deep learning, the logo of the steering wheel is recognized regardless of the position, angle, and inclination, and 3D interior space coordinates are generated based on this, and the virtual button is precisely augmented on the actual vehicle parts. Based on the same learning model, the function to recognize the main warning light symbols of the vehicle is also implemented to increase the functionality and usability as an AR manual for vehicles.

Keywords: 증강현실; 인공지능; 차량 취급설명서; 사용자 가이드; 객체검출
Keywords: augmented reality; AR; AI; deep learning; manual for vehicle; user guide; object detection

1. 서론

1.1 연구배경 및 목적

증강현실(AR) 기술은 이제 비전문가인 일반 대중들에게도 낯설지 않을 만큼 그 활용 분야와 범위가 넓어지고 있다. 현재 증강현실 기술을 이용한 사용자 서비스는 화재와 같은 특수한 상황의 시뮬레이션을 위한 특수목적 용도[1]부터 디 지털 패션 콘텐츠 제작[2] 등 우리 일상에서 쉽게 찾아볼 수 있는 범용 용도까지, 가상의 콘텐츠를 증강하는 기술적 방 식은 생각보다 다양하지 않으며 주로 아래와 같은 세 가지 의 방식이 보편화 되어 있다.

  • 1) QR코드나 간단한 심볼, 이미지 등을 통한 마커 기반의 증강

  • 2) GPS를 통한 위치 기반의 증강

  • 3) 비콘 등 하드웨어 인프라와 실내공간 복원기술을 이용한 증강

대다수의 증강 콘텐츠는 단순한 심볼이나 QR코드와 같은 특정 마커를 이용한다. 최근 주요 유명 관광지나 문화재, 박 물관 등에서 관광객이 스마트폰으로 특정 QR코드나 이미지 를 비추면 전시물의 상세 정보를 제공하거나 마스코트 캐릭 터가 나타나 관련 정보를 제공하는 등[3]의 서비스가 대부분 마커 기반의 증강 방식이다. 마커를 이용하지 않는 증강 기 법으로는 GPS를 통한 위치정보나 비전(Vision) 기술을 이 용하는 경우가 대표적이다. 국내에서도 크게 인기 있었던 포켓몬 고와 같이 주로 모바일 게임이나 소셜 플랫폼에서 활용된다. 이 외에 코엑스나 공항과 같은 특정 대형 시설물 에서는 비콘[4]과 IoT 센서와 같은 하드웨어와 실내공간 인 식 및 복원기술(SLAM)[5]을 통해 AR 서비스를 제공하기도 한다. 이러한 기존의 증강 기법에는 아래 [Table 1]과 같이 몇 가지 기술적 한계와 이로 인한 제약 사항이 존재하며 특 히 차량 실내와 같이 마커를 부착하기 어려운 환경이나 좁 은 실내공간에 적용하기는 현실적으로 어려운 부분이 있다. 본 논문에서는 위에서 언급된 제약 사항으로 인해 증강현실 기술의 적용이 어려운 환경 중 하나인 차량의 실내공간을 타겟으로 하여 보완하는 방안을 제안한다. 목표 공간을 차 량 내부로 설정한 추가적인 배경은 기존 차량용 매뉴얼의 비효율성과 운전자들의 부정적인 인식이 크기 때문이다. 증 강현실 기술을 활용하여 기존 매뉴얼의 한계점과 불편사항 을 함께 개선하고자 한다. 현재 차량을 구매할 때 함께 제 공되는 기능 설명서는 수백 페이지에 달하는 방대한 분량과 책자 형태의 제본 문서로 제공되어 차량 구매자가 원하는 정보를 쉽게 찾기 어렵다. 또한, 차량의 제조사 입장에서는 종이 자원의 낭비와 제작·관리에 필요한 지속적인 운용비용 이 발생한다.

jkcgs-28-3-125-t1
Table 1. 기존 가상 콘텐츠 증강 기술의 한계
jkcgs-28-3-125-g1
Figure 1. 현재 보편적으로 제공되는 차량용 매뉴얼
Download Original Figure

이처럼 원하는 정보탐색의 어려움과 비효율성을 개선하기 위해 대부분 제조사의 공식 홈페이지나 모바일 애플리케이 션을 통한 전자 설명서를 함께 제공하지만, 이 역시 온라인 설명서를 단순히 옮겨 놓은 형태에 불과하여 여전히 차량 구매자들로부터 부정적인 인식이 크다. 이와 같은 내용은 지난 2020년 9월, 한국소비자원에서 진행한 설문조사[6] 결 과를 통해서도 아래 [Figure 2]와 같이 잘 나타나 있다.

jkcgs-28-3-125-g2
Figure 2. 기존 차량 취급설명서에 대한 설문조사 응답결과
Download Original Figure

좁은 차량 실내에서도 원하는 위치에 정확한 콘텐츠 표현하 기 위해 증강에 필요한 기준점을 딥러닝 기반의 객체 검출 (Object Detection)로 크기, 위치, 각도 등과 관계없이 사물 을 인식할 수 있도록 학습하고, 여기에 스마트폰 카메라를 통해 얻을 수 있는 깊이 정보(Depth)가 포함된 3차원 좌표 를 활용[7]한다는 점에서 그 차별점이 있다.

1.1 연구방법

본 연구는 기능적인 측면에서 크게 두 가지로 나누어 각각 의 프로토타입 앱을 제작하고 그 사용성과 성능을 측정하 여, 타 유사 서비스와 성능 우위를 비교하고자 한다. 기존에 종이로 제작되는 페이퍼 매뉴얼을 증강현실을 이용한 디지 털 콘텐츠로 전환하고 이미 시도된 유사한 타 서비스의 한 계점 극복과 성능 향상 정도를 정량적으로 측정하고 비교한 다.

첫 번째는 차량 내부의 핸들 중심부를 기준점으로 인식한 후, 주요 부품에 가상의 매뉴얼 버튼을 증강하고 각 버튼을 탭할 경우 해당 기능에 대한 설명을 표시하는 AR매뉴얼이 다. 실제 차량 내부에서 각 부품의 위치를 계산하고 디지털 매뉴얼을 위한 가상의 버튼을 정확한 위치에 증강하기 위해 [Table 2]와 같이 증강 전 기준 좌표 인식 단계를 수행한다. 인식한 기준 좌표를 중심으로 사전 직접 측정을 통해 각 부 품의 거리 좌표 테이블을 생성하고, 이를 통해 기준점으로 부터 x, y, z의 거리만큼 떨어진 각 부품의 위치를 계산하여 가상버튼을 증강한다.

Table 2. 본 논문에서 제안하는 AR매뉴얼의 제공 단계
(1) 매뉴 얼실행 (2) 핸들 중심부 인식(딥러닝) (3) 가상버튼 증강 (4) 매뉴 얼제공
Download Excel Table
(예시)운전석 Door Function  : (x-30 .715), (y-17 .032), (z-21 .116) 멀티미디어 Function  : (x+28 .172), (y+4 .551), (z+14 .891) 

두 번째는 차량 계기판에 표시되는 차량의 경고등을 인식할 수 있는 딥러닝 모델을 학습시켜 운전자가 취해야 할 조치 방법에 대해 안내한다. 한국의 완성차 업체 중 하나인 기아 자동차에서 제공하는 심볼 스캐너라는 기능과 유사하지만, 차량의 심볼이 아닌 경고등의 인식 정확도와 인식 속도를 높이기 위해 딥러닝 모델을 적용하고자 한다.

본 연구의 주요 개선 목표인 3D 콘텐츠의 증강 위치 정 확도 향상, 이미지 인식률 및 인식 속도 개선을 통해 실제 사용성 향상으로 이어질 수 있는지 확인하기 위하여 실제 운전자를 대상으로 기능 사용 후, 리커트 척도를 통해 체감 한 향상 정도를 측정하고자 한다.

2. 실험

2.1 차량용 AR매뉴얼

실험에 적용한 차량은 메르세데스-벤츠의 C220d 모델과 현 대자동차의 제네시스 G80 모델을 대상으로 진행하였다. 차 량 실내공간에는 QR코드와 같은 마커를 부착하기에도 어렵 고 특성상 GPS 정보를 활용하기에는 허용되는 오차범위가 상당히 좁으므로 실내공간 인식을 위한 다른 방법이 필요하 다. 본 논문에서는 공간 인식의 출발점을 핸들 중앙의 제조 사 로고로 설정하였다. 설정 이유는 첫 번째, 차량의 제조사 와 모델이 달라도 핸들은 거의 같은 위치에 있다는 점과 두 번째, 핸들 중앙에 각인된 제조사 로고는 객체 검출을 위한 이미지 학습에 용이하다는 장점이 있기 때문이다. 이미지 학습이 완료된 딥러닝 모델은 모바일 Native 애플리케이션 개발 시 삽입(Import)할 수 있는 형태의 파일 형식으로 변 환하여 중앙서버를 거치지 않고 스마트폰 애플리케이션에서 로고인식을 수행하고자 한다. 이에 대한 주요 진행 과정은 다음과 같다.

  • 1) 실험 차량의 핸들 및 중앙 로고 촬영

  • 2) 딥러닝 지도 학습을 위한 이미지 레이블링(Labeling)

  • 3) 준비된 데이터셋의 딥러닝 학습(Training) 진행

  • 4) 학습이 완료된 모델의 주요 성능지표 측정

  • 5) 모바일개발을 위한 학습모델의 파일 형식 변환

  • 6) AR매뉴얼 구현을 위한 모바일 Native 애플리케이션 개발

먼저 데이터 학습을 진행하기 위해 학습에 필요한 이미지를 촬영한다. 본 실험에서는 C220d 모델과 제네시스 모델의 차량 핸들을 각 472장씩, 전체 944장의 이미지를 직접 촬영 하였다. 이 과정에서 실제 운전자의 다양한 공간적·시간적 환경을 고려하여 야외 지상주차장, 건물 지하주차장, 야외 햇빛 아래, 야간의 어두운 내부 공간, 야간에 차량 실내등을 켰을 때, 스마트폰 플래시를 켰을 때의 환경에서 각각 촬영 하였고, 촬영하는 카메라의 위치와 각도를 최대한 달리하여 촬영하였다.

jkcgs-28-3-125-g3
Figure 3. 이미지 학습에 사용한 핸들 로고 이미지 (944장)
Download Original Figure

이미지 학습은 딥러닝 기반의 객체 검출 분야에서 많이 알 려진 모델인 Yolo의 최신 5버전(YOLOv5) 알고리즘[8]을 사 용하였으며 그 이유는 아래와 같은 몇 가지 장점[9][10] 때문 이다.

  • 1) 비교적 간단한 처리 과정으로 학습 과정이 간단하고 높 은 mAP 성능을 보인다.

  • 2) 이미지를 분할하여 인식하지 않기 때문에 학습 속도가 빠른 편이고 기존 객체 검출 모델에 비해 낮은 False-Positive를 보인다.

  • 3) 준수한 정확도 대비 인식 속도가 빠르므로 실시간 객체 검출에 적합하다. Figure 4. YOLO 모델의 객체 검출 구조도

jkcgs-28-3-125-g4
Figure 4. YOLO 모델의 객체 검출 구조도
Download Original Figure

학습을 위해 적용한 YOLOv5의 주요 하이퍼-파라미터는 다 음과 같다.

i m a g e - s i z e : 640 640px,  b a t c h - s i z e : 32,  e p o c h s : 2,000

촬영한 이미지의 크기는 가로 크기와 세로 크기를 모두 640 픽셀로 맞추어 batch-size 32 크기로 전체 2,000번의 학습을 진행하였다. 학습의 완료된 모델의 주요 성능지표는 다음과 같다.

Table 3. 학습이 완료된 모델의 결과 성능지표
성능 지표 Precision Recall mAP_0.5 mAP_0.5:0.95
결과 0.95062 0.99316 0.98955 0.75620
Download Excel Table

학습 과정에서 생성된 모델의 주요 오차율(Loss)과 정확도 (mAP)에 대한 지표별 그래프는 다음과 같다.

jkcgs-28-3-125-g5
Figure 5. 학습모델의 주요 지표별 성능측정 그래프
Download Original Figure

학습 이미지의 수가 적고 인식 대상인 제조사의 로고 문양 이 복잡하지 않은 관계로 비교적 어렵지 않게 높은 정확도 의 학습이 가능했던 것으로 보이며, 리눅스 서버에서 파이 썬(Python) 언어로 간단한 프로그램을 작성하여 테스트하였 을 때 뛰어난 로고인식 정확도를 확인할 수 있었다.

기준점 인식 처리를 서버에서 수행한 후 모바일 애플리케이 션에 결과 값을 전송하는 방식으로도 구현할 수 있겠지만, 여기서는 서버와 클라이언트(스마트폰) 간의 이미지 데이터 와 결과 데이터 전송 과정을 생략하고 더 빠른 기준점 인식 을 위해 모바일에서 직접 인식 처리를 수행하기로 하였다. 이를 위해서는 중앙서버를 거치지 않고 모바일 애플리케이 션에서 이미지 인식을 바로 수행할 수 있도록 학습모델의 변환과 안드로이드 코드에서 이를 불러오는 작업이 필요하 다. 인공지능 프로그램 개발을 위한 프레임워크인 텐서플로 우(TensorFlow)에서는 학습이 완료된 모델 파일을 경량화 된 형태인 TF Lite 파일 형식[11]으로 변환할 수 있도록 지 원하고 있으며, 모바일 프로그램에서 이 TF Lite 파일을 삽 입(Import)할 수 있다. 안드로이드 프로그램 구현 후, 실제 차량에서 테스트하였을 때 중앙서버에서 처리했던 방식과 크게 다르지 않은 인식률을 보였다.

jkcgs-28-3-125-g6
Figure 6. 스마트폰에서의 기준점 인식 테스트
Download Original Figure

이제 스마트폰에서 기준점 인식이 가능해졌기 때문에, 이를 이용하여 차량의 실내 공간좌표 생성이 필요하다. 핸들 중 앙을 중심으로 한 주요 부품의 위치 거리를 직접 측정하여 좌표 거리 테이블을 생성하였지만 실제로는 카메라를 통해 얻어지는 카메라 좌표와 실공간의 좌표(World Coordinate) 간의 차이가 있다. 카메라 좌표계는 2D 평면에 표현되는 좌 표로 인식되기 때문에 카메라 좌표계를 월드 좌표계로 변환 [12]하는 과정이 필요하며 이를 위한 주요 과정은 다음 [Table 4], [Figure 7]과 같다.

Table 4. 카메라-월드 좌표계 변환의 주요 단계 설명
단계 설명
(1) 3D Position Tracking 3차원 공간상에서 카메라 움직임에 따라 변경되는 시점의 위치와 특정 대상의 2차원 평면 좌표 분석을 통해 카메라 좌표 정규화
(2) 월드 좌표계 매칭 변환된 투영 좌표를 뷰 좌표로 변환 하여 카메라 원점을 시작 지점으로 하는 광선을 계산하고 이를 피킹 데이터와 동일한 좌표계로 변환하여 월드 좌표계 추정
(3) 각 좌표계 원점 설정 피킹 광선이 교차되는 지점과 동일한 월드 좌표계 설정
Download Excel Table
jkcgs-28-3-125-g7
Figure 7. 카메라-월드 좌표계 변환의 주요 단계 그림
Download Original Figure

변환된 좌표계와 거리 좌표 테이블을 기준으로 다음 단계에 따라 각 부품의 위치를 추정한다.

  • 1) 각 부품의 거리 좌표 테이블을 기준으로 좌표계를 보정 한다.

  • 2) 카메라를 통해 로고의 깊이 값(Depth)과 크기를 위 1)의 보정 수치를 이용하여 핸들을 중심으로 하는 3차원 좌표 계를 생성한다.

  • 3) 기준점(핸들 중앙)으로부터 x, y, z 거리만큼 떨어진 각 부품의 위치를 계산하여 가상버튼을 증강한다.

각 부품 위치에 해당하는 지점에 사용자가 선택할 수 있는 가상의 버튼 객체를 증강하고, 이를 탭하였을 때 기능 설명 을 확인할 수 있도록 구현하면 기본적인 차량용 모바일 AR 매뉴얼이 완성된다.

애플리케이션 실행 시, 사용자가 핸들 중앙의 제조사 로고 를 비추도록 [Figure 8]과 같이 가이드 화면을 표시한다.

jkcgs-28-3-125-g8
Figure 8. 기준점인 핸들 중앙 로고인식을 위한 가이드 화면
Download Original Figure

이후, 딥러닝 학습모델을 통해 기준점이 인식하면 이를 기 준으로 각 부품의 위치에 가상버튼을 증강한다. 메르세데스 -벤츠 C220d 모델에서는 [Figure 9]와 같이 증강되었고, 제 네시스 G80 모델에서는 [Figure 10]과 같이 증강된 모습을 확인할 수 있다. 월드 좌표계를 활용함에 따라 실제 부품의 기울기를 반영하여 증강된 버튼 역시 부품에 맞춰 자연스럽 게 기울어진 형태로 증강됨을 확인할 수 있다.

jkcgs-28-3-125-g9
Figure 9. 메르세데스-벤츠 C220d의 가상버튼 증강
Download Original Figure
jkcgs-28-3-125-g10
Figure 10. 현대자동차 제네시스 G80의 가상버튼 증강
Download Original Figure

사용자가 원하는 가상버튼을 탭 하면 [Figure 11]과 같이 해 당하는 기능의 상세설명을 적절한 이미지, 동영상, 애니메이 션 효과와 함께 안내하여 사용자의 직관적인 이해를 돕는 다.

jkcgs-28-3-125-g11
Figure 11. 증강된 가상버튼 선택 시, 나타나는 기능 설명서
Download Original Figure
2.2 차량 경고등 스캐너

차량용 AR매뉴얼 애플리케이션의 두 번째 기능은 차량 경 고등 스캐너로 설계하였다. 시중에 출고되는 모든 차량은 이상 상태가 감지될 경우 계기판 위에 경고등 신호를 나타 내어 운전자에게 이상 사실을 알린다. 이상 상태에 따라 곧 바로 조치해야 하거나 차량 정비소를 방문해야 하는 위험한 상황이 발생할 수 있으나, 의외로 많은 운전자가 경고등 종 류에 대해 자세히 알지 못한다. 제조사에 따라 다소 차이는 있지만 [Figure 12]와 같이 대부분 50~80종류의 경고등이 존재하기 때문에 이를 모두 외우고 있는 운전자는 많지 않 다. 이 때문에 낯선 경고등 점등 시, 운전자들은 제조사에서 제공하는 책자 매뉴얼을 확인하거나 인터넷 검색을 통해 확 인하는데 여기에도 몇 가지 어려움이 따른다. 책자 매뉴얼 의 경우 차량 내에 비치되어 있지 않다면 확인이 어렵고, 인터넷 검색은 경고등이 대부분 명칭이 아닌 심볼 형태로 점등된다는 점에서 무슨 경고등인지 의미를 알지 못한다면 적절한 검색어를 생각하기 어려울 수 있다.

jkcgs-28-3-125-g12
Figure 12. 차량에서 발생 가능한 수많은 경고등 예시
Download Original Figure

이를 위해 앞서 구현한 AR매뉴얼에 경고등을 비추면 이를 인식하여 적절한 대처 방법을 안내하는 기능을 추가하였다. 위 2.1의 실험에서 진행한 딥러닝 학습모델에 추가적인 이 미지 학습을 진행하여 차량에서 발생할 수 있는 주요 경고 등 이미지를 인식할 수 있도록 하였다. 본 논문에서는 인식 의 정확도와 속도 개선, 사용성 향상 정도의 테스트를 주목 적으로 하므로, 즉시 조치해야 하거나 발생 빈도가 높은 3 개의 경고등(엔진 이상 경고등, 타이어 공기압 이상 경고등, 안전벨트 미착용 경고등)만 그 대상으로 진행하였다. 학습 에는 직접 촬영한 889장의 이미지를 활용하였다.

jkcgs-28-3-125-g13
Figure 13. 본 실험에서 인식 대상으로 설정한 차량 경고등
Download Original Figure
jkcgs-28-3-125-g14
Figure 14. 이미지 학습에 사용한 경고등 이미지 (889장)
Download Original Figure

2.1의 실험에서 구현한 모바일 애플리케이션에 별도의 메뉴 를 추가하고, 이를 선택하면 경고등 인식을 위한 카메라 화 면이 표시되도록 구현하였다. 여기에 실제 차량의 경고등을 비추면 딥러닝 학습모델을 활용하여 학습된 경고등을 자동 으로 인식하여 대처 방법을 안내한다.

앞서 사용자에게 핸들 인식을 유도하기 위해 삽입했던 가이 드 레이어는 적용하지 않았고, 카메라를 통해 계기판을 비 추면 입력되는 이미지 전체를 대상으로 경고등 심볼을 찾아 내는 방식으로 구현하였다. 데이터 학습 과정과 이미지 인 식 과정은 위 2.1의 실험 과정과 같으므로 구현 후 테스트 한 결과만 살펴본다.

jkcgs-28-3-125-g15
Figure 15. 딥러닝 모델을 활용한 경고등 인식 테스트 화면
Download Original Figure

핸들의 제조사 로고보다는 매개변수로 입력되는 이미지가 더 복잡하고 인식 대상의 특징점 추출이 상대적으로 낮은 관계로 추정률은 다소 낮게 측정되었다. 대략 80~90% 사이 의 추정률이 관찰되나(차량 핸들은 90~95%) 경고등 인식과 식별 자체는 문제가 없으므로 사용성에 영향을 미칠 범주는 아니라고 판단된다.

경고등 인식 정확도와 속도에 대해 정량적 성능측정과 개선 효과를 확인하기 위해 기아자동차에서 제공하는 유사 서비 스와 동일 환경에서 테스트한 후, 이를 비교하였다. 기아자 동차에서는 차량 구매자들이 사용할 수 있는 공식 모바일 애플리케이션[13]에서 심볼 스캐너라고 하는 기능을 제공하 고 있으며, 이 기능은 경고등이 아닌 차량 내 주요 버튼 위 에 그려진 심볼을 인식하여 안내한다. 경고등이 아니기 때 문에 완전히 동일한 대상으로 비교 실험을 진행할 수 없지 만, 계기판 상의 경고등을 직접 스캔하는 기능을 제공하는 제조사는 찾지 못하여 가장 유사한 기아자동차 심볼 스캐너 를 비교 대상으로 선정하였다.

본 연구 결과물의 애플리케이션과 기아자동차 애플리케이션 의 성능 비교는 같은 횟수의 심볼 인식을 시도했을 때 정확 하게 인식한 건수와 인식하여 최종 화면을 표시하는 데까지 걸리는 시간을 비교하였다.

직접 구현한 애플리케이션은 구글 개발자 사이트(Google Developers)에서 제공하는 실시간 앱 성능 모니터링 도구 인 [Firebase Performance Monitoring] SDK[14]를 안드로 이드 소스 코드에 적용하여 측정하였고, 기아자동차 애플리 케이션은 타사 앱인 관계로 모니터링 툴을 소스코드에 직접 적용할 수 없어 별도 스마트폰의 타이머를 통해 측정하였 다.

측정은 10회씩 경고등/심볼 인식을 시도하여 총 3세트(총 30회)로 진행하였으며 그 결과는 아래 [Table 5]와 같다.

Table 5. 기아차 심볼스캐너 기능과의 비교 테스트 결과
성능지표 차수 본 연구 결과물 심볼 스캐너
인식 정확도 (차수별 10회) 1차 10건 탐지 9건 탐지
2차 9건 탐지 9건 탐지
3차 10건 탐지 7건 탐지
인식 속도 (평균) 1차 약 0.5초 (511ms) 평균 약 1.5초
2차 약 0.5초 (513ms) 평균 약 1.5초
3차 약 0.5초 (510ms) 평균 약 1.5초
Download Excel Table

기아차 심볼 스캐너 역시 이미 상용화하여 소비자들에게 공 급되는 서비스인만큼 뛰어난 정확도를 보였고, 직접 사용하 기에는 불편함을 못느낄 정도의 인식 속도를 보였다. 하지 만 인식 정확도와 속도, 두 가지 측면에서 모두 미묘한 차 이지만 본 연구 결과물 애플리케이션이 더 높게 측정되었으 며 세 차례 시도에서 모두 같게 나타났다.

2.3 사용성 테스트

구현한 애플리케이션의 실제 사용성 평가와 기존 책자/지류 차량 설명서와의 비교를 위해 운전경력이 있는 사용자 20명 을 대상으로 사용성 테스트(Usability Test)를 진행하였다. 주요 진행 절차는 [Table 6]과 같으며, 테스트 문항은 [Table 7]의 정보로 구성하였다.

Table 6. 사용성 테스트(Usability Test) 주요 진행 절차
(1) 시나리오 작성 (2) 참가자 구성 (3) 테스트 실시 (4) 결과도출 및 분석
Download Excel Table
Table 7. 사용성 테스트 문항 구성 정보
구분 질의 목적 및 내용 문항 수
사전 설문 차량 주요 기능에 대한 배경지식 조사 7
기존 지류 설명서의 이용 경험 및 사용성 4
차량 기능에 대한 정보 습득 방식 1
APP 사용성 본 연구 결과물 APP의 사용성 및 정확도 7
비교우위 기존 매뉴얼과의 사용성·성능 우위 비교 5
Download Excel Table

사용성 테스트 방식은 사전 설문, APP 사용성 만족도, 기존 의 타 매뉴얼과 비교하여 성능·사용성 우위 평가항목으로 구성된 선택형(5지 선다) 문항의 설문조사를 진행하고 그 결과에 대해 통계를 추출하는 리커트 척도(likert-scale) 방식[15]을 적용했다.

사용성 테스트에 참여한 인원은 운전경력 보유자 (5년 이 하~40년 이상) 20명을 대상으로 진행하였다.

jkcgs-28-3-125-g16
Figure 16. 실험에 사용한 사용성 테스트 설문지 (일부)
Download Original Figure

테스트 진행 결과, 도출된 주요 결과는 다음과 같다.

  • 1) 차량 주요 기능에 대한 배경지식은 운전경력에 반드시 비례하지 않으며 자주 사용하는 기능 위주로 숙련도가 높다.

  • 2) 차량 취급설명서(책자/지류)의 이용 경험은 모두 있지만 (20명 중 20명), 휴대성·정보 탐색 접근성·복잡성 측면에 서 대부분 부정적으로 인식하고 있다. (평균 2.35점 / 5 점 만점)

  • 3) 차량 기능에 대한 주요 정보습득 경로는 모바일 인터넷 검색 이용 (20명 중 17명)과 지인에게 물어보는 경우(20 명 중 14명)가 가장 많고, 기존 차량 취급 설명서(지류 20명 중 2명, 공식 APP 20명 중 1명)를 이용하는 경우는 거의 없다.

  • 4) 본 연구 결과물 APP의 전반적인 사용성 만족도는 평균 4.39점(5점 만점)으로 긍정적이다.

  • 5) 기존의 책자·지류 매뉴얼, 타 차량 매뉴얼 APP과 비교하 였을 때, 증강현실(AR) 이용 방식과 정보 접근성, 딥러닝 인식 정확도 측면에서 평균 4.62점(5점 만점)으로 매우 우수한 결과를 얻었다.

Table 8. 사용성 테스트 문항 응답 결과
구분 문항 및 평균 점수 (5점 만점)
사전 설문 차량 주요 기능에 대한 배경지식 3.48
기존 지류 설명서의 이용 경험 및 사용성 2.35
차량 기능에 대한 정보습득 방식
방식 및 응답 수 (복수응답)
인터넷 검색 (PC) 8
인터넷 검색 (모바일) 17
차량 매뉴얼 (지류) 2
차량 매뉴얼 (공식 APP) 1
지인에게 물어봄 14
고객센터 문의 5
기타 1
APP 사용성 구성된 주요 메뉴/기능은 APP을 사용하고자 하는 목적에 적합한가요? 4.40
별도의 설명서나 교육 없이도 충분히 사용할 수 있을만큼 범용적인가요? 3.90
차량 핸들 로고인식의 정확도는 불편함을 느끼기 어려울 정도로 잘 동작하였나요? 4.45
APP 내에서 증강되는 가상버튼의 위치는 실제 차량 부품의 위치와 일치하였나요? 4.45
가상버튼 클릭 시 안내되는 기능설명의 내용은 이해하기 쉽도록 구성되었나요? 4.30
차량 경고등 인식의 정확도는 불편함을 느끼기 어려울 정도로 잘 동작하였나요? 4.80
차량 경고등 인식 후 안내되는 설명/대처방법의 내용은 이해하기 쉽도록 구성되었나요? 4.40
전체 평균 점수 4.39
비교 우위 증강현실(AR)을 이용하는 방식이 필요한 정보를 찾는데 더 편리하였다. 4.65
필요할 때, 원하는 정보를 찾고 해결하는 시간이 단축되었다. 4.65
안내되는 정보가 복잡하지 않고 쉽게 이해할 수 있도록 직관적이었다. 4.30
원하는 경고등의 의미와 대처방법을 찾는 데 더 편리하였다. 4.80
실제 APP으로 출시된다면 차량의 지식보조 수단으로써 활용가치가 있다고 생각하시나요? 4.70
전체 평균 점수 4.62
Download Excel Table

본 연구 결과물 APP의 사용성 측면과 기존 지류 매뉴얼의 대체 가능성 측면에서 긍정적인 결과가 도출되었고, 특히 딥러닝이 적용된 증강현실 객체의 3차원 정합도와 인식 정 확도, 속도 측면에서도 불편함을 느끼지 못할 정도의 성능 을 보여주었다. 비록 실제 상용화를 위해서는 더 많은 고도 화 개발과 추가적인 기능을 지원해야 하겠지만, 본 논문에 서 진행한 실험연구의 목적은 달성한 것으로 판단한다.

3. 결론

본 논문에서는 가상 콘텐츠 증강의 정합성 향상을 위해 기 준점을 설정하고 이를 통해 주요 부품의 위치를 산출하였 다. 본 실험의 핵심인 기준 좌표 인식부의 경우 딥러닝 모 델을 통해 로고의 기울기와 회전 각도가 크게 달라져도 95% 이상의 정확도를 보였으며, 특히 낮과 밤, 야외 또는 실내(지하주차장), 차량 실내등 점등 여부, 스마트폰 플래시 점등 여부 등 운전자가 처할 수 있는 다양한 환경에서 일관 된 성능을 보였다. 더 많고 양질의 데이터셋을 확보한다면 이 수치는 더 올라갈 것으로 예상된다. AR 버튼 증강 시에 도 단순 2차원 평면이 아닌, 대상의 실제 공간좌표(World Coordinate)를 인식하여 증강하기 때문에 위 [Figure 10]과 같이 부품 기울기에 따라 가상버튼이 비스듬하게 증강되어 사용자에게 더 자연스러운 AR 경험을 제공할 수 있다.

본 실험에서는 벤츠와 제네시스 두 가지의 차량으로 한정 지어 진행했지만, 차량의 핸들 위치와 내부 주요 부품에 대 한 위치는 제조사나 차종과 관계없이 대부분 비슷하고 경고 등 역시 크게 다르지 않으므로 해당 애플리케이션의 확장성 을 넓히기 위한 프로그램 개발 작업은 크지 않다. 오히려 프로그램 수정보다 추가 학습에 필요한 이미지셋 확보를 위 한 노력과 차종별 부품 간 거리 측정에 더 큰 시간이 필요 할 것이다. 만약 지원 차량 모델을 넓혀 실제 상용화한다고 가정하면 아래와 같은 추가작업이 필요하다.

  • 1) 벤츠, 제네시스 이외의 제조사/모델 로고 이미지 학습

  • 2) 차종별 주요 부품 위치에 대한 좌표 거리 테이블 추가

  • 3) 실험에 진행한 세 종류 이외의 경고등 이미지 학습

딥러닝을 활용한 차량 경고등 스캐너 역시, 이미 상용 중인 대기업의 공식 애플리케이션과 비교하게 비슷하거나 우위의 성능을 보인다는 점에서 긍정적인 실험 결과로 보인다. 여 기에 모든 차량 경고등을 대상으로 추가 학습을 진행하여 제공한다면 운전자들이 비상시에도 유용하게 활용할 수 있 을 것으로 기대되며 많은 운전자가 필요하다고 응답했던 휴 대용 차량 매뉴얼로서의 기능을 더욱 높일 수 있을 것으로 기대된다.

부록

본 실험 결과물에 대한 사용성 테스트(UT)를 위해 작성한 설문조사 양식은 아래 [Figure 17]과 같다.

jkcgs-28-3-125-g17
Figure 17. 실험에 사용한 사용성 테스트 설문지 (전체)
Download Original Figure

Acknowledgments

본 연구는 과학기술정보통신부 및 정보통신기획평가원의 SW중심대학사업의 연구결과로 수행되었음(2018-0-00209)

References

[1].

김보성, 송오영.(2021).Unity MARS를 이용한 증강현실 기반 불 특수효과 콘텐츠 개발.한국컴퓨터그래픽스학회 학술대회,(),38-39.

[2].

강태석, 이동연, 김진모.(2020).CLO 3D와 Vuforia를 활용 한 증강현실 기반 디지털 패션 콘텐츠 제작.컴퓨터그래 픽스학회논문지,26(3),21-29.

[3].

Oh Sung-hwan, Kiduk Kim.(2013).Study on Establishment of Deoksugung Palace, Tourist Information Services using Augmented Reality(AR) Technology.문화재,46(2),26-45.

[4].

정지정, 이광, 김봉근.(2017).3차원 비콘 위치측정을 이용 한 마커기반 증강현실의 안정적 서비스에 관한 연구.한 국전자통신학회,12(5),883-890.

[5].

송주은, 국중진.(2021).Visual SLAM 기반의 모바일 증강 현실 시스템 구축.한국반도체디스플레이기술학회,20(4),96 -101.

[6].

한국소비자원.(2020).자동차 휴대용 취급설명서 표준화. 안전보고서,(),1-35.

[7].

권오흠, 정명환, 송하주.(2017).스마트폰을 이용한 물체의 3차원 위치 추정 기법.멀티미디어학회논문지,20(8),1200-1 207.

[8].

YOLOv5 Documentation, Retrieved Dec., 30, 2021, from https://docs.ultralytics.com/#yolov5

[9].

김익수, 이문구, 전용호.(2021).결함검출 적용을 위한 YO LO 딥러닝 알고리즘 비교.한국생산제조학회지,30(6),514-519. [10] 이용환, 김영섭.(2020).객체 검출을 위한 CNN과 YOLO 성능 비교 실험.한국반도체디스플레이기술학회,19(1),85-92.

[10].

이용환, 김영섭.(2020).객체 검출을 위한 CNN과 YOLO 성능 비교 실험.한국반도체디스플레이기술학회,19(1),85-92.

[11].

TensorFlow Lite | ML for Mobile and Edge Devices, Retr ieved Dec., 30, 2021, from https://www.tensorflow.org/lite

[12].

Calculate X, Y, Z Real World Coordinates from Image C oordinates using OpenCV, Retrieved Apr., 5, 2022, from https://www.fdxlabs.com/calculate-x-y-z-real-world-coordinates-from-a-single-camera-using-opencv/

[13].

KIA Owner’s manual (Google Play APP), Retrieved Dec., 30, 2021, from https://play.google.com/store/apps/details?id=com.kia.mowners.p

[14].

Performance Monitoring | An app performance monitoring tool | Firebase, Retrieved Apr., 5, 2022, from https://firebase.google.com/products/performance

[15].

Ankur Joshi, Saket Kale, Satish Chandel, D. K. Pal.(2015).Likert Scale: Explored and Explained. Current Journal o f Applied Science and Technology,7(4),396-403.

<저 자 소 개>

박 진 호

jkcgs-28-3-125-g18

  • 1999년 KAIST 수학과 졸업(이학사)

  • 2001년 KAIST 응용수학과 졸업(이학 석사)

  • 2007년 KAIST 전산학과 졸업(공학박사)

  • 2013년~현재 숭실대학교 글로벌미디어학부 교수

  • 2018년~현재 ㈜ 디거 대표

  • 관심분야: 컴퓨터 그래픽스, 증강현실, 인공지능

이 정 민

jkcgs-28-3-125-g19

  • 2012년 명지전문대학 졸업 (전문학사)

  • 2015년 국가평생교육진흥원 학사 취득 (공학사)

  • 2022년 숭실대학교 대학원 IT융합학과 석사 취득 (공학 석사)

  • 2012년 ~ 2019년 (주)애드캡슐소프트 재직 (개발팀장)

  • 2020년 ~ 현재 주식회사 딥파인 재직 (CTO)

  • 관심분야 : 확장현실(XR), 증강현실(AR), 인공지능, 딥러닝, 웨어러블 디바이스

김 준 학

jkcgs-28-3-125-g20

  • 2008년 계원예술대학교 졸업 (전문학사)

  • 2008년 ~ 2020년 (주)애드캡슐소프트 재직 (UI/X 디자이너)

  • 2020년 ~ 현재 주식회사 딥파인 재직 (프로덕트 디자이너)

  • 관심분야 : 확장현실(XR), 증강현실(AR)

석 정 원

jkcgs-28-3-125-g21

  • 2020년 ~ 현재 주식회사 딥파인 재직 (AR 엔지니어)

  • 2023년 광운대학교 소프트웨어융합학과 졸업 예정 (학사)

  • 관심분야 : 확장현실(XR), 증강현실(AR)