Article

초박형 라이트필드 카메라를 위한 깊이 추정 알고리즘 개발

나지웅1https://orcid.org/0000-0002-9685-1146, 차영길2https://orcid.org/0009-0008-8758-9781, 임태윤3https://orcid.org/0000-0002-3749-7570, 조용진3https://orcid.org/0009-0007-5637-3489, 정기훈2https://orcid.org/0000-0003-4799-7816, 김민혁1,*https://orcid.org/0000-0002-5078-4005
Jiwoong Na1https://orcid.org/0000-0002-9685-1146, Young-Gil Cha2https://orcid.org/0009-0008-8758-9781, Taeyoon Lim3https://orcid.org/0000-0002-3749-7570, Yongjin Jo3https://orcid.org/0009-0007-5637-3489, Ki-Hun Jeong2https://orcid.org/0000-0003-4799-7816, Min H. Kim1,*https://orcid.org/0000-0002-5078-4005
Author Information & Copyright
1한국과학기술원 전산학부
2한국과학기술원 바이오및뇌공학과
3LIG 넥스원 주식회사
1KAIST School of Computing
2KAIST Department of Bio and Brain Engineering
3LIG Nex1 Co., Ltd
*corresponding author: Min H. Kim/KAIST School of Computing(minhkim@vclab.kaist.ac.kr)

© Copyright 2024 Korea Computer Graphics Society. This is an Open-Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (http://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

Received: Aug 06, 2024; Revised: Sep 02, 2024; Accepted: Sep 20, 2024

Published Online: Dec 01, 2024

요약

본 연구에서는 깊이 추정을위한 초박형 다중 조리개 라이트필드 카메라 시스템과 알고리즘을 개발하였다. 장면의 깊이 추정 은 컴퓨터 비전에서 응용 범위가 넓은 기술로, 단안 깊이 추정, 스테레오 깊이 추정으로 나눌 수 있는데, 일반적으로 절대적인 수치의 깊이 추정을 위해서 시차 정보가 있는 스테레오 깊이 추정이 필요하다. 스테레오 깊이 추정을 위해 카메라 사이의 거리를 알고 있는 두 대 이상의 카메라로 한 장면을 촬영하고, 해당 이미들을 기반으로 추정하기 때문에 별도의 카메라 시 스템이 필요하다. 이를 용이하게 하는 대표적인 카메라 시스템으로 라이트필드 카메라 시스템이 존재하는데, 이는 복잡한 카메라 시스템이라는단점이 존재한다. 본 연구에서 사용한 카메라 시스템은 IMX477 센서 위에 3가지 다른 조리개 크기의 9 개 렌즈로 구성되어 있어 한 번의 촬영으로 다중 시점 이미지를 촬영할 수 있다. 이는 본래 HDR을위해 설계된 렌즈 구조로 다양한크기의조리개구조를기반으로하여한번의촬영을통해여러이미지를HDR합성하기위한카메라구조이다.그러나 각 렌즈별로 위치가 다르기 때문에 그 위치 차이에서 발생하는 시차를 기반으로 깊이 추정이 가능하다. 이러한 구성을 통해 작고가벼운 카메라 시스템으로 거리 추정이 가능하다.

Abstract

In this study, we developed an ultra-thin multi-aperture light field camera system and algorithms for depth estimation. Depth estimation is a field that can be utilized broadly. It can be classified into monocular depth estimation, and stereo depth estimation. Generally, in order to acquire absolute-valued depth estimation, stereo depth estimation, based on the disparity informtion, is needed. For stereo depth estimation, we need to capture the scene using at least two cameras, with known baseline, then process the images to get the depth map. Therefore, we need a specific camera system for this task. In this research, the camera system, comprising 9 lenses with 3 different aperture sizes on an IMX477 sensor, captures multi-view images in a single shot. This setup enables the extraction of depth information using stereo matching techniques. Despite challenges related to noise and distortion due to the compact design and lack of an objective lens, our approach demonstrates the potential for accurate depth estimation. Future improvements in manufacturing and lens design are expected to enhance the image quality and depth estimation accuracy further.

Keywords: 라이트필드 카메라; 다중 시점 카메라; 깊이 추정
Keywords: light field camera; multi-view camera; depth estimation

1 서론

컴퓨터 비전에서 깊이 추정(Depth Estimation)은 이미징 시스템 을 통해 획득한 영상에서 객체나 장면의 깊이 정보를 추출하는 기 술로 그 응용 범위가 넓다 [1]. 일반적으로 깊이 추정은 단안 깊이 추정(Monocular Depth Estimation)과 스테레오 깊이 추정(Stereo Depth Estimation)으로 나눌 수 있다. 스테레오 깊이 추정은 두 개 이상의 카메라로 촬영된 이미지 간의 시차(Disparity)를 이용 하여 깊이를 추정하는 방법으로, 수학적 모델을 이용하여 정확한 이미지 시차를 기반으로 절대적인 수치의 추정이 가능하다. 그러 나 최소 두 장의 사진이 필요하기에 움직이는 장면에서의 깊이 추정을 위해서는 여러 대의 카메라를 이용하여 한 번에 촬영하는 기술이 필요하다. 단안 깊이 추정은 단일 이미지에서 딥러닝 등 을 이용하여 깊이 맵을 획득하는 방법으로 한 장의 이미지만으로 구현이 가능하지만 시차 정보가 존재하지 않아 깊이의 절대적인 수치를 알 수 없기에 상대적인 비교만이 가능하다.

스테레오 깊이 추정을 위해 라이트필드 카메라(Light Field Camera)를 이용하면 다양한 시점 이미지를 이용하여 보다 정확 한 깊이 맵을 획득할 수 있다. 라이트필드 카메라는 다수의 카메 라를 지지대에 배치하여 제작하거나, 렌즈 어레이를 이용하여 구 성하는 카메라 시스템으로 빛의 세기 정보와 각도 정보를 동시에 획득할 수 있기 때문에 다양한 응용이 가능하다. 그러나 일반적인 라이트필드 카메라의 경우 크기가 크고 여러 대의 카메라가 필요 하기 때문에 그 기능이 공간적으로 제한되며, 장면을 촬영하기 위한 비용이 크다는 단점이 있다.

본 연구에서는 한 센서 위에 마이크로렌즈 어레이를 배치하여 제작한 초박형 라이트필드 카메라를 기반으로 손 쉽게 획득한 다 중 시점 이미지에 스테레오 깊이 추정 기술을 적용하였다. 기존의 라이트필드 카메라와 달리, 본 연구에서 제작한 초박형 라이트필 드 카메라는 한 개의 센서를 이용하기 때문에 여러 카메라 센서의 동기화 과정이 필요하지 않으며, 시스템 크기의 간소화를 기반으 로 경량화되었다. 또한 그 무게가 가벼워 휴대성을 높인 시스템을 제작하였다. 본래 HDR을 위하여 설계된 이 카메라는 한 번의 촬 영으로 다양한 노출값의 이미지를 획득하여 이를 기반으로 HDR 합성을 진행하기 위해 제작되었지만, 기존의 연구에서는 각 렌 즈의 위치가 다르다는 것을 충분히 고려하지 못했다. 서로 다른 렌즈 위치에서 기인하는 이미지 시차를 계산하기 위해 스테레오 매칭을 적용할 수 있다. 이를 통해 최소 두 장의 이미지가 필요한 스테레오 깊이 추정을 최소 네 쌍의 이미지를 기반으로 시행할 수 있었고, 이를 위한 사진 또한 적은 비용으로 한 번의 촬영을 통해 획득할 수 있었다.

2 연구 배경

2.1 깊이 추정

컴퓨터 비전에서 깊이 추정(Depth Estimation)은 촬영 장면의 객 체나 장면 자체의 깊이 정보를 추출하는 기술이다 [2, 3]. 깊이 추정 기법은 크게 스테레오 깊이 추정과, 단안 깊이 추정으로 분 류할 수 있는데, 스테레오 깊이 추정은 사람이 원근을 구별하는 것과 같은 방식인 시차를 이용하는 방식이다. 같은 물체를 다른 시점에서 촬영한 두 영상은 해당 물체에 대해 시차가 생기게 되는 데, 이 시차는 물체와의 거리가 가까울수록 커지게 되며, 반대로 물체와의 거리가 멀수록 시차는 작아지게 된다. 이를 수학적으로 계산하면 두 장 이상의 이미지를 기반으로 장면의 깊이 맵을 획 득할 수 있다. 이 방법의 경우 최소 두 장의 이미지가 필요하기 때문에 이를 위한 카메라 시스템이 필요하며, 두 카메라 사이의 거리도 캘리브레이션이 필요하다.

이와 달리 단안 깊이 추정의 경우 한 장의 이미지를 기반으로 딥러닝 기법 등을 이용하여 깊이 맵을 획득하는 방식으로 최근 활발한 연구가 진행되고 있다 [4, 5]. 이 기법의 경우 한 장의 이 미지만이 필요하기 때문에 추가적인 카메라 시스템의 구축이 불 필요하다는 장점이 있지만, 정확한 시차의 정보를 기반으로 한 방법이 아니기 때문에 상대적인 깊이 맵만을 획득할 수 있다.

2.2 라이트필드 카메라

라이트필드 카메라(Light Field Camera)는 빛의 세기와 방향 정 보를 모두 획득할 수 있는 카메라 시스템으로 일반적인 카메라와 달리 다수의 카메라 배열, 또는 단일 센서 위의 렌즈 배열을 이 용하여 빛의 방향과 세기를 기록한다 [6, 7, 8]. 라이트필드 카메 라는 공간적 위치와 각도 정보를 동시에 획득할 수 있어, 후처리 과정을 통해 다양한 응용이 가능한데 대표적으로 초점의 깊이를 재구성할 수 있다.

라이트필드 카메라의 경우 두 장이 넘는 다중 시점 이미지를 촬영하기 때문에 스테레오 깊이 추정에 유리하지만, 다수의 카메 라를 배치하는 시스템으로 인해 사용면에 있어 공간적인 한계가 존재하고, 시스템 구축에 큰 비용이 든다. 이를 보완하기 위한 방 안으로 한 개의 센서 위에 렌즈 어레이를 배치한 소형 라이트필드 카메라도 존재한다 [8].

본 연구에서는 한 개의 센서 위에 마이크로 렌즈 어레이를 부착 하여 제작한 초박형 라이트필드 카메라를 이용하였다. 기존의 연 구 [9]에서 이 카메라는 HDR 합성을 위해 설계된 것으로 다양한 노출값을 가진 조리개를 기반으로 하여 다른 노출의 이미지를 한 번의 촬영으로 획득하고 이를 합성하여 HDR 이미징을 구현하였 지만 해당 연구에서는 각 렌즈의 위치가 다르기 때문에 발생하는 시차를 충분히 고려하지 못했다. 정확한 이미지 합성을 위해서는 시차를 계산하여 이를 재배치 한 이후 합성하는 것이 중요하다. 또한 이러한 시차 계산 과정을 통해 깊이 추정 또한 가능하다. 이러한 배경에서 본 연구에서는 초박형 라이트필드 카메라를 기 반으로 다 중시점 이미지를 획득하고 해당 이미지들을 기반으로 스테레오 깊이 추정을 진행하였다. 또한 노이즈가 존재하는 이 미지를 보완하기 위하여 guided filter [10] 기법을 적용하고, 깊이 맵을 융합하는 과정을 통해 그 정확도를 높이는 연구를 진행하였 다 [11].

3 알고리즘

3.1 카메라 시스템
3.1.1 카메라 하드웨어

초박형 라이트필드 카메라는 한 개의 센서 위에 렌즈 어레이를 설 치하여 제작되었으며 센서는 IMX477 센서를 사용하였다. 렌즈 배열은 3×3 그리드 형태로 구성되어 있으며, 다양한 조도 환경에 서의 촬영이 가능하도록 다양한 조리개 값의 렌즈가 배치되었다.

IMX477 센서 보드는 USB 어댑터를 통해 NVIDIA Jetson Orin AGX에 연결된다. 카메라 시스템의 소형화를 위하여 소형 컴퓨터 에 연결하였으며, 이후 해당 소형 컴퓨터를 통하여 이미지 처리를 진행할 수 있도록 하였다.

3.1.2 카메라 보정

초박형 라이트필드 카메라는 별도의 대물 렌즈를 사용하지 않고 단일 렌즈를 이용하기에 촬영된 이미지의 품질이 낮고 노이즈가 많이 발생하는 문제가 있다. 이러한 문제를 해결하기 위해 동일 한 카메라 시스템을 사용했던 연구에서와 같이 [9] 카메라 보정을 통해 각 sub-aperture 이미지의 품질을 향상시키고 사용하기에 용 이한 형태의 이미지를 획득하였다 [9].

먼저, 렌즈 비네팅 보정을 수행하여 렌즈 주변부로 갈수록 감소 하는 밝기를 조정한다. 이를 위해 흰색 패널 이미지를 캡처하고, 중심과 주변부의 밝기 차이를 계산하여 각 렌즈에 대한 보정 값을 적용한다. 이를 통해 이미지 밝기를 균일하게 조정할 수 있다.

다음으로, 광시야각 렌즈의 특성으로 인해 발생하는 radial distortion을 보정한다. 이를 위해 체커보드 이미지를 캡처하여 왜 곡 보정 계수를 계산한다. radial distortion 보정은 다음 수식 [2] 을 통해 이루어진다:

r 2 = x 2 + y 2 , x = x ( 1 + k 1 r 2 + k 2 r 4 + k 3 r 6 ) , y = y ( 1 + k 1 r 2 + k 2 r 4 + k 3 r 6 ) .
(1)

여기서 x′와 y′는 보정 전의 이미지 좌표, xy는 보정 후의 이미 지 좌표를 나타내며, k1, k2, k3는 보정 계수이다. 이 계수들은 보 정 과정에서 캡처된 체커보드 이미지를 통해 얻어진다. 이후 왜곡 보정을 통해 이후 태스크에 용이한 이미지를 획득할 수 있다.

3.2 깊이 추정
3.2.1 다중 시차 맵과 필터링

렌즈 배열 디자인을 활용하여, 서로 다른 이미지 쌍에서 스테레 오 시차 맵 알고리즘을 여러 번 적용해 다중 시차 맵을 얻을 수 있다. 본래 이와 같은 사진을 획득하기 위한 라이트필드 카메라 시스템의 경우, 그 하드웨어 시스템으 크기가 크고 카메라들의 동기화 등 작업이 필요하지만 본 연구에서 제작한 카메라의 경우 한 개의 센서위에 장착된 렌즈 어레이를 이용하기 때문에 동기화 문제가 없으며 하드웨어 시스템 또한 매우 작은 크기를 가지고 있다. 이를 이용하여 한 대의 카메라 보드만 연결한 상태에서 깊 이 추정을 위한 다중 시점 이미지를 한 번의 촬영을 통해 획득할 수 있다. 이러한 시스템을 기반으로 네 개의 중간 노출 조리개 렌 즈를 사용하여 두 개의 수직 시차 맵과 두 개의 수평 시차 맵, 총 네 개의 시차 맵을 얻을 수 있다. 또한, 두 개의 저노출 조리개 렌 즈와 두 개의 고노출 조리개 렌즈로부터 각각 추가적인 두 개의 시차 맵을 얻을 수 있다. 따라서 이 렌즈 배열 디자인을 기반으로 총 6개의 시차 맵을 획득할 수 있다. 이 방법을 위한 렌즈 조합은 Figure 1에 나와 있다. 이때 각 이미지에서 시차 맵을 얻는 기법으 로 Stereo SGBM [12]을 사용하였다.

jkcgs-30-5-11-g1
Figure 1: Disparity map fusion pairs.
Download Original Figure
jkcgs-30-5-11-g2
Figure 2: Camera board with micro lens array, NVIDIA AGX Orin, and the total system
Download Original Figure

초기 캡처된 이미지가 노이즈가 많기 때문에, 시차 맵 또한 노 이즈가 많다. 원본 이미지 정보를 기반으로 시차 맵을 개선하기 위해 guided filter [10]를 사용하여 엣지 정보를 반영하는 시차 맵 을 얻는다. 이때 시차맵 개선을 위하여 사용된 reference 이미지는 시차 맵을 획득하기 위해 사용되었던 gray scale을 이용하였다. Figure 3은 원본 이미지와 함께 guided filter가 적용된 시차 맵을 보여준다.

jkcgs-30-5-11-g3
Figure 3: Guided filtered disparity map.
Download Original Figure
3.2.2 카메라 스테레오 보정 및 깊이 맵

이러한 방법으로 획득한 시차 값은 초점 거리와 캡처 과정에서 사 용된 카메라의 baseline을 이용하여 깊이 값으로 변환할 수 있다. 변환 식 [2]은 다음과 같은데

Z = f T d ,
(2)

이때, Z가 깊이 값, f 는 초점 거리, T 는 baseline이며, disparity d 는 양안 시차(xlxr)를 의미한다. 렌즈 어레이에서 각 렌즈의 정확한 초점 거리와 시차 맵 쌍의 기준선을 얻기 위해 스테레오 카메라 보정을 진행하였다. 보정을 위해 8 × 5 형태의 체스보드 이미지를 여러 장 캡처했으며, 정확한 보정을 위해 127장의 체스 보드 사진을 촬영했다. Figure 4은 보정을 위한 체스보드 사진의 예를 보여준다. 보정 후, 렌즈 쌍 간의 기준선과 초점 거리를 사용 하여 시차 맵을 깊이 맵으로 변환한다. 시차 맵과 그로부터 얻은 깊이 맵은 Figure 5에 나와 있다.

jkcgs-30-5-11-g4
Figure 4: Chessboard images for stereo calibration.
Download Original Figure
jkcgs-30-5-11-g5
Figure 5: Disparity map and depth map.
Download Original Figure
3.2.3 깊이 맵 융합

단일 렌즈 구조를 사용하는 렌즈 어레이와 렌즈 크기, 그리고 대 물 렌즈의 부재로, 이미지에는 노이즈가 많으며, 이는 각 장면의 시차 맵과 깊이 맵에서도 노이즈가 많다. 깊이 맵의 품질을 개선 하기 위해, 여러 깊이 맵을 하나의 깊이 맵으로 융합한다. 세 가지 다른 조리개 크기 때문에 시차 맵의 품질도 다양하다. 이러한 다 양한 노출을 활용하기 위해, 노출 가중치를 기반으로 이미지를 융합하였다. 가중치 함수는 Mertens et al.[11]의 노출 융합 알고 리즘을 기반으로 한다. 노출 융합 알고리즘에서 가중치 함수는 contrast, saturation, well-exposedness를 활용한다. 이 연구에서는 흑백 이미지를 사용하였기 때문에 가중치에는 saturation 항목을 사용하지 않는다. 또한, 노출 융합 알고리즘에서 융합할 대상 이 미지와 가중치 추출을 위한 이미지는 동일하다. 이 방법에서는 각 노출 이미지로부터 가중치를 추출하고, 해당 가중치를 기반으로 시차 맵을 융합한다. Figure 6은 깊이 맵 융합 전의 단일 깊이 맵 과 융합된 깊이 맵을 보여준다. 두 저노출 렌즈의 모든 깊이 맵이 적절하지 않고 노이즈가 많기 때문에, 깊이 맵 융합 과정에서는 중간 노출 렌즈와 고노출 렌즈의 깊이 맵만 융합한다.

jkcgs-30-5-11-g6
Figure 6: Depth map fusion.
Download Original Figure

4 결과

제안된 방법을 기반으로, 장면의 깊이 맵을 Figure 7와 같이 얻을 수 있다. 깊이 맵의 정확도 비교를 위한 Ground truth 깊이 맵이 없기 때문에, 캡처된 장면에서 일부 객체의 실제 깊이를 레이저 측정을 통해 측정하였다. 이러한 측정에 기반하여, 추정된 깊이 맵을 측정된 객체에 해당하는 픽셀 내에서 실제 깊이와 비교하였 다. Table 1은 추정된 깊이 맵의 평가 결과를 보여준다.

jkcgs-30-5-11-g7
Figure 7: Depth map with object depth label.
Download Original Figure
Table 1. Depth map evaluation.
Comparison of estimated object depth and actual depth
Actual Estimated Error(cm) Error(%)
Scene 1 8.1 8.8 0.7 8.64
12.0 13.5 1.5 12.5
13.5 14.4 0.9 6.67
14.5 16.9 2.4 16.6
23.3 24.2 0.9 3.86
Scene 2 10.2 12.5 2.3 22.55
13.2 13.0 -0.2 -1.52
21.4 22.0 0.6 2.80
22.5 26.3 0.8 16.89
29.7 32.6 2.9 9.76
Scene 3 17.1 14.3 -2.8 -16.38
20.4 17.9 -2.5 -12.25
23.4 23.3 -0.1 -0.43
26.1 29.5 3.4 13.03
30.5 32.2 1.7 5.57
Scene 4 10.1 9.5 -0.6 -5.94
15.0 15.6 0.6 4.00
18.5 21.1 2.6 14.05
19.6 18.6 -1.0 -5.10
26.4 31.4 5.0 18.94
Scene 5 4.0 4.5 0.5 12.5
6.0 6.9 0.9 15.0
8.0 8.7 0.7 8.75
10.0 10.3 0.3 3.0
12.0 12.2 0.2 1.67
14.0 13.7 -0.3 -2.14
16.0 15.7 -0.3 -1.88
18.0 18.6 0.6 3.33
18.0 20.1 2.1 11.67
20.0 20.7 0.7 3.5
22.0 21.9 -0.1 -0.45
24.0 24.3 0.3 1.25
26.0 31.6 5.6 21.54
30.0 31.4 1.4 4.67
Scene 6 4.0 4.6 0.6 15.00
6.0 7.1 1.1 18.33
12.0 13.1 1.1 9.17
18.0 17.6 -0.4 -2.22
18.0 20.0 2.0 11.11
24.0 25.6 1.6 6.67
26.0 31.1 5.1 19.62
30.0 28.5 -1.5 -5.00
Mean - - 1.521 -
Std Dev - - 1.395 -
Download Excel Table

제작 공정의 불완전성과 대물 렌즈의 부재로 인해, 초박형 라이 트필드 카메라로 얻은 이미지는 노이즈와 왜곡이 존재한다. 보다 정확하고 깨끗한 입력을 얻기 위해 제조 공정을 개선할 필요가 있다. 렌즈 어레이 설계를 보완하여 렌즈 어레이 내의 렌즈가 더 매끄러운 형태를 갖고 노이즈가 줄어들게 되면 이미지 해상도가 향상될 것이다. 또한, 현재 카메라 보드와 NVIDIA Orin AGX 간 의 USB 연결은 노출 시간을 처리할 수 없다. 이를 CSI2 연결로 변경하면 캡처 과정에서 노출 시간을 처리할 수 있어 노이즈가 적은 이미지를 얻을 수 있을 것이다.

다중 시점 이미징을 통해 시차 맵과 깊이 맵을 얻을 수 있지만, 노이즈가 많아 정확한 깊이 맵을 얻기가 어렵다. 또한, 렌즈 어레 이 내 렌즈들의 짧은 baseline으로 인해 카메라와 충분히 가까이 있지 않은 객체의 깊이 맵은 얻을 수 없다. 이 문제는 렌즈 어레 이의 baseline을 더 길게 설계하여 해결할 수 있다. 동시에 이미지 품질을 개선하면 더 정확한 시차 맵을 얻을 수 있어, 깊이 추정 범위가 넓어질 것이다.

5 결론

본 연구에서는 단일 촬영 기반의 스테레오 깊이 추정을 위한 다 중 조리개 초박형 라이트필드 카메라 시스템과 관련 알고리즘을 개발했다. 이 시스템은 IMX477 센서 위에 저노출 조리개 렌즈 2개, 중간 노출 조리개 렌즈 5개, 고노출 조리개 렌즈 2개를 배 치하여 한 번의 촬영으로 여러 장의 이미지를 획득할 수 있도록 설계되었다. 이 시스템을 사용하여 이미지를 캡처함으로써, 스테 레오 깊이 추정에 사용할 수 있는 다중 시점의 이미지들을 획득할 수 있었고, 해당 이미지들을 기반으로 장면의 시차 맵을 획득하고 품질 개선을 위해 guided filter를 적용하였다. 이후 이를 기반으로 절대적인 수치의 깊이 맵을 획득하였다.

그러나, 하드웨어 설정 상 노이즈가 적어지도록 노출 시간을 조정하는 데 어려움이 있었다. 이로 인해, 본 연구에서 사용한 라 이트필드 카메라로 획득한 각 이미지들은 노이즈와 왜곡이 존재 하였고, 깊이 추정에 불리한 요소로 작용하였다. 추후 개선된 공 정과 렌즈 크기의 조정을 통해 이러한 문제를 개선하면 더 높은 품질의 이미지를 얻을 수 있으며, 더 먼 거리에 대해 정확한 깊이 추정이 가능할 것이다.

감사의 글

이 논문은 2024년 정부(방위사업청)의 재원으로 국방기술진흥연 구소의 지원을 받아 수행된 연구임 (KRIT-CT-21-032).

References

[1].

M. H. Kim, T. A. Harvey, D. S. Kittle, H. Rushmeier, J. Dorsey, R. O. Prum, and D. J. Brady, “3d imaging spectroscopy for measuring hyperspectral patterns on solid objects,” ACM Transactions on Graphics (Proc. SIGGRAPH 2012), vol. 31, no. 4, pp. 38:1–11, 2012. [Online]. Available: http://dl.acm.org/citation.cfm?doid=2185520.2185534

[2].

R. Hartley and A. Zisserman, Multiple view geometry in computer vision. Cambridge university press, 2003.

[3].

A. Meuleman, H. Jang, D. S. Jeon, and M. H. Kim, “Real-time sphere sweeping stereo from multiview fisheye images,” in The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2021.

[4].

R. Ranftl, A. Bochkovskiy, and V. Koltun, “Vision transformers for dense prediction,” in Proceedings of the IEEE/CVF international conference on computer vision, 2021, pp. 12 179–12 188.

[5].

L. Yang, B. Kang, Z. Huang, X. Xu, J. Feng, and H. Zhao, “Depth anything: Unleashing the power of large-scale unlabeled data,” arXiv preprint arXiv:2401.10891, 2024.

[6].

M. Levoy and P. Hanrahan, “Light field rendering,” in Proceedings of the 23rd Annual Conference on Computer Graphics and Interactive Techniques, SIGGRAPH 1996, New Orleans, LA, USA, August 4-9, 1996. ACM, 1996, pp. 31–42.

[7].

D. Kang, D. S. Jeon, H. Kim, H. Jang, and M. H. Kim, “View-dependent scene appearance synthesis using inverse rendering from light fields,” in Proc. IEEE International Conference on Computational Photography (ICCP) 2021), May 2021.

[8].

K. Venkataraman, D. Lelescu, J. Duparre´, A. McMahon, G. Molina, P. Chatterjee, R. Mullis, and S. K. Nayar, “PiCam: an ultra-thin high performance monolithic camera array,” ACM Trans. Graph., vol. 32, no. 6, pp. 166:1–166:13, 2013.

[9].

J. Na, J. Ryu, Y. Jo, and M. H. Kim, “Developing an hdr imaging method for an ultra-thin light-field camera,” Journal of the Korea Computer Graphics Society, vol. 29, no. 3, pp. 13–19, 2023.

[10].

K. He, J. Sun, and X. Tang, “Guided image filtering,” IEEE transactions on pattern analysis and machine intelligence, vol. 35, no. 6, pp. 1397–1409, 2012.

[11].

T. Mertens, J. Kautz, and F. V. Reeth, “Exposure fusion: A simple and practical alternative to high dynamic range photography,” Comput. Graph. Forum, vol. 28, no. 1, pp. 161–171, 2009.

[12].

H. Hirschmuller, “Stereo processing by semiglobal matching and mutual information,” IEEE Transactions on pattern analysis and machine intelligence, vol. 30, no. 2, pp. 328–341, 2007.

[13].

S. J. Gortler, R. Grzeszczuk, R. Szeliski, and M. F. Cohen, “The lumigraph,” in Proceedings of SIGGRAPH 1996. ACM, 1996, pp. 43–54.

< 저 자 소 개 >

나 지 웅

jkcgs-30-5-11-i1

  • 2022.02: KAIST 전산학부 학사

  • 2022.03-2024.02: KAIST 전산학부 석사과정

  • 2024.03-현재: KAIST 전산학부 박사과정

  • 관심분야: Computer Vision, Computer Graphics, Computational Imaging

차 영 길

jkcgs-30-5-11-i2

  • 2022.02: KAIST 바이오및뇌공학과 (공학석사)

  • 2022.03-현재: 바이오및뇌공학과 박사과정

  • 관심분야: Optical Imaging, MEMS fabrication

임 태 윤

jkcgs-30-5-11-i3

  • 2019년 8월 한양대학교 전자컴퓨터통신공학과 졸업(석사)

  • 2022년 10월~현재 LIG넥스원 무인체계연구소, 선임연구원

  • 관심분야 : 인공지능, 컴퓨터비전, 생성모델, 영상처리 및 분석

조 용 진

jkcgs-30-5-11-i4

  • 2013년 2월 한양대학교 전자시스템공학과 졸업(석사)

  • 2013년 1월~現 LIG넥스원 무인체계연구소, 선임연구원(PM)

  • 관심분야 : 객체 탐지, 추적, 영상 디블러링

정 기 훈

jkcgs-30-5-11-i5

  • 2005 Univ. California at Berkeley, Mech Eng. (공학박사)

  • 2006-2012 한국과학기술원 조교수

  • 2012-2017 한국과학기술원 부교수

  • 2017-현재 한국과학기술원 교수

  • 관심분야: nanophotonics, Optical MEMS for biomedical applications

김 민 혁

jkcgs-30-5-11-i6

  • 2010.02: University College London (UCL) 전산학 박사

  • 2010.08-2012.08: Yale University 박사 후 연구원

  • 2012.08-현재: KAIST 전산학부 교수

  • 2019:03-현재: KAIST 전산학부 석좌교수

  • 관심분야: Computational Imaging & Computational Photography, Image-Based Modeling and Rendering, Color & Visual Perception