1. 서론
감정은 특정 상황을 인식하는 인지 및 행동에 다양한 영향을 미치고, 상대방의 감정을 파악하는 능력은 다른 사람들과의 성공적인 의사소통을 가져다주며 관계 형성에 중요하다 [1]. 감정을 측정하는 것은 사람과의 상호작용에서 중요하므로 기존 연구들에서는 사람의 감정을 자동으로 인식하고 해석하는 Autonomous Emotion Recognition (AER) 시스템을 통해 사람과의 소통을 돕고자 하였다. 기존 연구들에서는 얼굴 표정 [2, 3], 신체 움직임 [4, 5, 6], 신체 감각의 활성화 정도 [7]가 감정에 따라 차이가 보이는 것을 확인하였다. 그 중 신체에서 나타나는 감정적 특이점들은 얼굴 표정을 인식할 수 없는 상황인 마스크 착용, 가상현실 장비 착용, CCTV 상황 등에서 감정을 인식하는데 중요한 역할을 할 수 있다 [8].
기존 연구들에서는 단어, 사진, 영상과 같은 다양한 감정 자극을 통해 사람들에게 감정반응을 유도한다. 이 중 단어 자극은 ‘행복’, ‘슬픔’, ‘놀람’과 같이 감정과 연관 있는 단어를 직접적으로 제시하는 방법으로써, 다양한 연구들에서 사용된다 [9, 10]. 사진 자극은 화난 표정을 짓고 있는 인물 이미지, 혐오스러운 구더기 이미지, 아이들의 행복한 파티 이미지와 같은 정적인 이미지를 제시하는 방법으로써 [11, 12, 13], 단어 자극에 비해 더 감정적으로 높은 각성도를 일으키는 것으로 알려졌다 [14, 15]. 이 중, 사람의 얼굴 표정을 사용하는 사진 자극이 가장 개인에 따른 정서의 편차가 적게 나타난다 [13]. 영상 자극은 축구를 이겨 기쁜 표정을 짓는 행복한 영상, 구역질 나는 화장실을 보여주는 혐오스러운 영상, 아버지가 아픈 자식을 바라보는 슬픈 영상과 같은 소리 없는 영화 클립을 제시하는 방법으로써 [16, 17], 단어나 사진 자극에 비해 더 감정적으로 높은 각성도를 일으키는 것으로 알려졌다 [14, 15].
감정을 유발하기 위한 자극의 형태에 따라서 같은 감정이라도 다른 강도의 감정을 유발할 수 있다. 기존 연구들은 [12, 14, 15, 16, 17] 자가 보고 설문지 방법인 Self-Assessment Manikin [18]을 통해 감정의 각성도 및 정서가를 측정하여 감정 자극을 통해 유발된 감정을 측정하였다. 이에 대한 결과로 감정에 따라 각성도, 정서가의 변화가 다르게 나타나는 것을 확인하였다. 예를 들어, 행복의 감정은 높은 정서가와 높은 각성도의 특징이 나타나며 슬픔의 감정은 낮은 정서가와 다른 감정에 비해 낮은 각성도의 특징이 있다. 또한, 분노의 감정은 낮은 정서가와 높은 각성도의 특징이 나타나며 혐오의 감정은 낮은 정서가와 분노 감정에 비해 낮지만 슬픔 감정에 비해 높은 각성도의 특징이 있고 공포의 감정은 낮은 정서가와 혐오 감정에 비해 낮은 각성도의 특징이 있다.
기존 연구들에서는 이러한 감정의 형성이 감각적으로 느껴지는 신체의 활성화 [7]뿐만 아니라 신체 움직임을 통해서도 나타나는 것을 [4, 5, 6, 19, 20] 확인하였다. Nummenmaa [7] 연구진은 신체 감각을 기반으로 컴퓨터 기반 자가 보고 방법을 사용하여 신체의 활성화 또는 비활성화의 정량적 지표를 통해 측정하는 방법인 Bodily Sensation Maps (BSM)을 제안하였다. 또한, AER의 초기 버전으로 기존 연구들에서는 Motion Capture장비를 통해 측정한 각 신체 관절의 움직임이 개인의 감정 상태에 따라 다르게 나타남을 확인하였다 [19, 20, 21, 22]. 예를 들어, 행복과 분노 같은 높은 각성도의 특징을 가지고 있는 감정은 다른 감정에 비해 팔과 손의 움직임이 크며 [21], 슬픔의 감정은 다른 감정에 비해 손과 팔이 몸에 더 가까워져 움직임이 적다는 특징이 있다 [22]. 따라서, 감정의 각성도와 정서가에 따라 신체 활성화 및 신체 움직임이 달라질 수 있다 [21, 22]. 그러나, 감정 자극을 통해 형성된 감정의 각성도, 정서가의 변화가 신체 활성화 정도 및 신체 움직임에 주는 영향에 대해서는 아직 확인한 바가 없다.
최근 연구들에서는 신체 움직임 데이터를 Machine Learning을 통해 감정 분류를 할 수 있음을 제안하였다 [4, 5, 6, 19, 20]. 예를 들어, Nummenmaa [7] 연구진은 신체 감각을 통해 드러나는 감정적 특이점이 Linear Discriminant Analysis (LDA) 모델로 분류될 수 있음을 밝혔고 Ahmed [20] 연구진은 신체 움직임을 통해 드러나는 감정적 특이점이 Linear Discriminant Analysis (LDA), Support Vector Machine (SVM), Decision Tree (DT) 등의 모델로 분류될 수 있음을 밝혔다. 그러나 감정 자극에 따라서 신체를 기반으로 한 감정의 각성도, 정서가 차이가 AER 시스템의 성능에 주는 영향에 대한 연구는 아직 알려져 있지 않다.
본 연구는 세 가지의 목표를 가지고 있다. 첫 번째로, 기존 연구에서 제안한 3가지 감정 자극인 단어, 사진, 영상 자극을 통해 감정 자극이 동일한 감정, 각성도를 유도하는지 확인하고자 한다. 두 번째로, 감정 자극에 따라 신체 감각의 활성화 정도 및 신체 움직임의 정량적 차이를 확인하고자 한다. 마지막으로, 이러한 3가지 감정 자극을 기반으로 수집한 신체적 특이점들이 본 연구에서 사용하는AER 시스템에 주는 영향에 대해 Bodily Motion Map (BMM) 방법론을 통해 확인하고자 한다.
2. 연구 방법
본 실험은 피험자를 모집하기 위해 교내 광고로 모집하였으며 실험의 전체 과정을 피험자에게 고지한 후 진행되었다. 20명의 피험자를 모집하였으며 (mean = 26.85, SD = 3.1; female n = 7), 피험자의 데이터를 수집한 뒤 아래 절차에 따라 분석하였다.
본 연구에서는 기존 연구에서 제안한 컴퓨터 기반 자가 보고 방법인 BSM [7]과 본 연구에서 제안하는 AER 시스템을 위한 BMM 방법론을 활용하여 연구를 진행하였다. BSM 측정 방법은 피험자들에게 각 감정 자극을 제시한 후 자극을 보고 양쪽 아바타에 색칠하도록 지시하였다 (Figure 1.A). 좌측 신체 아바타 경우, 피험자들은 해당 감정 상태 하에서 평소에 비하여 더욱 활성화될 것이라고 생각하는 신체 부위를 색칠하도록 요청받았다. 우측 신체 아바타 경우, 평소에 비하여 더욱 비활성화될 것이라고 생각하는 신체 부위를 색칠하도록
요청받았다. 피험자들은 마우스를 통해 작은 점을 신체 부위에 클릭하여 색칠하였다 (Figure 1.B). 좌측 신체 아바타인 ‘활성화’ 신체 지도에 표시된 점의 수는 양의 값으로 기록되었으며, 우측 신체 아바타인 ‘비활성화’ 신체 지도에 표시된 점의 수는 음의 값으로 기록되었다. 기록된 신체 지도상의 표시된 점의 수를 합산하여 두 개의 신체 지도를 결합하였다 (Figure 1.C). 추후, 자극 간 비교를 위해 BSM을 19개의 신체 부위로 나누어 각 신체 부위에 대한 피험자들의 점의 개수의 합계로 기록하였다. 7가지 감정 중 가장 큰 값의 점의 수를 기준으로 정규화하여 활성화 정도를 도출하였다. 도출된 활성화 정도를 통해 19개 신체 부위 × 7가지 감정의 BSM을 나타냈다 (Figure 1.D).
본 연구에서 제안하는 AER 방법론으로 피험자들의 BMM을 나타내기 위해 실제 움직임을 측정하여 모션 캡처 데이터를 만들어 사용하였다. 각 피험자의 신체 움직임은 19개 신체 부위 (Figure 2.A)로 나누어 정의되었으며, 초당 30 프레임의 속도로 5초의 길이로 구성되었다. 측정 방법은 Azure Kinect (Microsoft, Seattle, USA)를 사용해 피험자들이 각 감정 자극을 통해 형성된 감정을 신체로 표현하도록 요청하였다 (Figure 2.B). 각 피험자의 실제 움직임은 32개 신체 부위의 좌표로 저장되었다 (Figure 2.C). 그 중 BSM과 동일하게 시각화 하기 위해 정의된 19개 신체 부위의 좌표(x, y, z) 데이터를 추출하였으며, 데이터는 150 프레임× 19 개 신체 부위× 3 축으로 구성하였다. 각 신체 부위마다의 프레임 별 움직임 평균을 수식 (1)과 같이 계산하여 각 감정에 대한 신체 움직임 평균을 도출하였다 (Figure 2.D).
도출한 7가지 감정의 평균을 계산하여 해당 결과를 신체 움직임의 기준으로 설정하였다. 각 감정 별 움직임 값에서 기준 움직임 값을 뺀 활성화 정도를 도출하였다. 수집된 활성화 정도를 사용해 각 감정에 따라 19개 신체 부위 × 7가지 감정의 BMM을 제시하였다 (Figure 2.E).
본 연구에서는 총 3종류의 감정 자극(단어, 사진, 영상)을 사용하였다. 단어 자극은 7가지 감정 단어(행복, 슬픔, 놀람, 분노, 혐오, 공포, 중립)를 사용하였다. 각 단어는 임의의 순서로 세 번씩 한국어로 전달되었으며, 피험자들이 제공된 단어를 보고 각 감정을 토대로 평가할 수 있도록 제시되었다. 사진 자극은 Karolinska Directed Emotional Faces [23] 데이터 세트에서 7가지 감정에 해당하는 서로 다른 3개의 인물 표정 사진으로 사용하였다. 인물 표정 사진은 외국인 남성, 여성 배우의 사진으로 이루어져 있으며, 피험자들은 인물 표정 사진을 보고 사진 속 인물이 느끼고 있는 감정을 토대로 평가할 수 있도록 제시되었다. 영상 자극은 7가지 감정을 유도할 수 있는 서로 다른 10초 길이의 소리 없는 영화 클립 [16]을 감정에 따라 3개씩 사용하였다. 피험자들은 영상을 보고 느껴지는 감정을 토대로 평가할 수 있도록 제시되었다.
LDA모델은 입력 데이터 세트를 저차원 공간으로 투영해 차원을 축소하는 기법이자 지도학습에서 분류 문제에 사용되는 모델이다. 이는 직각 행렬에서 사용되는 특이값 분해 방법(Singular Value Decomposition; SVD)을 적용하였고 store covariance 매개변수는 True로 설정하였다.
SVM 모델은 지도 학습 모델 중 하나로서 분류 문제에 사용되며, 두 그룹으로부터 데이터들과 가장 먼 거리를 가지는 최적의 초평면(hyperplane)을 선택하여 분류하는 것을 목표로 하는 방법이다. 이는 다중 클래스를 분류하기 위해 데이터 세트를 서로 다른 두 개의 클래스를 가지는 데이터 세트로 분할하고 이를 이진 분류기로 학습하는 방법인 일 대 일 접근 방식으로 구성하였다. 또한, kernel 유형은 linear 함수를 사용하였고 kernel 계수는 0.0, 정규화 매개변수는 1.0으로 설정하였다.
DT 모델은 분류 문제가 가능한 지도 학습 모델 중 하나로, 여러 가지 규칙을 순차적으로 적용하면서 독립 변수 공간을 분할하여 분류하는 모델이다. 이는 분류 문제에서 각 노드의 정보 이득을 최대화하는 Classification And Regression Tree (CRAT) 알고리즘을 적용하였고 분류 척도로는 gini 계수를 사용하였다.
Self-Assessment Manikin (SAM). 피험자의 정서적 반응을 측정할 수 있는 9-point Likert Scale 설문지 방법 [18]으로, 피험자가 자신의 정서 상태에 가장 가까운 마네킹 그림에 정서가(Valence) 와 각성도(Arousal)를 표시하도록 되어있으며, 질문은 다음과 같다. Valence: “현재 감정이 얼마나 부정적/긍정적인지 해당하는 곳에 체크해 주십시오.” Arousal: “현재 감정의 크기가 얼마나 고요한지/흥분되는지에 따라 해당하는 곳에 체크해 주십시오.”
Difference of clicks. Nummenmaa [7] 연구진이 제안한 컴퓨터 기반 지형적 자가 보고 방법을 사용하여 피험자가 감정 자극을 보고 난 후 느껴지는 신체 감각을 토대로 평소에 비해 활성화 될 것이라고 생각하는 신체 부위를 마우스로 클릭한 점의 수와 비활성화 될 것이라고 생각하는 신체 부위를 클릭한 점의 수의 차를 계산하였다.
Amount of movement. 피험자가 감정 자극을 보고 난 후 느껴지는 감정을 표현한 신체 움직임에서 신체 부위 별 움직임의 총량을 합산하여 계산한 값이다. 계산 방법은 각 신체 부위마다 프레임 별 움직임(150 프레임 × 19개 신체 부위 × 3축)을 모두 합산하여 수식 (2)와 같이 계산하였다.
Classification Accuracy. 지도 학습 분류 모델인 LDA, SVM, DT, RF, DNN을 통해 BSM, BMM의 데이터로 감정 자극 간의 complete classification accuracy를 계산한 값이며, 계산 방법은 다음과 같다. 우선, 감정 별 BSM, BMM을 입력 데이터 세트(1 감정 × 19개 신체 부위)로 구성하여 Min-Max Scaling 기법을 수식 (3) 통해 정규화를 진행하였다. 그 후, 5개의 모델을 통해 5-Fold cross validation으로 학습해 감정 자극 별 정확도를 도출하였다.
본 실험 절차는 실험 목적을 설명한 후 인적 사항(성별, 나이)에 대한 사전 설문을 진행하였다. 실험 전 실험 환경에 친숙해지기 위해 연습 시행을 진행 후 BSM을 나타내기 위해 컴퓨터 기반 자가 보고 방법으로 측정한 신체 감각을 기반으로 한 감정 표현을 수행하는 실험을 진행하였다. 이는 각 감정 자극을 제시 후 느껴지는 감정을 토대로 평가하도록 지시하여 진행하였다. 그 후, BMM을 나타내기 위해 Motion Capture로 측정한 실제 움직임을 기반으로 한 감정 표현을 수행하는 실험을 진행하였다. 이는 각 감정 자극을 제시 후 느껴지는 감정을 신체로 표현하도록 지시하여 진행하였다. 제시되는 각 감정의 순서는 counter balanced 되었다. 마지막으로, 감정 자극을 검증하기 위한 설문지 응답이 완료된 후 실험을 종료하였다 (Figure 3).
SPSS 27.0 (SPSS Inc., Chicago, USA) 프로그램을 활용하여 데이터를 분석하였다. 정규성 검정을 위해 왜도, 첨도 및 Kolmogorov-Smirnov 검정을 활용하였다. 또한, 구형성 검정을 위해 Mouchly의 단위 행렬 검정을 활용하였다.
감정 자극을 검증하기 위해 수집한 각성도(Arousal), 정서가(Valence) 경우는 각 피험자의 데이터를 3가지 감정 자극 × 7가지 감정으로 구성하여 통계 분석 전 정규화를 진행하였다. 그 후, 감정 자극과 감정 상태 조건을 비교하기 위해 Repeated Measures Analysis of Variance (RM ANOVA)를 수행하였다. 통계적 유의 수준은 p < 0.05로 설정되었다.
BSM, BMM 경우는 각 피험자의 데이터를 19개 신체 부위 × 7가지 감정으로 구성하여 통계 분석 전 정규화를 수행하였다. 그 후, 각 감정에 대한 BSM, BMM의 신체 부위 별 활성화 및 비활성화된 신체 부위를 0과 비교하기 위해 각 신체 부위에 따른 Univariate t-test를 수행하였다. 이에 대한 결과로 통계적으로 유의미하게 활성화 또는 비활성화된 신체 감각, 신체 움직임 결과를 반영하는 Map을 생성하였다.
추가로 데이터 분석을 하기 위해 수집한 클릭수의 차(Difference of clicks), 신체 움직임의 총량(Amount of movement) 경우는 각 피험자의 데이터를 3가지 감정 자극 × 7가지 감정으로 구성하여 통계 분석 전 정규화를 수행하였다. 그 후, 감정 자극과 감정 상태 조건을 비교하기 위해 Repeated Measures Analysis of Variance (RM ANOVA)를 진행하였다.
3. 연구 결과
각성도(Arousal)를 분석한 결과 (Figure 4.A) 는 감정 자극 조건 간 통계적으로 유의미한 차이가 나타났고 (F (2, 38) = 13.136, p < .001, η² = .409; 단어 mean = 4.83, 사진 mean = 4.63, 영상 mean = 5.22) 감정 상태 조건 간에서도 통계적으로 유의미한 차이가 나타났다 (F (6, 114) = 8.020, p < .001, η² = .297). 또한, 감정 자극과 감정 상태 간의 상호작용 효과가 나타났다 (F (6.332, 120.317) = 3.178, p < .001, η² = .143). 사후 분석을 수행한 결과, 영상 자극이 단어 자극 조건보다 유의미하게 높은 각성도 값을 보이는 것을 확인하였다 (p < .05). 또한, 영상 자극이 사진 자극 조건보다 유의미하게 높은 각성도 값을 보이는 것을 확인하였다 (p < .001).
정서가(Valence)를 분석한 결과 (Figure 4.B)는 감정 자극 조건 간 통계적으로 유의미한 차이가 나타났고 (F (2, 38) = 8.786, p < .01, η² = .316; 단어 mean = 4.22, 사진 mean = 4.28, 영상 mean = 3.94) 감정 상태 조건 간에서도 통계적으로 유의미한 차이가 나타났다 (F (3.359, 63.814) = 43.020, p < .001, η² = .694). 또한, 감정 자극과 감정 상태 간의 상호작용 효과가 나타났다 (F (12, 228) = 5.674, p < .001, η² = .230). 사후 분석을 수행한 결과, 영상 자극이 단어 자극 조건보다 유의미하게 낮은 정서가 값을 보이는 것을 확인하였다 (p < .01). 또한, 영상 자극이 사진 자극 조건보다 유의미하게 낮은 정서가 값을 보이는 것을 확인하였다 (p < .01).
3가지 감정 자극을 사용하여 형성된 감정을 기반하여 추출한 BSM을 시각화 하였다. 활성화된 신체 부위, 비활성화 된 신체 부위는 각각 따뜻한 색상, 차가운 색상으로 색칠하였고 통계적으로 유의미하게 활성화되지 않은 신체 부위는 검은색 색상으로 색칠하였다. BSM을 통해 감정 별 신체 활성화 패턴의 감정적 특이점이 다르게 나타나는 것을 확인하였다 (Table 1). 또한, 감정 자극 간에서는 행복, 슬픔, 분노, 중립 감정에서 신체 감각을 통해 드러나는 감정적 특이점의 특별한 차이를 발견할 수 없으나 놀람, 혐오, 공포 감정에서 시각적으로 감정적 특이점의 차이가 나타나는 것을 확인하였다. 세부적으로, 놀람 감정에서는 단어, 사진 자극(흉부 활성화)과 영상 자극, 혐오 감정에서는 각 감정 자극(단어: 전신 비활성화, 사진: 머리 활성화, 팔 비활성화 영상: 팔, 다리 비활성화), 공포에서는 단어 자극(흉부 활성화, 하체 비활성화)과 영상 자극(전신 활성화)과의 신체 감각에 대한 활성화 정도 차이가 있음을 확인하였다. 단어, 사진, 영상 자극의 BSM은 각각 Figure 5과 같다.
3가지 감정 자극을 사용하여 형성된 감정을 기반하여 추출한 BMM을 시각화 하였다. BSM과 동일한 색상으로 색칠하였고 BMM을 통해 감정 별 신체 움직임 패턴의 감정적 특이점이 다르게 나타나는 것을 확인하였다 (Table 2). 또한, 감정 자극 간에서는 행복, 놀람, 분노, 중립 감정에서 신체 움직임을 통해 드러나는 감정적 특이점의 특별한 차이를 발견할 수 없으나 슬픔, 혐오, 공포 감정에서 시각적으로 감정적 특이점의 차이가 나타나는 것을 확인하였다. 세부적으로, 슬픔 감정에서는 각 감정 자극 (단어: 머리, 하체 활성화, 손 비활성화 사진: 머리 활성화 영상: 전신 비활성화), 혐오 감정에서는 단어 (머리, 하체 비활성화), 영상 자극 (전신 비활성화)과 사진 자극, 공포 감정에서는 영상 자극 (전신 활성화)과 단어, 사진 자극과의 신체 움직임 패턴의 활성화 정도 차이가 있음을 확인하였다. 단어, 사진, 영상 자극의 BMM은 각각 Figure 6과 같다.
클릭수의 차(Difference of clicks)를 분석한 결과 (Figure 7.A)는 감정 자극 조건 간에서 통계적으로 유의미한 차이가 나타났고 (F (2, 38) = 3.528, p < .05, η² = .157; 단어 mean = 75.81, 사진 mean = 47.26, 영상 mean = 86.15) 감정 상태 조건 간에서도 통계적으로 유의미한 차이가 나타났다 (F (2.841, 53.976) = 15.917, p < .001, η² = .456). 또한, 감정 자극과 감정 상태 간의 상호작용 효과가 나타났다 (F (5.026, 95.486) = 3.579, p < .001, η² = .158). 사후 분석을 수행한 결과, 영상 자극이 사진 자극 조건보다 유의미하게 높은 클릭수의 차를 보이는 것을 확인하였다 (p < .01).
신체 움직임의 총량(Amount of movement)를 분석한 결과 (Figure 7.B)는 감정 자극 조건 간에서 통계적으로 유의미한 차이가 나타났고 (F (2, 38) = 11.115, p < .001, η² = .369; 단어 mean = 43.41, 사진 mean = 38.57, 영상 mean = 47.06) 감정 상태 조건 간에서도 통계적으로 유의미한 차이가 나타났다 (F (3.298, 62.670) = 26.866, p < .001, η² = .586). 또한, 감정 자극과 감정 상태 간의 상호작용 효과가 나타났다 (F (5.584, 106.105) = 7.430, p < .001, η² = .281). 사후 분석을 수행한 결과, 영상 자극이 사진 자극 조건보다 유의미하게 큰 움직임을 보이는 것을 확인하였고 (p < .01) 단어 자극이 사진 자극 조건보다 유의미하게 큰 움직임을 보이는 것을 확인하였다 (p < .05).
감정 자극 별 추출된 BSM, BMM를 통해 분류 정확도를 비교하기 위해 LDA, SVM, DT, RF, DNN 모델을 사용하여 계산하였다 (Table 3). 단어, 사진, 영상 자극의 complete classification accuracy의 평균은 각각 31.69%, 28.43%, 33.89% (chance level 14%) 이다.
4. 논의
본 연구는 3가지의 감정 자극(단어, 사진, 영상)에 따라 신체 감각의 활성화 정도 및 신체 움직임으로 나타나는 감정적 특이점이 AER 시스템 성능에 주는 영향에 대해 확인하고자 하였다. 이에 따라, 본 연구에서는 세 가지의 주요 결과를 도출하였다. 첫 번째로, 기존 연구에서 제안한 3가지 감정 자극 (단어, 사진, 영상)이 동일한 감정을 유발함을 확인하였고 기존 연구 결과와 동일하게 영상 자극이 다른 자극에 비해 감정의 각성도가 높게 형성됨을 확인하였다. 두 번째로, 감정 자극에 따라 신체 감각의 활성화 정도 및 신체 움직임의 감정적 특이점이 감정 별로 공통점과 차이점이 있음을 확인하였다. 마지막으로, 이러한 3가지 감정 자극 중 더 감정적으로 높은 각성도를 도출하는 영상 자극을 통해 수집한 신체적 특이점이 다른 자극에 비해 높은 분류 정확도를 보이는 것을 확인하였다.
첫 번째로, 3가지 감정 자극인 단어, 사진, 영상 자극에 대한 주관적인 정서적 반응을 통해 동일하게 감정을 유발함을 확인하였다. 기존 연구들 [12, 14, 15, 16, 17]에서는 행복의 감정에서 높은 정서가와 높은 각성도의 특징을 보이고 슬픔의 감정에서 낮은 정서가와 낮은 각성도의 특징이 나타난 것과 같이 각 감정에 따른 각성도, 정서가의 변화를 보였다. 본 연구 결과를 통해 한국 문화권에서도 감정에 따른 각성도, 정서가의 변화가 기존 연구들 [12, 14, 15, 16, 17]의 결과와 비슷한 양상을 보이는 것을 확인하였다. 예를 들어, 행복의 감정은 높은 정서가와 다른 감정에 비해 높은 각성도의 특징이 나타나며 슬픔의 감정은 낮은 정서가와 다른 감정에 비해 낮은 각성도의 특징이 나타났다. 분노의 감정은 낮은 정서가와 다른 감정에 비해 높은 각성도의 특징이 보였으며, 혐오의 감정은 낮은 정서가와 다른 감정에 비해 높은 각성도의 특징이 나타남을 확인하였다. 더 나아가 감정 자극 형태 따라 동일한 감정의 정서적 반응에 대한 차이를 확인하였다. 기존 연구들 [14, 15]에서는 영상 자극이 다른 자극에 비해 부정적인 감정을 더 부정적이고 감정을 흥분된 상태로 느끼는 것을 보였다. 본 연구에서도 기존 연구의 결과와 동일하게 영상 자극이 더 감정적으로 높은 각성도를 도출하는 것을 확인하였고 부정적인 감정에서 다른 자극에 비해 낮은 정서가를 보이는 것을 확인하였다. 이를 통해 감정 자극의 형태에 따라서 동일한 감정이라도 다른 각성도, 정서가의 감정을 유발할 수 있음을 확인하였다.
두 번째로, 감정 자극에 따라 신체 감각의 활성화 정도 및 신체 움직임의 감정적 특이점 간에 정량적 차이가 나타나는 것을 확인하였고, 감정 자극에 따른 BSM, BMM반응이 감정 별로 공통점과 차이점이 있음을 확인하였다. 신체 감각 관련 연구 [7]의 결과는 행복, 분노 감정에서 상체의 감각이 활성화되는 패턴이 보였다. 이 중 행복은 전신의 감각이 활성화 되는 패턴을 보였으며, 슬픔에서는 하반신과 팔의 감각이 비활성화 되는 패턴이 보였다. 또한, 신체 움직임 관련 연구 [21, 22]의 결과에서는 행복, 분노 감정에서 상체의 움직임이 활성화되고 슬픔에서 팔과 손의 움직임이 비활성화 되는 패턴을 보임을 밝힌 바가 있다. 본 연구에서도 기존 연구 결과와 비슷한 양상으로 BSM, BMM 반응이 전체적으로는 중립을 포함한 7가지 감정에서 다른 패턴을 도출해 내는 공통점을 확인하였고 감정 자극 간에서 감정적 특이점의 공통점과 차이점이 있음을 확인하였다. 세부적으로는 BSM은 행복, 슬픔, 분노, 중립에서 감정 자극 간 비슷한 양상의 감정적 특이점을 도출하였으나 놀람, 혐오, 공포 등에서 신체 감각에 대한 활성화 정도의 차이가 있음을 동시에 확인하였다. BMM은 행복, 놀람, 분노, 중립에서 감정 자극 간 비슷한 양상의 감정적 특이점을 도출하였으나 슬픔, 혐오, 공포 등에서 신체 움직임 패턴에 대한 활성화 정도의 차이가 있음을 동시에 확인하였다. 이를 통해 BSM, BMM으로 나타내는 신체 활성화 패턴의 차이는 감정 자극의 형태에 따른 감정의 각성도의 차이로 인해 유발했을 가능성이 있다. 이로 인해, 감정 자극에 따라 신체 감각 및 신체움직임에서 나타나는 신체 활성화 패턴은 하나의 정량적 지표로 사용할 수 있음을 확인하였다.
마지막으로, 본 연구는 이러한 3가지 감정 자극을 기반으로 수집한 신체적 특이점들이 AER 시스템에 주는 영향에 확인하고자 하였고 이 중 영상 자극을 통한 정량적 지표의 측정이 Machine Learning 기법과 관계없이 가장 높은 정확도를 보이는 것을 확인하였다. 신체적 특이점의 정량적 차이를 확인하고자 BSM에서 측정한 클릭수의 차와 신체 움직임의 총량을 계산하여 데이터를 분석한 결과, 클릭수의 차는 영상 자극이 다른 자극에 비해 더 많이 클릭하였던 것을 확인하였고 신체 움직임의 총량은 영상 자극이 다른 자극에 비해 더 많이 움직인 것을 확인하였다. 이는 기존 연구들 [7, 19, 20, 21, 22]과 동일하게 높은 각성도의 감정은 더 많은 신체 감각 및 신체 움직임을 일으키는 것을 확인하였다. 이로 인해, 영상 자극이 다른 자극에 비해 더 감정적으로 높은 각성도를 도출하므로 더욱 신체 감각의 활성화를 잘 느끼고 많은 신체 움직임을 표현한다고 해석할 수 있다. 또한, 얼굴, 목소리를 활용한 감정 인식 연구들 에서는 사람이 표현하는 감정의 강도가 강할수록 다른 사람이 감정을 인식하는 정확도가 높다고 밝힌 바가 있다 [24]. 이에 따라 더 높은 각성도를 가진 감정을 유도할수록 더 높은 정량적 지표의 값으로 인해 사람의 감정 인식 정확도가 높았으며, 이러한 현상이 신체 기반의 감정적 특이점에서도 드러난 것으로 보인다. 이를 통해 본 연구에서는 얼굴, 목소리를 기반으로 한 기존 연구와 동일하게 신체를 기반으로 한 감정적 특이점이 감정의 각성도가 높을수록 Machine Learning의 분류 정확도를 더 높일 수 있음을 확인하였다.
본 연구는 몇 가지 한계점을 가진다. 첫 번째로, BSM 및 BMM의 반응에서 상대적으로 적은 수의 피험자가 참여하여 감정의 세부적인 결과를 해석하기 어렵다. 추가로 다양한 연령의 피험자를 모집하여 더 많은 BSM 및 BMM의 반응 결과를 분석할 필요가 있다. 두 번째로, 본 연구에서는 3가지 감정 자극인 단어, 사진, 영상 자극만 사용하였다. 추후 연구에서는 스토리 [25, 26], 음악 [27, 28]과 같은 다양한 감정 자극을 고려하여 비교할 필요가 있다. 세 번째로, 정량적 지표인 신체 움직임에서 총 움직임의 총량만 분석하여 감정의 세부적인 결과를 해석하기 어렵다. 추후 연구에서는 움직임과 관련된 특징을 4가지 요소 (Body, Effort, Shape, Space)로 정의한 Laban Movement Analysis (LMA) 방법론 [29]을 통해 신체 움직임을 다양한 feature로 분석할 필요가 있다.
5. 결론
본 연구는 기존 연구에서 제안한 자극을 활용하여 감정을 동일하게 유도할 수 있음을 확인하였고, 감정 자극에 따른 각성도의 차이가 나타남을 검증하였다. 또한, BSM, BMM으로 표현되는 신체 관련 감각, 움직임 지표에서도 감정적 특이점이 감정에 따라 공통점과 차이점이 있음을 확인하였다. 마지막으로, 더 감정적으로 높은 각성도를 도출하는 영상 자극을 통해 수집한 신체적 특이점이 단어, 사진 자극에 비해 높은 분류 정확도를 보이는 것을 확인하였다. 이러한 신체적 변화를 토대로 AER 시스템에서 감정을 유도할 수 있는 자극의 가이드라인을 제시할 수 있고 한국 문화권과 다른 문화권의 피험자를 대상으로 감정 표현으로 드러나는 신체적 특이점을 비교하여 연관성을 파악하는 연구로 확장할 수 있다.