Advanced
Hand Tracking based on CamShift using Motion History Image
Hand Tracking based on CamShift using Motion History Image
Journal of Broadcast Engineering. 2017. Mar, 22(2): 182-192
Copyright © 2017, The Korean Institute of Broadcast and Media Engineers
This is an Open-Access article distributed under the terms of the Creative Commons BY-NC-ND (http://creativecommons.org/licenses/by-nc-nd/3.0) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited and not altered.
  • Received : January 11, 2017
  • Accepted : March 02, 2017
  • Published : March 30, 2017
Download
PDF
e-PUB
PubReader
PPT
Export by style
Article
Author
Metrics
Cited by
About the Authors
종인, 길
미나, 김
환규, 황
만배, 김
manbae@kangwon.ac.kr

Abstract
본 논문에서는 컬러와 운동 정보를 혼합한 손 추적 시스템을 제안하고자 한다. 손의 검출 및 추적은 많은 경우 피부색을 모델링하여 검출을 하는 방식을 사용한다. 하지만 이와 같은 방법으로는 빛이나 주변 사물에 의해 영향을 많이 받기 때문에 정확한 값을 일정하게 도출해 낼 수 없었다. 또한, 피부색에 의존하므로, 손뿐만 아니라 얼굴 및 비부 색과 비슷한 색을 갖는 배경 등에 의해 추적이 방해받을 수 있다. 이에 본 논문은 운동 히스토리 기법(MHI)을 이용하여 움직임을 파악한 후 이를 CamShift와 결합함으로서, 효과적으로 추적할 수 있도록 설계하였다. 제안된 시스템은 C/C++을 기반으로 구현하였으며, 실험에서 제안 방법이 안정적이고 우수한 성능을 보여줌을 증명하였다.
Keywords
I. 서 론
과거에 컴퓨터 혹은 전자기기와 사람의 상호작용을 위해 사용되던 키보드, 마우스, 리모콘과 같은 전통적인 기법으로부터 벗어나 훨씬 진보한 기술들이 개발되고 있다. 손의 동작 인식 기술은 스마트 TV 혹은 비디오 게임 플레이에서와 같이 사용자와 전자 기기 사이의 진보된 상호작용을 가능하게 하는 가장 이상적이고 적합한 방법이 될 수 있을 것이다. 손 제스처 인식은 검출(detection), 추적(tracking) 및 인식(recognition) 단계로 구성된다. 이 때, 손을 검출하고 추적하는 시스템은 손의 동작 인식을 위해 필수적으로 수행되어야 하는 전처리과정이다.
손 추적 기법은 카메라로부터 획득된 컬러 영상에서 손의 다음 위치를 계속 추적해간다. 이는 깊이맵 기반 추적 [1] , 적외선 영상 기반 추적 [2] , 컬러와 텍스쳐를 이용한 방법 [3,4] , 컬러와 에지 혹은 형태를 이용한 방법 [5-7] , 컬러와 움직임을 이용한 방법[8]등이 존재한다.
본 논문에서는 컬러 영상으로부터 움직임 정보를 추출하여 손을 추적하는 기법을 제안한다. 먼저 배경 모델링 기법을 이용하여 배경 영상을 생성하고, 배경 영상으로부터 이진 전경 영상을 획득한다. 전경 영상으로부터 운동 히스토리 영상(Motion History Image, MHI)을 추출할 수 있는데, 운동 히스토리 영상은 주로 사람의 행위 및 자세를 인식하기 위해서 개발된 방법이다. 여기에서는 MHI를 활용하여 손의 이동을 효과적으로 추적할 수 있다. 또한 실제로 얼굴과 몸통은 움직임이 있을 수도 있으나 정지해 있는 경우도 충분히 존재한다. 반면, 손은 일반적으로 이러한 얼굴, 머리, 몸통보다 훨씬 많은 양의 운동을 가지고 있다. 따라서 움직임 정보는 손의 추적에 있어서 큰 단서를 제공할 수 있다. 그러나, 운동이 없다고 완전히 가정할 수 없으므로, 몸 전체가 움직이는 것을 해결하기 위해 컬러 단서를 혼합한다.
손 영역의 컬러 히스토그램을 측정하여 손에 대한 컬러 모델을 설정한 후, 손의 컬러 모델로부터 입력영상에 대해 역투영을 수행함으로써 확률 영상을 획득한다. 앞서 획득한 전경 영상, 운동 영상 및 컬러 확률 영상을 혼합하여 확률 영상을 새로이 갱신한다. 최종적으로 획득한 확률 영상으로부터 CamShift 알고리즘을 수행함으로써 손의 위치를 추정하게 된다.
본 논문의 구성은 다음과 같다. 먼저 II장에서는 제안 하는 방법의 전체 흐름을 설명한다. Ⅲ장에서는 손 추적을 위한 전처리로써 배경 모델링을 이용하여 젼경 객체를 추출하는 방법과, 운동 히스토리 영상을 획득하는 방법을 설명한다. IV장에서는 CamShift 알고리즘을 적용하기 위한 과정을 설명하고, 전경 객체 추출과 운동 히스토리 영상으로부터 확률 영상을 갱신하는 방법을 소개한다. V장에서 수행한 실험의 결과를 분석하고, 마지막으로 VI장에서 결론을 맺는다.
II. 제안 방법
그림 1 과 같은 순서로 알고리즘은 진행이 된다. 손의 움직임을 담은 영상을 받아 평균 필터를 이용하여 잡음을 제거한다. 잡음이 제거된 영상으로부터 배경 모델링을 수행하여 배경 영상을 얻는다. 이후 현재 영상과 배경 영상의 차를 이용하여 전경 영상을 얻는다. 획득한 전경 영상은 MHI를 측정하기 위해 이용된다. 반면 추적하고자 하는 손의 영역으로부터 모델을 획득한다. 이는 해당 영역내의 컬러 히스토그램을 구함으로써 얻을 수 있다. 손의 모델로부터 입력영상에 대해 역투영을 하여 확률을 계산한다. 계산된 확률 영상은 MHI 영상과 통합됨으로써 확률 영상은 갱신된다. 이제 갱신된 확률 영상을 이용하여 CamShift 알고리즘을 수행하여 손을 추적하게 된다.
PPT Slide
Lager Image
제안 방법의 흐름도 Fig. 1. Overall block diagram of the proposed method
III. 운동 히스토리 영상 생성
- 1. 배경 모델링
전경 객체의 영역만을 검출하기 위해서 배경 모델링을 적용하였다. 배경 모델링 알고리즘은 비디오 영상의 통계적 정보를 이용하여 적절한 배경 영상을 유추하는 알고리즘이다. 효과적인 배경 영상을 추출하기 위해 많은 알고리즘이 제안되었다 [9-12] . 이러한 알고리즘은 배경 영상의 추출을 위해 많은 수의 프레임을 요구한다. 실제 시스템에서는 많은 수의 프레임을 한정된 메모리 공간에 저장하는 것이 불가능하다. 그러므로 본 논문에서는 시간축에 대한 픽셀값들의 분포를 단일 가우시안 분포로 가정하여 배경 영상을 추정한다. 단일 가우시간 분포는 하나의 평균값 μ와 분산 값 σ을 필요로 한다. 그러나, 배경 영상은 하나의 영상으로부터 추출될 수 없다. 그러므로 μ의 초기값은 첫 프레임의 픽셀 값으로 가정하고, σ는 사용자에 의해 설정된다. 이는 식 (1)로 정의할 수 있다.
PPT Slide
Lager Image
여기서 It ( x , y )는 현재 입력 프레임, Bt ( x , y )는 추정된 배경 영상이다. k 는 사용자가 지정한 상수로써, 배경 영상의 변화량을 결정한다. 만일 k 가 작다면 배경 영상의 밝기는 천천히 변하고, 크다면 배경 영상은 빠르게 갱신될 것이므로 객체의 움직임이 없다면 점진적으로 배경으로 판단될 가능성이 크다. 실험에서는 k = 1로 설정하였다.
- 2. 전경 객체 추출
앞서 획득한 배경 영상으로부터 현재 영상에 존재하는 객체를 추출한다. 현재 영상에서 배경 영상을 제거함으로써 전경 객체를 얻을 수 있다. 이는 식 (2)로 나타낼 수 있다.
PPT Slide
Lager Image
실험에서는 σ는 10을 사용하였다. 현재 영상과 배경 영상의 차에서 임계값 이상의 차가 발생하면 255을 할당한다. 따라서 배경은 제거되고 동작하는 손의 모습이 영상에 저장된다.
- 3. 운동 히스토리 영상
운동 히스토리 영상(Motion History Image)은 Bovick 등이 제안한 운동 정보의 표현식인데 [13] , 주로 사람의 행위 및 자세를 인식하기 위해서 사용한 방법이다. 여기에서는 손의 동작을 포착하여 시각적인 면에서 객체영상보다 우수하게 객체의 이동을 추적할 수 있다. 운동 히스토리 영상 M 은 다음과 같이 구해진다.
PPT Slide
Lager Image
여기서, τ 는 255이며, δ 는 감소(decay) 파라메터로 실험에서는 32를 사용하였다. 이전과 현재의 전경영상을 비교하여 임계값 이상의 움직임이 있을 경우에는 이동된 위치를 보여주기 위해 τ 값을 할당하고, 아닐 경우에는 δ 만큼 감소하면서 운동 에너지를 감소시킨다. 최근 움직임이 있는 픽셀은 큰 값을 갖는 특성을 가지고 있다. δ 가 크면 픽셀의 MHI는 급격히 감소하게 된다. MHI는 사람의 자세를 인식하는데 활용되어 왔는데, 그림 2 는 팔을 상하로 움직일 때에 얻어지는 MHI를 보여준다.
PPT Slide
Lager Image
팔의 움직임을 나타내는 운동 히스토리 영상[12] Fig. 2. Motion history image for arms wave
IV. CamShift 알고리즘
객체 추적을 위해 MeanShift [14] , CamShift [15] , ABCshift [16] 등 많은 알고리즘이 개발되었다. 상기 알고리즘의 공통점은 추적하고자 하는 물체의 영역에 대한 모델을 설정한 후, 입력 영상에 대해 모델에 대한 역투영을 수행하여 확률 영상을 얻는 과정이다. 확률 영상으로부터 추적하고자 하는 물체의 영역 및 중심을 계산한다. MeanShift 알고리즘은 데이터 집합의 밀도분포를 기반으로 관심 객체를 고속으로 추적하는 알고리즘이다. Bradski가 제안한 CamShift 알고리즘은 MeanShift를 개선한 방법이다. MeanShift 알고리즘은 객체의 크기 변화를 처리할 수 없는 단점을 개선하여, 가변 크기의 객체에 대해서도 효과적으로 추적을 할 수 있음을 증명하였다. MeanShift의 또 다른 단점은 객체가 유사한 색 분포를 갖는 배경에 접근하였을 때 추적에 실패할 가능성이 높다는 점이다. ABCshift는 CamShift와 유사하나, 객체와 배경이 유사한 색을 가질 때에도 성공적으로 추적할 수 있도록 보완한 알고리즘이다. 본 논문에서는 CamShift를 이용하여 손을 추적한다.
입력영상에 객체 모델을 역투영하여 획득한 확률 영상은 앞서 획득한 MHI 및 전경객체 영상과 병합된다. 객체 영상은 이진영상이며, MHI와 확률 영상은 8비트 영상이다. 각 특징들은 다음 식 (4)를 이용하여 병합한다.
PPT Slide
Lager Image
여기서, BPt 는 현재영상의 확률 영상,
PPT Slide
Lager Image
는 갱신된 확률 영상이다. & 와 |은 논리 연산으로 두 영상의 OR와 AND를 의미한다. 두
PPT Slide
Lager Image
로부터 CamShift는 손의 위치를 추적한다.
V. 실험 결과
제안방법의 성능을 검증하기 위해서 실험 영상을 제작하였다. PC에 연결된 웹캠을 이용하여 총 4개의 실험 비디오를 촬영하였다. 영상 해상도는 1280x720이고, 실험을 위해 4명이 참여하였다. 정지 상태에서 점차 손을 움직이고, 움직임의 형태는 모두 달리하였다. 배경영상, 전경영역으로부터 손의 영역을 추출하고, 운동 방향은 MHI를 이용하여 최대 에너지를 주는 영역을 찾고, 여기서 전경영역을 이용하여 손의 중심점 및 크기를 구한다. 영역의 탐색은 바운딩박스를 기반으로 수행된다.
제안방법의 성능의 검증을 위해 Liu [7] 의 방법과 비교하였다. Liu도 마찬가지로 손의 추적을 위해 움직임 정보를 활용하고자 하였다. 그러나, Liu는 손의 움직임을 표현하기 위해 손의 에지를 이용하였다. 추출된 에지 영상으로부터 차영상을 획득함으로써 형태의 변화를 계산하였다. 비록 에지가 손의 형태를 표현하기에 유용한 특징이기는 하지만 움직임을 나타내기에 부족하다. Liu의 방법에서는 MeanShift를 이용하여 손을 추적하였으나, 앞서 언급하였듯이 MeanShift는 객체 크기의 변화를 고려하지 않는다. 따라서 공정한 성능비교를 위해 CamShift로 변경하여 수행하였다.
그림 3 ~ 6 은 제안 방법의 실험 결과를 보여준다. 그림에서 (a)는 결과 영상으로서, 손으로 탐지된 영역은 붉은색 바운딩 박스로 표시된다. (b)는 생성된 배경 모델로부터 획득한 이진 전경영상이다. (c)는 전경영상으로부터 계산된 MHI이다. MHI로부터 손의 움직임 방향을 유추할 수 있다. (d)는 손의 컬러 모델로부터 역투영하여 획득한 확률 영상이다. 제안방법의 강인성을 검증하기 위해서 장면에 모두 피부색과 유사한 기구들을 배치하였다. 예를 들어, 실험영상에서 보이는 책장 및 책상 등은 실제로 사람의 피부색과 유사한 색을 가지고 있다. 따라서, 확률 영상에는 이러한 기구들에도 상대적으로 높은 확률이 할당된다. (e)는 갱신된 확률 영상이고, 마지막으로 (f)는 Liu의 방법으로부터 획득한 실험 결과이다. 갱신된 확률 영상은 CamShift 추적을 움직임이 존재하는 영역으로 한정하는 것을 의미한다. 움직임이 없는 영상에서는 손이 정지되어 있으므로, 손 위치의 변경없이 이전 좌표를 그대로 유지한다. 모든 실험영상은 비교적 복잡한 배경을 가진 환경으로부터 획득하였다. 그림 3 은 다른 실험영상과 달리 사람의 후면을 촬영하였고, 그림 6 은 측면에서 촬영하였다. 나머지 영상은 모두 정면을 바라보고 촬영하였다. 또한 손의 컬러는 비교적 얼굴 색과 유사하기 때문에 그림 5 에서는 손을 최대한 얼굴 부근에서 위치시켰다.
PPT Slide
Lager Image
Video1의 실험 결과. (a) 손 추적 영상, (b) 전경 영상, (c) 운동 히스토리 영상, (d) 컬러 역투영 영상, (e) 갱신된 역투영 영상 및 (f) Liu의 결과 Fig. 3. Experimental results of Video1. (a) tracked hand image, (b) FG image, (c) MHI, (d) color backprojection map, (e) updated backprojection map and (f) Liu’s results
PPT Slide
Lager Image
Video2의 실험 결과. (a) 손 추적 영상, (b) 전경 영상, (c) 운동 히스토리 영상, (d) 컬러 역투영 영상, (e) 갱신된 역투영 영상 및 (f) Liu의 결과 Fig. 4. Experimental results of Video2. (a) tracked hand image, (b) FG image, (c) MHI, (d) color backprojection map, (e) updated backprojection map and (f) Liu’s results
PPT Slide
Lager Image
Video3의 실험 결과. (a) 손 추적 영상, (b) 전경 영상, (c) 운동 히스토리 영상, (d) 컬러 역투영 영상, (e) 갱신된 역투영 영상 및 (f) Liu의 결과 Fig. 5. Experimental results of Video3. (a) tracked hand image, (b) FG image, (c) MHI, (d) color backprojection map, (e) updated backprojection map and (f) Liu’s results
PPT Slide
Lager Image
Video4의 실험 결과. (a) 손 추적 영상, (b) 전경 영상, (c) 운동 히스토리 영상, (d) 컬러 역투영 영상, (e) 갱신된 역투영 영상 및 (f) Liu의 결과 Fig. 6. Experimental results of Video4. (a) tracked hand image, (b) FG image, (c) MHI, (d) color backprojection map, (e) updated backprojection map and (f) Liu’s results
- 1. Bounding-box Size Validation
그림 7 , 8 은 손의 영역을 검출하여 획득한 바운딩 박스의 크기를 비교한 결과를 보여준다. 바운딩 박스의 너비와 높이를 각각 비교하였는데, 적색 그래프는 Ground truth를 나타내고, 청색 그래프는 제안 방법으로부터 획득한 바운딩박스, 녹색 그래프는 Liu의 방법으로 획득한 바운딩 박스의 크기이다. 실험에 사용된 영상은 총 1,982 프레임이며, Ground truth는 모두 수작업으로 작성하였다. Video1, Video3, Video4에서는 비교적 일정한 바운딩 박스의 크기를 갖는 반면, Video2에서는 바운딩 박스 크기의 변화폭이 큰 것을 알 수 있다. Video2에서는 실제로 손을 다양하게 움직임으로써 손 크기의 편차가 크다. Liu의 방법 역시, Video2에서 큰 편차를 보이고 있다. 실제로 Video2에서 Liu 방법은 추적에 실패하는 경우가 빈번히 발생하였다.
PPT Slide
Lager Image
검출된 손의 바운딩 박스 너비의 비교 Fig. 7. Comparison of bounding box width of detected hands
PPT Slide
Lager Image
검출된 손의 바운딩 박스 높이의 비교 Fig. 8. Comparison of bounding box height of detected hands
- 2. Center Location Error
제안 방법의 객관적 성능을 검증하기 위해서 바운딩 박스의 중심점과 ground truth의 중심점의 위치를 비교하였다. 중심점의 위치 비교는 다음 식을 이용하여 측정하였다.
PPT Slide
Lager Image
여기에서
PPT Slide
Lager Image
은 제안하는 방법의 중심점이고,
PPT Slide
Lager Image
는 ground truth의 중심점이다. N 은 프레임의 개수이다.
그림 9 에서는 중심점의 위치 차이를 그래프로 나타내었다. 그래프에서는 중심점의 차이가 비교적 크게 측정되었다. 실제로 Video3, Video4에서는 중심점간의 거리가 20~30픽셀정도의 차이가 일정하게 발생하고 있는데, 이러한 결과가 발생하는 원인은 다음과 같다. 제안하는 방법과 ground truth의 중심점은 각각의 바운딩 박스로부터 중심점을 측정하였는데, 실제로 정성적 성능평가에서는 올바르게 추적되었다고 판단할 수 있을지라도 바운딩 박스의 크기의 오차로 인해 중심점간의 거리가 늘어나게 된다.
PPT Slide
Lager Image
제안방법의 결과와 ground truth의 중심점 비교 Fig. 9. Center point comparison of the proposed method and ground truth
제안하는 방법과 Liu의 방법은 손의 중심점 위치에 있어서 큰 차이를 보이지는 않았으나, 제안하는 방법의 결과가 전체적으로 Liu의 방법에 비해 낮은 그래프를 형성하고 있다. Video2, Video4에서는 그래프의 중간에 약간의 차이가 발생하는 구간을 확인할 수 있는데, 그래프 상에서는 차이가 크지 않지만 사실 이는 큰 오차에 해당한다. Liu의 방법은 Video2에서 추적에 실패하는 경우가 발생하는데, 주로 손이 얼굴을 지날 때 추적기가 손이 아닌 얼굴 쪽으로 움직이는 경우가 존재한다. Liu는 바운딩 박스의 크기 변화를 고려하지 않는 MeanShift를 사용하였기 때문에 문제가 없었으나, CamShift를 이용할 때는 이와같이 추적에 실패하는 결과가 발생하는 원인이 된다.
- 3. Normalized Mean Squared Error
NMSE(Normalized Mean Squared Error) [17] 는 추정 값 또는 모델이 예측한 값과 실제 환경에서 관찰되는 값의 차이를 비교할 때 흔히 사용되는 척도로써, 다음 식으로 정의할 수 있다. 여기에서는 실험 결과와 ground truth 사이의 전체 편차로 비교하였다.
PPT Slide
Lager Image
여기서
PPT Slide
Lager Image
,
PPT Slide
Lager Image
,
PPT Slide
Lager Image
,
PPT Slide
Lager Image
는 제안하는 방법으로 획득한 바운딩 박스의 너비(width), 높이(height)이고 및 그의 평균값이다.
PPT Slide
Lager Image
,
PPT Slide
Lager Image
,
PPT Slide
Lager Image
,
PPT Slide
Lager Image
는 ground truth의 바운딩 박스의 너비, 높이 및 그의 평균값이다. N 은 프레임의 개수이다. 단순히 바운딩 박스의 크기를 비교한다면, 보통 손의 크기가 작을 때는 오차가 작고, 손의 크기가 크면 오차의 크기가 크게 나타나게 되므로 측정된 오차를 신뢰할 수 없게 된다. 그러므로 각 샘플의 너비와 높이의 차이만을 측정하는 것은 부적절하다. 각 샘플의 오차를 평균 크기 오차로 정규화를 수행함으로써 신뢰할 수 있는 오차를 계산할 수 있다.
4개의 실험 영상으로부터 전체 영상에 대해서 측정된 너비와 높이의 NMSE를 표 1 에서 정리하였다. Video4를 제외한 모든 실험 영상에서 높이가 너비보다 큰 값을 갖는 것을 확인할 수 있는데, 이는 실험에 사용된 손의 형태가 주로 너비보다 높이가 크기 때문에 이러한 결과가 발생하게 된다. Video4에서는 측정된 손의 너비가 비교적 작게 추출되었다.
실험 영상의 NMSE (단위: 픽셀)Table 1. NMSE for test sequences (unit: pixel)
PPT Slide
Lager Image
실험 영상의 NMSE (단위: 픽셀) Table 1. NMSE for test sequences (unit: pixel)
- 4. Euclidean Distance of Corners
객관적 성능에 있어서, 제안하는 방법의 추가 평가를 위해, 측정된 바운딩 박스의 4개의 코너점과 ground truth의 4개의 코너점 사이의 Euclidean distance를 측정하였다. 이는 다음 식 (7)로부터 계산할 수 있다.
PPT Slide
Lager Image
여기서
PPT Slide
Lager Image
은 측정된 바운딩 박스의 4개의 코너점이고,
PPT Slide
Lager Image
는 ground truth의 4개의 코너점이다. 그림 10 은 코너점의 Euclidean distance를 보여주고 있다.
코너점의 거리는 중심점 오차와 바운딩 박스의 크기 오차를 하나의 수치로 표현한다. 그림 10 에서는 앞서 중심점 비교에서의 실험 결과와 비교적 유사한 결과를 보이고 있는데, 객체의 추적에 있어서는 제안방법과 Liu의 방법이 유사한 성능을 보이지만, 객체의 크기를 고려하게 되면 Liu의 방법은 성능이 저하되는 반면, 제안하는 방법은 꾸준히 실패 없는 추적이 가능함을 확인할 수 있다.
PPT Slide
Lager Image
제안방법의 결과와 ground truth의 코너점 비교 Fig. 10. Corner point comparison of the proposed method and ground truth
VI. 결 론
본 논문에서는 손 동작 인식의 전처리로 중요한 기능인 손 검출 및 추적 방법을 제안하였다. 배경 모델링을 이용하여 전경 객체를 추출을 한 후에, 이 전경 객체의 운동 히스토리 영상 MHI를 생성하였다. 생성된 운동 히스토리 영상은 손의 컬러 모델에 대한 역투영 확률 영상과 결합하여 갱신되었다. CamShift 알고리즘은 갱신된 확률 영상을 이용하여 손을 추적하도록 하였다.
실험에서는 제안하는 방법의 성능을 검증하기 위해 피부색 검출과 에지 운동을 결합한 Liu의 방법과 비교하였다. 그러나 피부색 검출은 주변의 컬러의 영향을 많이 받기 때문에 종종 성능 저하가 발생하는 반면, 운동 히스토리 영상은 손의 움직임 특성을 잘 표현하고 특히 새로 발생하는 운동 픽셀에 큰 MHI값을 할당함으로써 블록 기반 탐색에 매우 적합하다고 할 수 있다. 자체 촬영한 4개의 실험 영상에 제안 방법을 적용한 결과, 제안방법은 안정적이고, 만족할만한 결과를 얻었음을 입증하였다.
BIO
길종인
- 2010년 8월 : 강원대학교 컴퓨터정보통신공학과 학사
- 2012년 8월 : 강원대학교 컴퓨터정보통신공학과 석사
- 2012년 9월 ~ 현재 : 강원대학교 IT대학 컴퓨터정보통신공학과 박사과정
- 주관심분야 : 객체 트랙킹, 얼굴인식, 점유센서, 머신러닝
김미나
- 2017년 2월 : 강원대학교 IT대학 컴퓨터정보통신공학과 학사
- 2017년 3월 ~ 현재 : 강원대학교 컴퓨터정보통신공학과 석사과정
- 주관심분야 : 핸드 트랙킹, 영상처리, 컴퓨터비전
황환규
- 1976년 : 서울대학교 공과대학 학사
- 1987년 : University of Florida, 전기공학과 석사
- 1991년 : University of Florida, 전기공학과 박사
- 1992-1994년 : 전자통신연구원 선임연구원
- 1994년 ~ 현재 : 강원대학교 컴퓨터정보통신공학과 교수
- 주관심분야 : 이미지 검색, 데이터 마이닝
김만배
- 1983년 : 한양대학교 전자공학과 학사
- 1986년 : University of Washington, Seattle 전기공학과 공학석사
- 1992년 : University of Washington, Seattle 전기공학과 공학박사
- 1992년 ~ 1998년 : 삼성종합기술원 수석연구원
- 1998년 ~ 현재 : 강원대학교 컴퓨터정보통신공학과 교수
- 2016년 ~ 현재 : 강원대학교 정보통신연구소 소장
- 주관심분야 : 3D영상처리, 비전점유센서, 객체인식
References
Kainz O. , Jakab F. 2014 Approach to Hand Tracking and Gesture Recognition Based on Depth-Sensing Cameras and EMG Monitoring Acta Informatica Pragensia 3 (1) 104 - 112    DOI : 10.18267/j.aip.38
Sato Y. , Kobayashi Y. , Koike H. 2000 Fast Tracking of Hands and Fingertips in Infrared Images for Augmented Desk Interface IEEE International Conference on Automatic Face and Gesture Recognition 462 - 467
Brasnett P. , Mihaylova L. , Canagarajah N. , Bull D. 2005 Particle filtering with multiple cues for object tracking in video sequences Proceedings of SPIE 5685, Image and Video Communications and Processing 430 - 441
Zhang T. , Fei S. 2014 Target tracking based on particle filter algorithm with multiple cues fusion Proceedings of the 26th Chinese Control and Decision Conference (2014 CCDC) 1660 - 1665
Liang S.-M. , Huang S.-S 2013 Fingertip positioning and tracking by fusing multiple cues using particle filtering Proceedings of 2013 IEEE International Symposium on Consumer Electronics (ISCE) 205 - 206
Zhou H. , Gao Y. , Yuan G. , Ji R. 2015 Adaptive multiple cues integration for particle filter tracking Proceedings of IET International Radar Conference 2015 483 - 488
Liu L. , Li X. , Zhao Y. , Chen J. 2017 A Real-time and Low-cost Hand Tracking System IEEE International Conference on Consumer Electronics
Wen Z. , Peng Z. , Deng X. , Li S. 2011 Particle filter object tracking based on multiple cues fusion Procedia Engineering 15 1461 - 1465    DOI : 10.1016/j.proeng.2011.08.271
Wren C. R. , Azarbayejani A. , Darrel A. T. , Pentland A. P. 1997 Pfinder: Real-time Tracking of the Human Body IEEE Transactions on Pattern Analysis and Machine Intelligence 19 780 - 785    DOI : 10.1109/34.598236
Stauffer C. , Grimson W. E. L. 2000 Learning Patterns of Activity Using Real Time Tracking IEEE Transactions on Pattern Analysis and Machine Intelligence 22 747 - 757    DOI : 10.1109/34.868677
Haritaoglu I. , Harwood D. , Davis L. S. 2000 W4: Real-time Surveillance of People and Their Activities IEEE Transactions on Pattern Analysis and Machine Intelligence 22 (8) 809 - 830    DOI : 10.1109/34.868683
Kim K. , Chalidabhongse T. H. , Harwood D. , Davis L. 2005 Real-Time Foreground-Background Segmentation Using Codebook Model Real-Time Imaging 11 (3) 172 - 185    DOI : 10.1016/j.rti.2004.12.004
Bobick A. , Davis J. 2001 The recognition of human movement using temporal templates IEEE Transactions on Pattern Analysis and Pattern Analysis 23 (3)
Comaniciu D. , Meer P. 2002 Mean shift: A robust approach toward feature space analysis IEEE Transaction on Pattern Analysis and Machine Intelligence 24 (5) 603 - 619    DOI : 10.1109/34.1000236
Bradski G. R. 1998 Computer Vision Face Tracking as a Component of a Perceptual User Interface IEEE Workshop Applications of Computer Vision 214 - 219
Stolkin R. , Florescu I. , Baron M. , Harrier C. , Kocherov B. 2008 Efficient Visual Servoing with the ABCshift Tracking Algorithm International Conference on Robotics and Automation 3219 - 3224
Lehmann E. Leo , Casella G. 2006 Theory of point estimation Springer Science & Business Media