Advanced
A fixed-point implementation and performance analysis of EGML moving object detection algorithm
A fixed-point implementation and performance analysis of EGML moving object detection algorithm
Journal of the Korea Institute of Information and Communication Engineering. 2015. Sep, 19(9): 2153-2160
Copyright © 2015, The Korean Institute of Information and Commucation Engineering
This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License(http://creativecommons.org/li-censes/by-nc/3.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.
  • Received : June 24, 2015
  • Accepted : July 31, 2015
  • Published : September 30, 2015
Download
PDF
e-PUB
PubReader
PPT
Export by style
Share
Article
Author
Metrics
Cited by
TagCloud
About the Authors
효식 안
경훈 김
경욱 신
kwshin@kumoh.ac.kr

Abstract
EGML (effective Gaussian mixture learning) 기반 이동 객체 검출 (moving object detection; MOD) 알고리듬의 하드웨어 구현을 위한 설계조건을 분석하였다. EGML 알고리듬을 OpenCV 소프트웨어로 구현하고 다양한 영상들에 대한 시뮬레이션을 통해 배경학습 시간과 이동 객체 검출에 영향을 미치는 파라미터 조건을 분석하였다. 또한, 고정소수점 시뮬레이션을 통해 파라미터들의 비트 길이가 이동 객체 검출 성능에 미치는 영향을 평가하고, 최적 하드웨어 설계 조건을 도출하였다. 본 논문의 파라미터 비트 길이를 적용한 고정소수점 이동 객체 검출 모델은 부동소수점 연산 대비 약 절반의 비트 길이를 사용하면서 MOD 성능의 차이는 0.5% 이하이다.
Keywords
Ⅰ. 서 론
감시시스템 (surveillance system)은 방범과 각종 사고 예방을 위해 도로, 교통, 건물 내ㆍ외부, 무인시설 등에서 널리 사용되고 있다. 최근에는 움직이는 객체가 검출된 경우만 영상을 저장하거나 움직이는 객체를 추적하는 지능형 감시시스템에 대한 관심이 높아지고 있으며, 이에 대한 연구가 활발히 이루어지고 있다 [1 , 2] . 지능형 감시시스템의 기반을 이루는 기술 중 하나가 영상 속에서 움직이는 객체를 찾아내는 이동 객체 검출(moving object detection; MOD)이다.
MOD를 위해 장면 차분 (temporal difference) 기법, 배경 차분 (background subtraction) 기법 등 다양한 방법들이 사용된다. 장면 차분 기법은 이전 픽셀과 현재 픽셀의 차를 이용하여 배경과 객체를 구분하는 방법이며, 역동적인 배경에서는 배경을 모두 객체로 인식하고, 반대로 느린 이동 객체는 객체의 윤곽만을 객체로 인식하는 단점이 있다. 배경 차분 기법은 배경을 모델링하여 배경과 이동 객체를 검출하는 방법으로서 가장 널리 사용 되고 있으며, 배경의 변화에 따라 적응적으로 배경을 모델링 하는 적응적 배경 차분 알고리듬이 대표적인 방법이다. 이를 위해 사용되는 가우시안 혼합모델(Gaussian mixture model; GMM)은 영상의 각 픽셀에 대해 여러 개의 가우시안 확률 분포를 적용하여 배경을 모델링 하는 방법이다 [3] . 이 방법은 배경에 적응해 나가는 학습 속도에 따라 성능에 큰 차이를 보이는 단점이 있다.
GMM 기반 배경 모델링 방법이 갖는 문제점을 해결하기 위해 EGML (effective Gaussian mixture learning)알고리듬이 제안되었으며, 각 가우시안 분포에 맞게 학습 속도를 조정함으로써 MOD 정확도를 향상시킨다 [4] . 그러나 역동적인 배경, 화면 흔들림, 조명 변화, 그림자 등의 상황에서 MOD 정확도가 다소 떨어지는 단점을 갖기도 한다 [5] . 이러한 요인들에 의한 영향을 줄이기 위해서는 영상의 종류에 따라 학습 속도와 알고리듬 파라미터 값을 적절하게 조절해야 한다.
본 논문에서는 EGML 알고리듬을 openCV로 구현하고, IEEE CDW-2012 데이터 세트에 제시된 기준 영상들에 대한 시뮬레이션을 통해 알고리듬 파라미터 값과 비트 길이가 MOD 성능에 미치는 영향을 분석하고 최적 하드웨어 설계 조건을 도출하였다.
Ⅱ. 이동 객체 검출 기술 동향
MOD를 위한 알고리듬들은 다양한 수학적 모델을 기반으로 한다. 입력 영상의 환경적인 특성을 고려할 때, 실내인 경우 배경이 고정되어있을 가능성이 높아 움직이는 모든 물체를 이동 객체로 인식해도 큰 문제가 되지 않는다. 그러나 실외 환경인 경우에는 바람에 흔들리는 나뭇가지나 물결 등 움직이는 물체자체가 배경이 될 수 있기 때문에 복잡한 환경에서도 이동 객체를 올바로 검출할 수 있는 기술이 필요하다. MOD를 위한 많은 기법들이 존재하지만 주로 차 영상, 배경 차분, 광류 흐름을 적용시킨다. 이들 3가지 기법 중에서 배경 차분은 복잡한 환경에서도 우수한 성능을 갖기 때문에 일반적으로 많이 적용된다 [6] . 배경 차분은 코드북 모델 [7] , 적응적 가우시안 혼합 모델 [3] , 비모수적 커널 기법 [8] 등의 알고리듬이 존재한다.
배경 차분 기법은 관심 영역이 포함되지 않은 추정 이미지 (배경 모델)와 관찰 이미지 (입력 영상)를 비교하는 절차에 의해 전경을 추출한다. 배경 차분 기법에서 배경 또는 조명의 변화, 화면 흔들림, 그림자 등의 원인으로 전경 영역을 완벽히 정의하는 것이 매우 어려운 일이다. 따라서 이러한 문제점들에 강인한 이상적인 전경 영역 검출을 위한 새로운 방법이 제안 되고 있다 [5] . RGB 색 공간을 기반으로 외곽선 비율에 따라 이동 객체와 그림자를 판정하는 방법이 문헌 [9] 에 제시되었다. 이동 객체와 그림자의 특성이 3차원 RGB 색 공간에서 분석되며, 현재 이미지와 배경 모델의 픽셀 밝기 및 색도의 왜곡에 기초하여 객체와 그림자를 구분한다.
문헌 [10] 에서는 빠른 조명 변화 조건에서 색도 모델과 휘도 비율 모델을 통해 접근 하는 방법을 제시하였다. 이 방식의 주요 초점은 빠른 조명 변화에 의해 오검출된 전경 픽셀들을 제거하는 것이다. 초기에 움직이는 물체와 오검출된 전경 픽셀 후보들을 분리하기 위해 색도 차 모델을 사용하여 오검출 전경 픽셀 확률 분포를 결정한다. 문헌 [11] 에서는 그림자 제거와 조명 변화 조건에서의 이동 객체 검출 방법을 제시하고 있다. 영상의 그림자 픽셀들을 제거하기 위하여 정규화된 국부적 감도 (local intensity)에 의해 그림자 픽셀들이 대체된다. 노이즈와 산란된 그림자를 제거하기 위해 침식 연산이 사용되며 윤곽 강조 기법을 사용하며 이동 객체의 윤곽을 찾고, 얻어진 이동 객체의 빈 공간을 채운다.
Ⅲ. 배경 차분 기반 이동 객체 검출
- 3.1. 가우시안 혼합 모델을 적용한 이동 객체 검출
배경 차분 기반 MOD 알고리듬에서 가장 먼저 처리되는 과정은 배경 추출이다. 추출된 배경과 입력 픽셀값의 차 (difference)를 구하고, 그 차이가 설정된 임계값 보다 큰 경우에는 해당 픽셀을 전경으로 검출하며, 임계값 보다 작은 경우에는 배경으로 분류한다. 장면 변화에 따라 추출된 배경값이 변화를 보이는 경우에 적응적 가우시안 혼합모델을 이용하면 더욱 효과적인 배경 모델링이 가능하다.
적응적 가우시안 혼합 모델에서 임의의 시간 t 에 입력된 픽셀이 배경일 확률 P ( Xt ) 은 식 (1)과 같이 정의된다. K 는 가우시안의 개수이며 ω i, t 는 가우시안의 가중치, G ( Xt , μi , t , Σ i , t )는 평균 μi , t 와 공분산 행렬 Σi , t = σ 2 I 을 갖는 가우시안 확률 밀도 함수를 나타낸다. 가우시안 확률 밀도 함수는 학습율 α 와 함께 식 (2)와 같이 각 가우시안의 파라미터를 갱신할 때 사용되며, ρi 값의 크기에 따라 갱신 비율이 달라진다.
PPT Slide
Lager Image
PPT Slide
Lager Image
가중치 ω 를 표준편차 σ 로 나눈 값에 따라 각 가우시안의 분포를 내림차순으로 정렬한 후, 식 (3)을 만족하는 B 개의 분포를 배경으로 모델링한다 [12] . 식 (3)에서 Tf 는 배경의 동적 정도를 나타내는 임계치이다.
PPT Slide
Lager Image
배경 차분 기반의 이동 객체 검출은 그림 1 과 같이 크게 3단계의 과정으로 처리된다. 전처리 과정에서는 잡음 제거를 위해 가우시안 필터가 적용되며, 컬러 영상이 그레이 스케일로 변환된다. 전처리 과정 후, 배경 학습 알고리듬을 통해 배경이 학습되고, 입력 픽셀과 학습된 배경의 차를 분석하여 전경 또는 배경으로 분류된다. 후처리 과정에서는 MOD 결과를 보정하기 위해 메디안 필터가 적용된다.
PPT Slide
Lager Image
배경 차분 기반 이동 객체 검출 Fig. 1 MOD based on background subtraction
- 3.2. EGML 알고리듬
EGML 알고리듬은 가변 학습율을 적용하여 가우시안의 평균 μ 와 분산 σ 2 을 갱신함으로써 빠른 수렴속도와 높은 안정도를 갖도록 개선된 가우시안 혼합 모델 기반의 배경 생성 방법이다. 배경 학습 과정에서 학습율 α 에 의해 가중치 ω 가 갱신되는 관계는 식 (4)와 같다. 가중치 ω 는 최초로 생성되는 배경의 조건을 판단하고 새로운 객체를 배경으로 추가할 때 적용되어 가우시안 생성과 소멸의 기준으로 사용된다.
PPT Slide
Lager Image
가우시안의 평균 μ 와 표준편차 σ 는 각 가우시안의 매칭 빈도수 ck 를 이용하여 식 (5)-(8)과 같이 계산된다. EGML 알고리듬은 승자독식 (Winner-Take-All) 방식을 적용하므로, 가장 높은 확률을 가진 가우시안은 qk = 1이 되고, 나머지 가우시안은 qk = 0이 되어 파라미터가 갱신된다.
PPT Slide
Lager Image
PPT Slide
Lager Image
PPT Slide
Lager Image
PPT Slide
Lager Image
입력되는 픽셀 값이 어느 가우시안에도 포함되지 않을 경우에는 식 (9)에 의해 가장 낮은 가중치를 갖는 가우시안의 파라미터들이 초기화된다. 새롭게 생성되는 가우시안은 ck = 1로 초기화되어 평균과 분산이 빠른 속도로 수렴되며 시간이 지날수록 α 값에 근접해져 높은 안정도를 갖는다 [4] .
PPT Slide
Lager Image
그림 2 는 EGML을 포함한 대표적인 MOD 알고리듬 4가지의 MOD 결과를 보인 것이며, 표 1 은 알고리듬 별 MOD 성능을 비교한 것이다 [4 , 13 - 15] . F-measure는 검지율 Recall = TP /( TP + FN )과 정밀도 Precision = TP /( TP + FP )의 조화 평균 (harmonic mean)으로 0 ≤ F - Measure ≤ 1의 값을 가지며, 1에 가까울수록 성능지표가 높다. TP (True Positive)는 객체 픽셀이 객체로 인식된 총 픽셀수를 나타내며, FN (False Negative)과 FP (False Positive)는 각각 객체 픽셀이 배경으로 인식된 총 픽셀 수, 그리고 배경 픽셀이 객체로 인식된 총 픽셀 수를 나타낸다. 그 외의 지표로서 그림자 픽셀을 객체로 인식된 총 픽셀 수를 나타내는 SE (Shadow Error)가 있다.
PPT Slide
Lager Image
MOD 알고리듬에 따른 이동 객체 검출 결과 (a) 입력 영상, (b) 그라운드 트루스, (c) EGML, (d) PAWCS, (e) PBAS, (f) VIBe+ Fig. 2 MOD results of various algorithms (a) input image, (b) Ground-Truth, (c) EGML, (d) PAWCS, (e) PBAS, (f) VIBe+
MOD 알고리듬의 성능 비교Table. 1 Performance comparison of MOD algorithms
PPT Slide
Lager Image
MOD 알고리듬의 성능 비교 Table. 1 Performance comparison of MOD algorithms
Ⅳ. 소프트웨어 구현 및 파라미터 분석
EGML 기반의 MOD 알고리듬을 C++ 및 OpenCV을 사용하여 모델링하였으며, IEEE CDW-2012 데이터 세트에 대한 MOD 결과를 ROC-Curve와 F-measure 값으로 MOD 성능을 분석하였다.
각 범주별 영상에 대한 분석 결과는 그림 3 과 같으며, 대부분의 영상에서 ROC- Curve는 기울기가 1인 기준선 보다 상단에 형성되어 있어 EGML 알고리듬의 유용성을 확인할 수 있다. 알고리듬에 적용시킬 학습율 α , 임계값 T , 표준편차의 최소값 σ min 을 결정하기 위해 3가지 파라미터 값을 가변시키면서 ROC-Curve 특성을 분석한 결과, 그림 3 (a),(c),(e),(f)의 안정된 영상은 α 값이 크고 (0.003), T × σ min = 18인 경우에 가장 좋은 성능을 나타냈다. 그림 3 (b),(d)와 같은 불안정한 영상은 안정된 영상에 비해 MOD 성능이 저하되었으며, α 값이 작고 (0.001), T × σ min = 30인 경우에 가장 좋은 성능을 나타냈다.
PPT Slide
Lager Image
영상 범주별 MOD 결과의 ROC-Curve 성능 (a) pedestrians-baseline, (b) boulevard-camera Jitter, (c) canoe-dynamicBackground, (d) parking-intermittentObject Motion, (e) peopleInShade- Shadow, (f) park-thermal Fig. 3 ROC-Curve performances of MOD for various categories of images (a) pedestrians-baseline, (b) boulevardcameraJitter, (c) canoe-dynamicBackground, (d) parkingintermittentObjectMotion, (e) peopleInShade-Shadow, (f) park-thermal
그림 4 는 안정된 pedestrians 영상과 흔들림이 있는 불안정한 boulevard 영상에 대해 α σ min 값에 따른 MOD 결과를 보이고 있으며, 불안정한 영상은 안정된 영상보다 파라미터 값에 따른 차이가 크다는 것을 확인할 수 있다. 표 2 는 최적의 파라미터 값을 적용한 경우에 범주별 각 영상들의 F-measure 값이다.
PPT Slide
Lager Image
파라미터 값에 따른 이동 객체 검출 결과 (a) pedesrians, (b) boulevard Fig. 4 MOD results for various parameter values (a) pedestrians, (b) boulevard
파라미터에 따른 F-measure 성능 분석Table. 2 F-measure performances for various parameter values
PPT Slide
Lager Image
파라미터에 따른 F-measure 성능 분석 Table. 2 F-measure performances for various parameter values
Ⅴ. 고정소수점 비트 길이 분석
EGML 기반 이동 객체 검출 시스템의 하드웨어 구현을 위해서는 고정소수점 (fixed-point) 연산이 적용되므로, 파라미터 및 연산 회로의 비트 길이가 MOD 결과에 미치는 영향을 고려해야 한다. EGML 기반 이동 객체 검출 알고리듬의 최적 하드웨어 설계조건을 도출하기 위해 고정소수점 시뮬레이션으로 성능을 분석하였다.
본 논문에서는 학습율 α 의 최소값을 0.001로 적용하였으며, 학습율에 영향 받는 모든 파라미터들을 동일한 정밀도로 표현하기 위해 μ σ 의 소수부와 관련 연산회로의 비트 길이를 최대 10-비트로 설정하였다. 또한, ω 의 소수부와 관련 연산회로의 비트 길이를 최대 20-비트로 설정하였으며, 비트 길이를 1-비트씩 줄이면서 MOD 결과의 F-measure 값을 분석하였다.
그림 5 는 각각 ω , μ , σ 의 비트 길이 변화에 따른 F-measure 결과를 보인 것이다. 그림 5 (a)에서 traffic 영상의 경우 학습율 α 값을 0.003 (≈ 2 -8.4 )으로 설정했으며 9-비트까지 출력이 가능하였다. 나머지 두 영상의 경우 ω 의 정밀도 2 -10 표현할 수 있는 최솟값인 10-비트 이하의 값을 적용하면, 이동객체 검출이 되지 않음을 확인할 수 있다.
PPT Slide
Lager Image
비트 길이에 따른 F-measure 성능 Fig. 5 F-measure performances for various bit-width
또한 안정된 배경을 갖는 영상은 불안정한 영상에 비해 μ , σ 의 비트 길이 감소에 따른 성능 저하가 비교적 작음을 알 수 있다. 그림 5 (b)에서 canoe 영상의 경우 μ 가 3-비트인 경우에 5-비트인 경우 보다 F-measure 값이 약간 증가한다. 그림 6 은 canoe 영상의 μ 의 비트 길이에 따른 MOD 결과를 보인 것이다. 그림 6 에서 볼 수 있듯이, μ 의 비트 길이가 감소하면 이동 객체 검출 영역의 크기가 작아지지만 노이즈 영역도 작아짐에 따라 F-measure 값이 상승하는 것으로 분석되었다. 이는 비트 길이 감소에 따른 부작용으로 최적의 비트 길이로 고려하지 않는다.
PPT Slide
Lager Image
canoe 영상의 μ의 비트 길이에 따른 MOD 결과 Fig. 6 MOD results of canoe image according to bit width of μ
본 논문에서는 그림 6 에서 F-measure가 급격히 감소하는 지점을 기준으로 해당 비트 길이에 약 2-비트의 마진을 적용해 최적의 비트 길이를 ω : (1.17), μ : (9.6), σ : (8.6)으로 결정하였다. 여기서 ( A , B ) 는 정수부분 A -비트, 소수부분 B -비트를 나타낸다.
그림 7 은 32-비트 부동소수점 (a), 본 논문에서 사용된 비트 길이 (b), 문헌 [16] 에서 적용된 비트 길이 (c) 그리고 MOD가 가능한 최소 비트 길이 (d)에 따른 MOD 결과를 보이고 있다. 표 3은 각각의 비트 길이에 따른 이동 객체 검출 결과의 F-measure값으로, 본 논문에서 결정된 비트 길이 (b)의 경우 부동소수점 연산 (a) 및 문헌 [16] 에서의 비트 길이 (c)에 비해 성능이 향상된 결과 를 보이고 있다.
PPT Slide
Lager Image
비트 길이에 따른 이동 객체 검출 결과 (a) 32-b 부동 소수점, (b) 고정 소수점 [본 논문], (c) 고정 소수점 [16], (d) 고정 소수점 [최소] Fig. 7 MOD results according to bit-width (a) 32-b floating-point, (b) fixed-point [this paper], (c) fixed- point [16], (d) fixed-point [minimum]
비트 길이에 따른 F-measure 값Table. 3 F-measures according to bit-width
PPT Slide
Lager Image
비트 길이에 따른 F-measure 값 Table. 3 F-measures according to bit-width
Ⅵ. 결 론
본 논문에서는 EGML 알고리듬을 이용한 이동 객체 검출 과정을 소프트웨어로 모델링 하였으며, 다른 MOD 알고리듬과의 F-measure 성능을 비교함으로써 해당 알고리듬의 유용성을 확인하였다, 또한 다양한 범주의 영상들에 대해 높은 MOD 성능을 갖도록 최적의 파라미터 값을 도출하였다. 또한, 하드웨어 설계를 위한 파라미터의 고정소수점 비트 길이를 분석하고 최적의 비트 길이를 도출하였다. 본 논문에서 결정된 고정 소수점 비트 길이는 부동소수점 연산 대비 약 절반의 비트 길이를 사용하면서 0.5% 이내의 MOD 성능 차이를 갖는 것으로 확인되었다.
Acknowledgements
This work was supported by the Industrial Core Technology Development Program (10049009, Development of Main IPs for IoT and Image-Based Security Low-Power SoC) funded by the Ministry of Trade, Industry & Energy.
BIO
안효식(Hyo-Sik An)
2014년 8월 금오공과대학교 전자공학부(공학사)
※관심분야 : 통신 및 신호처리용 반도체 IP 설계, 정보보호용 반도체 IP 설계
김경훈(Gyeong-hun Kim)
2015년 8월 금오공과대학교 대학원 전자공학과(공학석사)
2015년 9월 ~ 현재 픽셀플러스(주) 연구소
※관심분야 : 영상처리, 인터페이스 프로토콜, 정보보호용 반도체 IP 설계
신경욱(Kyung-Wook Shin)
1984년 2월 한국항공대학교 전자공학과(공학사)
1986년 2월 연세대학교대학원 전자공학과(공학석사)
1990년 8월 연세대학교대학원(공학박사)
1990년 9월∼1991년 6월 한국전자통신연구소 반도체연구단(선임연구원)
1991년 7월∼현재 금오공과대학교 전자공학부(교수)
1995년 8월∼1996년 7월 University of Illinois at Urbana-Champaign(방문교수)
2003년 1월∼2004년 1월 University of California at San Diego(방문교수)
2013년 2월∼2014년 2월 Georgia Institute of Technology(방문교수)
※관심분야 : 통신 및 신호처리용 SoC 설계, 정보보호 SoC 설계, 반도체 IP 설계
References
Hsiehm J. , Yu S. , Chen Y. , Hu W. 2006 “Automatic traffic surveillance system for vehicle tracking and classification,” IEEE transactions on Intelligent Transportation Systems 7 (2) 175 - 187    DOI : 10.1109/TITS.2006.874722
Black J. , Velastin S. , Boghossian B. “A real time surveillance system for metropolitan railways,” IEEE Conf. on Advanced Video and Signal Based Surveillance Sep. 2005 189 - 194
Stauffer C. , Grimson W. 1999 “Adaptive background mixture models for real-time tracking,” Proc. Computer Vision and Pattern Recognition 2 246 - 252
Lee D. 2005 “Effective Gaussian Mixture Learning for Video Background Subtraction,” IEEE Transaction on Pattern Analysis and Machine Intelligence 27 (5) 827 - 832    DOI : 10.1109/TPAMI.2005.102
Kulchandani S. , Dangarwala J. “Moving object detection: Review of recent research trends,” Pervasive Computing (ICPC), 2015 International Conference Jan. 2015
Piccardi M. 2004 “Background subtraction techniques: A review,” Proc. IEEE Int. Conf. Syst., Man Cybern. 4 3099 - 3104
Kim K. , Chalidabhongse T. , Harwood D. , Davis L. 2005 “Real-time foreground-background segmentation using code-book model,” Real-Time Imag., Special Issue on Video Object Processing 11 172 - 185
Elgammal A. , Duraiswami R. , Harwood D. , Davis L.S. 2002 “Background and foreground modeling using nonparametric kernel density estimation for visual surveillance,” Proc. IEEE 90 (7) 1151 - 1163    DOI : 10.1109/JPROC.2002.801448
Dong Xia , Wang Kedian , Jia Guohua “Moving Object and Shadow Detection Based on RGB Color Space and Edge Ratio,” IEEE 2nd International Conf. on Image and Signal Processing Oct. 2009 1 - 5
Choi Jin Min , Chang Hyung Jin , Yoo Yung Jun , Choi Jin Young 2012 “Robust moving object detection against fast illumiation change,” Computer Vision and Image Understanding 179 - 193    DOI : 10.1016/j.cviu.2011.10.007
Xiang Jinhai , Fan Heng , Liao Honghong , Xu Jun , Sun Weiping , Yu Shengsheng 2014 “Moving object detection and Shadow Removing under Changing Illumination Condition,” Mathematical Problems in Engineering 1 - 10
Suo P. , Wang Y. “An improved adaptive background modeling algorithm based on Gaussian Mixture Model,” ICSP 2008. 9th International Conference on Oct. 2008
St-Charles P.-L. , Bilodeau G.-A. , Bergevin R. “A Self-Adjusting Approach to Change Detection Based on Background Word Consensus,” IEEE Winter Conference on Applications of Computer Vision (WACV) Jan. 6-9, 2015
Hofmann M. , Tiefenbacher P. , Rigoll G. “Background Segmentation with Feedback: The Pixel-Based Adaptive Segmenter,” Proc. of IEEE Workshop on Change Detection June, 2012
Van Droogenbroeck M. , Paquot O. “Background Subtraction: Experiments and Improvements for ViBe,” CVPR Proc of IEEE Workshop on Change Detection June, 2012
Lim J. S 2006 “Hardware Implementation of Background Subtraction Algorithm,” Graduate School, Kyungbuk University