Advanced
Video Segmentation Using DCT and Guided Filter in real time
Video Segmentation Using DCT and Guided Filter in real time
Journal of Broadcast Engineering. 2015. Sep, 20(5): 718-727
Copyright © 2015, The Korean Society of Broadcast Engineers
  • Received : August 17, 2015
  • Accepted : September 22, 2015
  • Published : September 30, 2015
Download
PDF
e-PUB
PubReader
PPT
Export by style
Article
Author
Metrics
Cited by
TagCloud
About the Authors
현학, 신
주철, 이
원하, 김
hjk1017@ssu.ac.kr

Abstract
본 논문에서는 고정된 카메라에서 초기 프레임을 참조하여 현재 프레임에 새롭게 유입된 물체의 실시간 분류 방법을 제안한다. 제안한 알고리즘의 실시간 분류 처리를 위하여 복잡도를 최소화 하였다. 먼저 전경과 배경을 구분하는 이진 분류 영상을 추출하기 위하여 DCT(Discrete Cosine Transform) 기법을 사용한다. DCT는 기존 공간영역에서 Texture를 분석하는 방식보다 더욱 정확하게 Texture를 분석할 수 있다. 이는 주파수 영역에서 Texture 특징 분석이 더욱 용이하고 각 요소 안에 intensity와 texture 정보를 종합적으로 고려할 수 있기 때문이다. 또한 DCT 계산 복잡도를 최소화하기 위하여 DCT 수행 전에 색 정보를 이용하여 미리 분류 영역을 분석함으로써 처리 효율을 극대화 하였다. 마지막으로 생성된 이진 분류 영상을 자연스럽게 matting하기 위하여 Guided 필터 사용을 제안한다. Guided 필터는 guidance 정보를 통해 입력 영상을 전반적으로 개선할 수 있지만 intensity가 평탄한 영역 등에서 그 한계를 보여주므로 본 논문에서는 Guided 필터의 단점을 개선하는 방법을 추가적으로 제안한다.
Keywords
Ⅰ. 서 론
디지털 영상을 의미 있게 해석하기 위하여 객체 별로 분류하거나 관심 있는 영역으로 나누는 작업을 영상 분류라고 한다. 일반적으로 영상의 물체를 추출하거나 영상에서 전경/배경을 나누는 영상 처리 기법은 여러 응용분야에서 사용되고 있다. 근래에 영상 분류 알고리즘 연구가 많이 이루어지고 있는데 프레임간 비교를 통해 화소 단위로 Mixture of Gaussian 모델 [1] [2] 을 생성해서 배경을 분리하는 방법이 널리 사용되고 있다. 그 외 Bayesian decision 모델 [8] , Kernel density 모델 [9] 등 많은 다른 방법들이 소개되고 있다. 그러나 이러한 방법들은 intensity 정보만을 사용하기 때문에 충분한 성능을 제공하지 못하는 단점이 있다. 이에 [3 , 4 , 5 , 6 , 7] 에서는 texture 정보를 추가적인 feature 정보로 하여 알고리즘의 성능을 개선시킨다. 이는 다수의 영상 feature들을 사용함에 따라 정확도는 높아졌지만 그에 따른 알고리즘 복잡도가 높아지고 더욱 강력한 장치를 요구하게 된다는 것을 의미한다. [10] 에서는 복잡도가 높은 알고리즘에서 하드웨어적인 향상을 구현하였지만 추가적인 장치가 요구된다. 위와 같이 단일 영상에서 소프트웨어적인 연산만으로 물체를 분류하는 방식과 다르게 영상의 깊이 정보를 이용하는 연구도 이루어지고 있다. [11 , 12 , 13] 에서는 깊이 센서나 stereo 영상으로 깊이 정보를 얻음으로써 간단하게 전경과 배경을 분리하는 방법을 제시한다. 그러나 깊이 센서라는 추가적인 하드웨어가 요구되기 때문에 장치 가격은 증가하게 된다. 또한 깊이 센서의 기술적인 한계로 저해상도의 깊이 영상을 제공함으로써 실제 색 영상과의 합성이 불가피하게 되었다.
앞서 소개한 논문과 비교하여 본 논문에서는 추가적인 장치 없이 단일 카메라로 기존 방법의 성능을 보장하면서 복잡도를 낮춘 알고리즘을 제시한다. 고정된 카메라를 통해 참조 영상을 확보하는 초기화 과정으로 알고리즘이 시작된다. 제안하는 알고리즘은 RGB 색 정보를 기반으로 프레임간 DCT 요소 비교를 통해 이진 분류를 수행한다. 이 방법은 기존의 고전적인 색 또는 intensity 비교를 통한 분리 방법을 활용하는 동시에 영상 texture정보를 추가로 활용한 강력한 방법이다. 이미지 texture를 측정하는 방법 중 공간(spatial) 영역보다 주파수 영역에서 관찰하는 것이 성능이 좋기 때문에 변환된 DCT 도메인에서 더욱 정확한 texture 정보를 확보할 수 있다. 또한 Block DCT를 수행하면 알고리즘의 복잡도 및 계산 양을 현격히 줄일 수 있다. 일반적으로 Block단위 영상 처리는 under/over 분류를 야기할 수 있으므로 본 논문에서는 Guided 필터를 통해 이를 개선한다. Guided 필터는 edge 보존 기능을 제공하며 복잡도가 낮은 고성능 smoothing 필터로서 전경을 추출하는 matting에 유용한 필터로 알려져 있다 [14] . 또한 본 논문에서는 Guided 필터의 한계를 제시하고 그 한계를 극복하여 성능을 향상시키는 방법을 제안한다. 최종적으로 제안한 알고리즘은 전체적인 복잡도를 줄여 실시간 처리가 가능하고 동시에 성능을 향상시킨 데 의미가 있다. 본 논문은 다음과 같이 구성되어 있다. 두 번째 장은 색정보에 따른 Block DCT를 활용한 이진분류 방법을 소개한다. 세 번째 장은 under/over 분류된 결과를 Guided 필터로 matting하고 보완하는 방법을 제안한다. 네 번째 장은 예시 영상을 통한 시뮬레이션 결과 비교 및 실제 알고리즘의 복잡도를 제시하고, 다섯 번째 장에서 결과 분석을 통해 결론을 내린다. 그림 1 은 전체 흐름을 나타낸 구조도이다.
PPT Slide
Lager Image
전체 흐름도 Fig 1. Overall Flowchart
Ⅱ. RGB 분석 기반 Block DCT 이진 분류방법
공간영역에서의 texture 분석과 비교하여 DCT 도메인에서 영상을 분석하면 texture 정보를 더 정확하게 확보할 수 있다. 특히 DCT는 기존의 공간영역 기법과 다르게 복잡한 신호로 이루어진 texture뿐만 아니라 윤곽 texture(edge) 부분도 동시에 찾을 수 있다. 또한 intensity 정보도 포함하고 있기 때문에 활용도가 높다. 이렇듯 새로운 물체가 유입되지 않은 참조 프레임의 8x8 Block DCT 결과와 현재 프레임의 Block DCT 결과를 비교함으로써 현재 프레임에 새롭게 출현한 물체를 분류를 할 수 있다. 여기에 RGB 분석 결과를 추가적으로 포함시킨다.
- 1. RGB 분석을 통한 알고리즘 성능 향상 방법
DCT 변환에 앞서 RGB 크기 차이를 분석한다. 색 영상은 RGB 3개의 채널을 가지기 때문에 3채널 DCT를 수행하여 비교를 하는 것은 비효율적이다. 왜냐하면 3개의 채널 DCT를 한 후 비교를 하는 것은 계산 소요가 많기 때문이다. 기본적으로 프레임 간 RGB요소 중 가장 큰 변화만 고려하고 1개 채널에 대해서 DCT를 수행 하여도 같은 효과를 볼 수 있다. 따라서 식(1)과 (2)와 같이 RGB 가운데 가장 큰 차이를 갖는 채널을 구한 후 해당 채널만 Block DCT를 수행한다. Rr 은 참조 프레임에서 R 채널의 8x8 block 평균 화소값(Average pixel value)이고 Rc 는 현재 프레임에서 R 채널의 8x8 block 평균 화소값이다. G, B의 경우도 같은 방법으로 계산된다.
PPT Slide
Lager Image
PPT Slide
Lager Image
이렇게 함으로써 DCT를 각 block 당 한 개 채널만 수행하면서, DC 요소의 값이 결국 두 프레임에서 RGB 차이의 최댓값으로 나타낼 수 있는 장점이 있다. 또한 식 (3)과 같이 Diff max 의 값이 경험적으로 설정된 ρ 값 이상일 경우는 확실한 전경으로 분류하고 나머지에 대해서만 DCT를 수행한다.
PPT Slide
Lager Image
- 2. Block DCT기반 이진 분류 방법
명확한 색상 차이로 인해 구분된 전경 block을 제외하고, 아직 분류되지 않은 block을 DCT 변환을 통해 전경/배경으로 확정한다. 제안하는 방법은 DCT 내에서 참조 프레임과 현재 프레임의 생성된 DCT의 요소를 비교하여 분류를 한다. [15] 에 따르면 그림 2 과 같이 DCT는 DC, Low Frequency, Middle Frequency, High Frequency로 이루어지며 Middle Frequency와 High Frequency의 합 TexE = fmiddle + fhigh 은 block의 texture정도를 나타내고 TexE(Texture Energy)라 한다.
PPT Slide
Lager Image
DCT 요소 분석 Fig 2. DCT Component Analysis
이를 기반으로 식(4)와 같이 DC 차이를 이용하면 두 프레임간의 Intensity 차이를 구할 수 있고 TexE를 이용하면 texture정도의 차이를 구할 수 있다.
PPT Slide
Lager Image
Id 는 두 프레임의 block intensity 차이이고 Td 는 block texture 차이이다.
일반적으로 이진 분류영상을 만들 때 프레임 간의 차이 정도를 나타낼 수 있는 Id , Td 의 절대치가 사용자가 설정한 값보다 작으면 배경, 그렇지 않으면 전경으로 분류할 수 있다. 그에 따른 결과는 그림 3 과 같다.
PPT Slide
Lager Image
이진 분류 결과 (a) 원본 영상 (b) 이진 분류 영상 Fig 3. Binary Segmentation Result (a) Original Image (b) Binary Se- gmentation Image
색 정보와 DCT 정보의 병합으로 새롭게 출현한 전경을 올바르게 이진 분류할 수 있지만 block 처리이기 때문에 전경이 under/over 분류되는 경우가 발생한다. 따라서 다음절에서는 Guided 필터를 이용하여 under/over 분류 결과를 개선하는 방법을 제시한다.
Ⅲ. Guided 필터를 이용한 불충분 분류 개선방법
이 절에서는 전 단계에서 under/over 분류 결과를 개선하기 위한 matting 방법으로 Guided 필터 [14] 를 제시하고 추가적으로 Guided 필터의 한계를 해결하기 위한 방법도 제안한다.
- 1. 기존 Guided 필터 matting 방법
Guided 필터는 입력 영상 pi 에 guidance 영상 Ii 가 추가적으로 입력되어 출력영상 qi 을 출력하는 영상처리 필터이다. Guided 필터는 식(5)와 같이 표현될 수 있다.
PPT Slide
Lager Image
첫 번째 식에서 Ii qi 가 선형관계라고 가정할 때 두 번째 식과 같이 입출력이 되는 pi qi 에 대한 차이를 최소로 하는 계수 a , b 을 구할 수 있다. I는 현재 화소의 위치를 나타낸다. 구해진 계수들과 첫 번째 식을 이용하면 출력 영상을 얻을 수 있다. 본 논문에서는 under/over 이진 segmentation 영상을 pi 로 하고 현재 영상의 intensity 값을 Ii 로 한다.
식(5)의 차이의 최솟값에 따른 a , b 는 식(6)과 같다.
PPT Slide
Lager Image
CovIp 는 두 입력영상의 공분산을 나타내고 μp , μI 는 각 pi , Ii 입력 영상들의 window 영역 내 평균값이다. ε 는 Guided 필터의 파라미터로써 분모인 현재 영상의 분산이 낮은 평평한 영역일 때 a 의 값이 매우 크게 되는 경우를 방지하면서 smoothing정도를 조절한다. 또한 식(4)에서 window ω 는 크기에 따라 smoothing정도가 조절되므로 경험적으로 결정한다.
여기서 Guided 필터를 적용하면 이진 분류의 결과 값이 0에서 1사이의 실수 범위를 갖게 된다. 결과 값이 0인 경우 확실한 배경으로, 1인 경우 확실한 전경으로 판단 할 수 있다. 그사이의 값은 unknown 값으로써 hard threshold를 적용하면 이진 분류 결과로 다시 되돌릴 수 있다. 그러나 본 논문에서는 이진 분류로 변환하지 않고 [16] 의 Alpha Blending을 적용하여 Guided 필터 출력을 그대로 Alpha 값으로 활용하는 Blending 처리를 제안한다. 이 방법은 영상을 새로운 배경에 합성할 경우, 이진 분류 영상보다 더 자연스러운 효과를 얻을 수 있다.
그림 4 은 Guided 필터를 이용한 matting 결과 영상이다.
PPT Slide
Lager Image
Guided 필터에 의한 Matting 결과 Fig 4. Matting Result by Guided Filter
그림 2 의 이진 분류결과와 비교하면 보다 실제의 물체 형태로 matting 된 것을 관찰할 수 있다. 그러나 Guided 필터는 edge를 보존하는 smoothing 필터기 때문에 guidance영상에서 edge가 약한 영역(빨간 표시 영역)에서는 기존 입력 이진 영상보다 출력 결과성능이 떨어지는 한계가 존재한다. 따라서 이를 보완하기 위한 방법을 제안한다.
- 2. 향상된 Guided 필터 Matting 방법
그림 5 은 성능이 낮아지는 영역을 확대한 것이다. 이진 분류에서는 명확히 전경으로 결정된 영역들이 Guided 필터에 의해서 값이 낮아지고 unknown 값으로 필터링 되는 것을 관찰할 수 있다.
PPT Slide
Lager Image
Guided 필터의 한계 예시 (a) Guidance 영상 (b) 입력 영상 (c) 출력 영상 Fig 5. Example of Guided Filter Limitation (a) Guidance Image (b) Input Image (c) Output Image
예시 영상에서 전경과 배경의 경계부분(빨간 표시 영역)을 1차원 신호로 분석하면 그림 6 과 같이 나타낼 수 있다.
PPT Slide
Lager Image
Guided 필터 1차원 신호 분석 Fig 6. One Dimension Analysis of Guided Filter
Guidance영상이 거의 평평하기 때문에 구하려는 분산과 공분산의 값이 0에 가까운 값을 갖는다. 이에 따라 식(5), (6)에서 계수를 구하면 식(7)과 같이 출력영상의 값이 결국 평균 입력영상이 된다.
PPT Slide
Lager Image
Guided 필터는 guidance 영상에 따라 필터 출력이 영향을 받기 때문에 flat한 영역에서는 결과 성능이 저하된다. 또한 이 영역들의 공통적인 특징은 실제로는 전경이지만 이진 분류과정에서 확실하게 분류되지 않은 상태에서 guidance 영상도 평평한 어려운 경우이다. 이 문제를 해결하기 위해서 이진 분류로 얻은 입력영상을 개선한 후 matting을 적용하는 방법을 제안한다. 이를 위해 본 논문에서는 Guided 필터를 두 번 적용함으로써 성능감소를 최소화한다. 먼저 이진 분류로 얻어진 입력영상을 1 st Guided 필터를 적용하여 입력 영상을 개선한다. Unknown 값으로 된 영역을 찾기 위해 식(8)를 적용한다.
PPT Slide
Lager Image
qi * 는 결정 파라미터로써 Guided 필터 출력 ( qi ) 과 입력영상의 평균치( μp )의 비율 값이다. 이 값은 guidance가 평평한 경우와 edge인 경우로 나누어서 고려한다. 첫 번째 경우를 그림 7 에서 살펴보면 guidance가 평평한 영역은 Guided 필터 출력이 평균 입력 결과와 같아지기 때문에 비율이 1이 되는 것을 볼 수 있다.
PPT Slide
Lager Image
평평한 영역에서의 결정 파라미터 Fig 7. Decision Parameter in Flat Region
이 경우에는 결정 파라미터가 1인 영역을 명확히 전경이라고 판단함으로 안정적인 새로운 입력영상을 만들 수 있다. 그림 7 에서 점 k 1 의 오른쪽부분은 실제 전경 영역이지만 이진 분류에서 전경으로 분류되지 못했던 영역으로 새로운 입력 생성과정에서 올바른 영역으로 재분류된다.
두 번째 경우를 그림 8 에서 살펴보면 출력이 guidance에 영향을 받아 edge가 보존되어 결정 파라미터의 값이 진동하는 것을 관찰할 수 있다.
PPT Slide
Lager Image
Edge 영역에서의 결정 파라미터 Fig 8. Decision Parameter in Edge Region
이 경우에서는 결정 파라미터가 1일 때만 고려한다면 판별오류가 발생될 수 있으므로 결정 파라미터가 1보다 큰 경우를 전경으로 판단해야 한다. 그러면 점 k 1 까지 원래의 입력영역을 보존할 수 있게 된다. 그러나 그림 8 에서 보이듯이 점 k 2 부터 출력과 평균 입력의 비율이 역전되는 것을 관찰할 수 있다. 왜냐하면 guidance의 영향을 받아 edge 보존력에 의해 이 영역에서 입력의 smoothing정도가 평균 입력보다 커지기 때문이다. 이를 방지하기 위한 추가적인 파라미터를 고려한다. 그림 9 은 두 번째 경우의 결과인데 β 를 적용한다면 역전현상이 일어난 영역이 새로운 입력영역으로 잘못 판단되는 것을 방지할 수 있다. 여기서 β 는 평균 입력에 대한 파라미터이며 실제 알고리즘 적용 시 평균 입력에 대해 적용 범위를 조절한다.
PPT Slide
Lager Image
Edge 영역에서의 새로운 입력 결과 Fig 9. New Input Result in Edge Region
이에 따라 제안하는 방법을 식(9)과 같이 나타낼 수 있다.
PPT Slide
Lager Image
얻어진 결과영상과 기존의 이진 분류 영상을 OR Opera- tor를 취해 새로운 입력영상을 생성한다.
그림 10 는 제안하는 방법으로 개선한 결과를 보여준다.
PPT Slide
Lager Image
입력영상 비교(a) 이전 입력 영상 (b) 새로운 입력 영상 Fig 10. Comparison of Input (a) Previous Input (b) New Input
그림과 같이 이진 분류에서 배경으로 잘못 결정된 영역이 전경으로 변환됨과 동시에 edge부분은 역전현상 없이 안정적으로 유지됨을 확인할 수 있다.
위의 과정을 통해 성능이 향상된 새로운 입력 영상은 처음 입력과 마찬가지로 under/over 이진 분류 영상이므로 이를 해결함과 동시에 Alpha 영상으로 만들기 위해 2 nd Guided 필터처리를 활용한 matting처리를 한다.
Ⅳ. 실험
그림 11 는 기존 방법 중에서 texture정보를 분석하는 feature로써 복잡도가 낮고 주로 사용하는 LBP(Local Binary Pattern)의 Histogram방법 [4] 과 DCT방법을 적용하여 이진 분류한 결과이다. LBP 검사 화소 는 1 화소이며 비트 수는 8비트로 LBP를 설계하였다.
PPT Slide
Lager Image
이진 분류 성능 비교 영상 (a)원본 영상 (b)실측 영상 (c) LBP 방법 (d) DCT 방법 Fig 11. Comparison of Binary Segmentation Performance (a) Orignal Image (b) Ground Truth (c) LBP Method (d) DCT Method
표 1 은 DCT의 성능을 검증하기 위해서 각 영상의 실측 자료(Ground Truth)영상과 이진분류영역의 각각 화소개수 및 개수 차이를 측정한 것이다. (영상 크기 1280x720, 총 화소개수 921600)
이진 분류 화소 개수 비교Table 1. Comparison of Binary Segmentation Pixel Number
PPT Slide
Lager Image
이진 분류 화소 개수 비교 Table 1. Comparison of Binary Segmentation Pixel Number
표와 같이 DCT방법에서 실측 자료와 화소 개수가 상대적으로 유사한 것을 관찰할 수 있다. DCT방법에서 성능이 더 뛰어난 이유는, 그림 12 와 같이 texture정보에 대한 분석을 통해 알 수 있다. 이는 DCT를 적용하였을 때 전체적인 윤곽 texture, 몸체 내부에 있는 texture 등에 대해서 전경이 좀 더 안정적으로 추출되기 때문이고, 만약 LBP를 사용한다면 edge texture정보를 추출하는 다른 measure가 요구 된다.
PPT Slide
Lager Image
Texture분류 성능 비교 (a) 원본 영상 (b) LBP (c) DCT Fig 12. Comparison of Texture Segmentation Performance (a) Original Image (b) LBP (c) DCT
그림 13 은 동일한 입력으로 matting을 하였을 때 기존의 Guided 필터방법과 제안하는 Guided 필터방법을 적용한 결과이다.
PPT Slide
Lager Image
Guided 필터 Matting 출력 비교 (a) 입력 영상 (b) 기존 Guided 필터 결과 (c) 제안하는 Guided 필터 결과 Fig 13. Comparison of Guided Filter Matting Result (a) Input (b) Basic Guided Filter Result (c) Proposed Guided Filter Result
그림과 같이 기존의 Guided 필터에서 보였던 문제 영역(빨간 표시 영역)이 개선되는 것과 동시에 다른 영역은 그대로 보존됨을 관찰할 수 있다.
앞서 언급하였듯이 제안하는 방법은 Guided 필터의 결과 값을 그대로 Alpha 값으로 사용한다. 따라서 새로운 배경에 적용할 때 자연스러운 결합을 가능케 한다. 그림 14 는 현재 프레임을 새로운 배경에 결합한 영상이다.
PPT Slide
Lager Image
응용 예시 (a) 원본 영상 (b) 결합 영상 Fig 14. Application Example (a) Original Image (b) Combined Image
알고리즘은 Opencv 기반으로 구현 하였으며 intel core i5 cpu 3.3GHz의 컴퓨터 환경에서 HD(1280x720)영상에 대해 약 30fps의 합성/재생속도를 갖는다. 이는 일반적으로 실시간 동영상의 프레임속도이다.
Ⅴ. 결 론
제안하는 알고리즘은 intensity와 texture의 변화를 측정하여 분류를 하는 방법으로 DCT 분석을 기반을 두었고 RGB 색정보를 추가적으로 포함하여 알고리즘의 성능과 속도를 높였다. Matting의 유용한 Guided 필터를 사용하는 것과 동시에 필터의 한계를 극복하여 성능을 향상시켰다.
제안하는 알고리즘은 결과 값이 영상 합성을 위한 Alpha값이기 때문에 다양한 응용분야에서 쉽게 사용될 수 있다는 장점이 있다. 이는 Alpha 값이 영상 전체에서 전경만을 색인화하기 때문에 영상 전송/압축하는 응용분야에서 활용도가 높아질 것이다. 본 논문에서는 움직이는 물체를 안정적이며 실시간으로 추출할 수 있는 새로운 matting 방법을 제시하고 있지만 몇 가지 제한사항이 존재한다. 참조 프레임과 현재 프레임을 block 단위로 비교하기 때문에 전경 영역일지라도 만약 block의 색 및 texture 특성이 유사하다면 전경으로 판단되기 어려울 것이다. 위의 한계점들은 후속연구에서 다루어 질 것이다.
BIO
신 현 학
- 2014년 2월 : 경희대학교 전자전파공학과 공학사
- 2014년 3월 ~ 현재 : 경희대학교 전자전파공학과 석사과정
- ORCID : http://orcid.org/0000-0002-8658-4945
- 주관심분야: : 사진/동영상 신호처리, 컴퓨터 비전
이 주 철
- 1997년 2월 : 연세대학교 전자공학과 공학사
- 2003년 2월 : 연세대학교 전자공학과 석사
- 2014년 2월 : University of California, San Diego 전자 컴퓨터 공학박사
- 1997년 1월 ~ 현재 : kt(korea telecom) 연구원
- 주관심분야: : 영상/동영상 신호처리, 컴퓨터 비전, 동영상 부호화
김 원 하
- 1985년 2월 : 연세대학교 전자공학과 공학사
- 1988년 5월 : University of Wisconsin-Madison 전기공학과 석사
- 1996년 1월 ~ 7월 : (미) Motorola 연구원
- 1997년 5월 : University of Wisconsin-Madison 전기공학과 박사
- 1997년 8월 ~ 2000년 2월 : (미) Los Alamos National Lab. 연구원
- 2000년 3월 ~ 2003년 8월 : 명지대학교 정보통신공학과 조교수
- 2009년 8월 ~ 2010년 8월 : University of California San Diego (UCSD) 교환 교수
- 2003년 9월 ~ 현재 : 경희대학교 전자정보대학 전자전파공학과 교수
- 주관심분야 : 영상/동영상 신호처리, 컴퓨터 비전, 동영상 부호화
References
Verbeek J.J. , Vlassis N. , Kr ose B. 2003 "Efficient Greedy Learning of Gaussian Mixture Models," Published in Neural Computation 15 (2) 469 - 485    DOI : 10.1162/089976603762553004
Yu T. , Zhang C. , Cohen M. , Rui Y. , Wu Y. "Monocular Video Foreground/Background Segmentation by Tracking Spatial-Color Gaussian Mixture Models," In IEEE Workshop on Motion and Video Computing 2007 5 - 5
Vishnyakov B. , Gorbatsevich V. , Sidyakin S. , Vizilter Y. , Malin I. , Egorov A. 2014 "Fast Moving Objects detection Using iLBP Background Model," The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences XL-3
Sun X. , Chang F. 2012 "Background Model Combining Gauss Model with Local Binary Pattern Feature," Journal of Convergence Information Technology(JCIT) 7 (17)
Shimada A. , Taniguchi R.I "Hybrid Background Model using Spatial-Temporal LBP," Conference: Sixth IEEE International Conference on Advanced Video and Signal Based Surveillance, AVSS 2009 2-4 September 2009 DOI: 10.1109/AVSS.2009.12
Yao J. , Odobez J.M. "Multi-Layer Background Subtraction Based on Color and Texture," IN IEEE The CVPR Visual Surveillance Workshop (CVPR-VS) MINNEAPOLIS June 2007
Heikkila M. , Pietikainen M. 2006 "A Texture-Based Method for Modeling the Background and Detecting Moving Objects," IEEE Transactions on Pattern Analysis and Machine Intelligence 28 (4)    DOI : 10.1109/TPAMI.2006.68
Li L. , Huang W. , Gu I. Y.H. , Tian Q. "Foreground Object Detection from Videos Containing Complex Background," In Proceedings of the Eleventh ACM International Conference on Multimedia Berkeley, CA, USA 2–8 November 2003
Jeisung L. , Mignon P. 2012 "An Adaptive Background Subtraction Method Based on Kernel Density Estimation," Sensors journal
Rodriguez-Gomez R. , Fernandez-Sanchez E. J. , Diaz J. , Ros E. 2012 "FPGA Implementation for Real-Time Background Subtraction Based on Horprasert Model," Sensors journal
Ganapathi V. , Plagemann C. , Koller D. , Thrun S. "Real Time Motion Capture Using a Single Time-Of-Flight Camera," In Proceedings of the 2010 IEEE Conference on Computer Vision and Pattern Recognition San Francisco, CA, USA 13–18 June 2010 755 - 762
Kolmogorov V. , Criminisi A. , Blake A. , Cross G. , Rother C. "Bi-layer segmentation of binocular stereo video," In Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition San Diego, CA, USA 20–25 June 2005 407 - 414
Fernandez-Sanchez E. J. , Diaz J. , Ros E. 2013 "Background Subtraction Based on Color and Depth Using Active Sensors," Sensors journal
Kaiming H. , Sun J. , Tang X. 2013 "Guided Image Filtering," IEEE Transactions on Pattern Analysis and Machine Intelligence 35 (6)
Tong H. H. Y. , Venetsanopoulos A. N. "A Perceptual Model for JPEG Applications based on Block Classification, Texture Masking, and Luminance Masking," Proceedings of IEEE Internatiopnal Conference Image Processing (ICIP) 1998
porter T. , Duff T. 1984 "Compositing Digital Images," Computer Graphics 18 (3)    DOI : 10.1145/964965.808606