Advanced
Metadata Design and Verification Test Bed System for Augmented Broadcasting
Metadata Design and Verification Test Bed System for Augmented Broadcasting
Journal of Broadcast Engineering. 2014. Sep, 19(5): 736-745
Copyright © 2014, The Korean Society of Broadcast Engineers
  • Received : August 21, 2014
  • Accepted : September 23, 2014
  • Published : September 30, 2014
Download
PDF
e-PUB
PubReader
PPT
Export by style
Share
Article
Author
Metrics
Cited by
TagCloud
About the Authors
범석 최
bschoi@etri.re.kr
순철 김
영호 정
진우 홍
원돈 이

Abstract
본 논문에서는 최근 모바일 디바이스에서 제공되고 있는 증강현실 서비스를 방송환경에 접목할 수 있는 서비스 시나리오에 대한 소개와 이를 실현하기 위한 증강방송 메타데이터에 대하여 소개한다. 방송환경이 모바일 환경과 다르기 때문에 완벽한 증강 서비스를 제공하는데 있어서 한계가 있다. 한편 TV의 대 화면과 양질의 TV 프로그램, 스마트TV로의 발전에 따른 웹 환경 지원과 모션/음성 인식 인터페이스, 그리고 스마트TV 애플리케이션의 등장은 증강방송의 가능성을 한층 높이고 있다. 이를 가능하게 하기 위하여 증강방송 메타데이터를 설계하였으며, 증강방송 메타데이터는 증강영역 및 시간, 증강 콘텐츠, 정합 정보 등을 포함한다. 증강방송 메타데이터의 검증을 위하여 메타데이터 저작서버, 증강방송 서버, 그리고 방송단말로 구성되는 검증용 테스트 베드 시스템을 구현하였다.
Keywords
Ⅰ. 서 론
최근 증강현실 기술은 모바일 또는 테블릿 PC에서 활발하게 개발되고 있다. 증강현실 분야도 광고, 오락, 교육, 여행 등 광범위해지고 있으며, 이에 대한 활용성도 급격하게 증가되고 있는 추세이다. 증강현실 서비스는 간단하게 설명하자면 실세계를 사용자가 카메라를 통하여 비춰보면서 증강 콘텐츠를 오버레이 형태로 제공받는 서비스이다. 이 분야에 대한 전문가들은 증강현실(AR)을 가상현실(VR)과는 다른 개념으로 보고 있다 [1] . 가장 큰 차이점은 가상현실에서는 실세계와 인터액션이 존재하지 않지만 증강현실은 존재하며 심지어 실세계에 영향을 미치는 점이라고 설명한다. 모바일 환경에서 증강현실 앱들이 인기를 끄는 이유는 터치스크린과 같은 사용자 인터페이스와 방향, 가속도, GPS 센서 등을 제공하기 때문이다. 그림 1 의 a 와 b 두 개의 그림은 증강현실 서비스의 대표적인 예로서 마커(marker) 위에 증강 콘텐츠를 오버레이 하여 디스플레이 하는 방식을 보여준다.
PPT Slide
Lager Image
증강현실 서비스(a, b) 예제와 기존의 증강방송(c) 예제 Fig. 1. Example of AR service(a, b) and traditional augmented broadcasting(c) ※ 이미지 출처: (a) http://ge.ecomagination.com/smartgrid/#/augmented_reality (b) http://blog.naver.com/riksa0/30106647087 (c) korea broadcast system “Emerging issue report”
한편 방송 시청환경은 모바일 환경과는 다르게 방송 서버에서 일방적으로 미디어를 전송하는 방식으로 사용자가 자신의 의지대로 카메라의 방향을 바꿀 수 없다. 또한 모바일 디바이스에는 기본 장착되고 있는 다양한 센서들이 TV 단말에는 제공되지 않는다. 다시 말하면 증강현실 서비스를 제공하기 위하여 기본적으로 갖추어야 할 요소들이 방송환경에는 빠져있다 [2] . 그럼에도 불구하고 TV에서도 부분적으로 증강방송을 제공하고 있다. 그림 1 의 c 그림과 같이 스포츠 경기 방송에서 실물의 그라운드나 전광판에 광고물을 오버레이 하는 증강광고가 그것이다. 그러나 이러한 증강방송 서비스는 방송사에서 일방적으로 고정된 위치에 미리 정의한 그래픽 광고 콘텐츠를 오버레이 한 영상을 송출하는 방식이므로 진정한 증강방송이라고 보기 어렵다.
한편 최근 TV의 발전도 놀랍다. 최근 TV의 대명사로 알려진 스마트TV는 인터넷 연결을 필수화하고 있으며 스마트폰과 동일하게 다양한 스마트TV 애플리케이션들을 제공하고 있다. 또한 스마트 리모컨, 음성인식, 그리고 모션인식도 기본적으로 제공하고 있기 때문에 기존 TV 단말에 비하여 사용자 인터페이스가 대단히 편리해 졌다. 또한 셋탑박스의 성능이 점차 높아지면서 증강방송 서비스에 필요한 복잡한 연산이 가능해지고 있다. 마지막으로 방송환경의 가장 큰 장점인 대 화면과 고화질의 콘텐츠로 말미암아 적절한 증강방송 서비스를 개발한다면, 향후 TV에서도 다양한 증강현실 서비스를 제공받을 수 있을 것이다.
본 논문에서는 방송환경에서 증강현실을 적용할 수 있는 몇 가지 응용사례를 제안하고 이를 제공하기 위한 증강방송 메타데이터를 설계하였다. 일반적으로 방송환경은 매우 보수적인 시스템 환경으로 시스템의 안정성을 가장 중요한 요소로 고려하기 때문에 가능한 기존의 방송환경을 수정하지 않는 것이 요구되며, 이러한 요구 사항을 만족시키며 증강현실을 구현하는 방법으로 메타데이터를 통한 방법을 제안한다. 본 논문에서 제안하는 증강방송과 가장 유사한 형태의 방송기술은 데이터 방송 기술이라 할 수 있으나, 데이터 방송 기술과 본 증강방송 기술의 차이는 자연스럽게 화면에 오버레이 되어 표현되는 증강객체와 인식과 트랙킹 기술을 활용하는 측면, 그리고 GPS와 같은 센서 데이터를 활용하는 면에 있다고 할 수 있다.
본 논문의 구성은 다음과 같다. 2 절에서는 증강방송을 위한 서비스 시나리오에 대해 살펴본 후, 3 절에서는 이러한 서비스를 제공하기 위한 증강방송 메타데이터에 대하여 설명한다. 4절에서는 증강방송 메타데이터를 검증하기 위한 테스트베드 시스템에 대하여 설명한 후, 마지막으로 5절에서는 본 논문에 대한 결론을 맺는다.
Ⅱ. 증강방송 시나리오
본 절에서는 방송환경에 적용할 수 있는 증강방송 서비스 시나리오에 대하여 소개한다. 일부 서비스는 현재의 방송환경에서 바로 적용할 수 있는 반면, 일부 시나리오는 향후 TV단말이 성능이나 기능이 추가된다면 적용 가능한 시나리오이다.
- 1. 증강영역 기반 서비스
증강영역이란 비디오 장면에서 증강 콘텐츠가 오버레이될 특정 영역을 의미한다. 방송 프로그램의 특성상 방송 프로그램 장면의 아무 곳이나 증강 콘텐츠를 오버레이 할 수 없다. 따라서 방송사에서 미리 정의한 영역 안에서만 증강콘텐츠를 오버레이 하도록 제한할 필요가 있다. 그림 2 는 증강영역을 활용한 증강방송의 예제이다. 증강영역으로 사용될 장면의 일부분을 미리 정의하고 그 위에 올라갈 증강 콘텐츠를 지정하면 단말에서 해당영역에 지정된 증강 콘텐츠를 오버레이 하여 보여주는 방식이다. 증강영역이 장면의 고정된 위치에 지속적으로 표현될 수도 있지만, 프레임마다 증강영역의 위치가 달라질 수도 있다. 이때 증강영역이 활성화되는 시간과 소멸되는 시간을 정의하고 동영상의 매 프레임 별 증강영역의 움직임도 역시 표현해 주어야 한다 [3] .
PPT Slide
Lager Image
증강영역 기반 서비스의 예제 Fig. 2. Example of augmentation region based service
- 2. 인터액티브 증강방송 서비스
증강현실 서비스에서 빼놓을 수 없는 것이 사용자와의 인터액션이다. 오버레이 된 증강 콘텐츠를 사용자가 직접 제어할 수 있다면 더욱 흥미로울 것이다. 그림 3 의 좌측 예제처럼 TV 프로그램에 오버레이 된 인간의 장기를 나타낸 3D 모델을 사용자가 직접 돌려볼 수 있다면 교육의 효과가 더욱 증대될 것이다. 이를 위하여 다양한 방법이 가능하다. 최근 리모컨 안에 센서가 장착된 스마트 리모컨이 상용화되면서 리모컨을 통하여 다양한 제어가 가능해졌다. 또한 모션인식기술까지 접목되어 리모컨 없이 제스처만으로 인터액션이 가능하다. 기존의 증강현실 기술을 접목한다면 사용자가 마커이미지를 들고 있으면 TV에 장착된 카메라를 통하여 마커이미지의 위치를 추적하고 이를 증강 콘텐츠와 연동하므로 증강 콘텐츠를 제어할 수 있다.
- 3. 증강 서비스 제공자 선택
TV 채널을 사용자가 선택하듯이, 증강 콘텐츠를 사용자가 원하는 콘텐츠로 변경할 수 있다면 같은 TV 프로그램에도 다양한 종류의 증강 콘텐츠를 제공받을 수 있을 것이다. 모바일에서는 이미 비슷한 서비스를 제공하고 있다. “Layer Reality Browser”라는 증강현실 앱( 그림 3 의 b)은 다양한 타입의 증강 서비스가 올라갈 수 있는 플랫폼을 제공하고 있다. 예를 들어 위치기반 서비스 타입을 선택하면 증강된 거리영상에서 가까운 식당, 카페, 상점의 위치를 오버레이하여 보여준다. 마찬가지로 게임 타입을 선택하면 증강 게임을 즐길 수도 있다 [4] .
PPT Slide
Lager Image
상호작용 증강방송 서비스의 예제(a)와 레이어 애플리케이션(b) Fig. 3. Example of interactive augmented braodcasting service(a) and Layar application(b)
방송국에서는 증강영역과 시간을 정의하고 TV 단말에서 사용자가 원하는 증강 콘텐츠를 선택할 수 있도록 하므로 증강방송에서도 동일한 서비스를 제공할 수 있다. 이러한 비즈니스 모델은 증강 앱 마다 별도의 증강 브라우저를 개발하는 방식에서 벗어나서 동일한 증강 브라우저 위에 다양한 증강 서비스 제공자가 자신의 콘텐츠 제공할 수 있다는 점에서 큰 장점이 있다.
- 4. 위치기반 증강방송 서비스
증강현실 서비스는 위치기반 서비스 앱에서부터 인기를 얻기 시작했다. 사용자가 증강 브라우저를 통하여 실세계를 보면서 가고자 하는 장소의 위치를 직관적으로 알 수 있기 때문이다. TV 단말은 모바일 디바이스와 달리 위치기반 서비스를 하기 위한 어떠한 센서도 없으며, 사용자가 TV 방향을 바꾸어 보았자 방송 카메라의 위치가 바뀌지도 않는다. 그렇다면 방송환경에서 위치기반 증강방송 서비스를 적용할 방법은 무엇인가? 최근 방송 카메라에 GPS 센서가 부착된 장비가 개발되고 있다. GPS 센서가 없다면 방송프로그램을 제작한 후에 장면에 대한 GPS 값을 메타데이터로 기술하여 전달할 수도 있다. 예를 든다면 골프 게임방송을 할 때, 시청자는 골프 게임이 벌어지는 필드의 위치를 알고 싶어 할 수도 있고 골프 그린의 모양을 보고 싶어 할 수도 있다. 이 경우 증강 서비스 제공자는 방송 프로그램에 GPS 정보를 참고하여 사용자가 원하는 정보를 골프 방송에 오버레이 하여 제공할 수 있다.
Ⅲ. 증강방송 메타데이터 설계
증강방송 메타데이터란 방송 콘텐츠에 증강 콘텐츠를 오버레이하기 위해 필요한 정보 즉, 증강 콘텐츠가 표현되어야 할 영역이나 위치, 표현방법, 증강 콘텐츠의 타입, 증강 콘텐츠의 속성, 방송 콘텐츠 제작에 사용된 카메라나 각종 센서 정보, 방송 콘텐츠와 증강 콘텐츠의 동기화를 위한 시간 정보 등을 포함하는 XML 기반의 메타데이터이다. 증강방송 메타데이터는 먼저 저작서버에서 방송 콘텐츠를 기반으로 사용자의 저작행위를 통하여 생성이 되며, 전송서버에서 방송 콘텐츠와 증강방송 메타데이터를 다중화 하여 방송단말에 전달하게 된다. 방송단말은 증강방송 메타데이터를 방송 스트림에서 추출하고 이를 분석하고 방송 콘텐츠와 동기화 처리를 통하여 방송 콘텐츠에 증강 콘텐츠를 오버랩하여 표현한다. 증강방송 메타데이터의 구조에 대한 이해를 돕기 위하여 증강방송의 장면(Scene), 참조영역(Reference region), 증강영역(Augmented region), 증강객체(Augmented object)에 대한 의미는 아래와 같다 [5] .
  • • 장면(Scene) : 동영상의 장면
  • • 참조영역(Reference region) : 증강영역을 추적하기 위해서 레퍼런스 이미지로 사용할 영역
  • • 증강영역(Augmented region) : 증강 콘텐츠가 오버랩되어 디스플레이 될 영역
  • • 증강객체(Augmented object) : 증강영역에 오버랩 되어 표현될 콘텐츠(객체)
증강방송은 기본적으로 전송 서비스 형태이므로 증강방송 메타데이터의 구조를 정의함에 있어서 메타데이터 전송에 용이하도록 구조를 정의할 필요가 있다. 방송단말에서 방송 콘텐츠와 증강 콘텐츠가 적절히 동기화되어 재현되기 위해서는 증강 콘텐츠가 표현되어야 할 타임정보가 매우 중요하다. 따라서 증강방송 메타데이터를 전송하는데 있어서 분할의 기준이 되어야 할 정보가 time stamp이며, 이러한 time stamp를 포함하여 증강영역 또는 증강 콘텐츠의 업데이트 정보를 함께 하나의 명령구문(instruction)으로 묶어 전송한다. 이러한 명령구문 단위로 전송하는 이유는 메타데이터 전체를 한꺼번에 전송하는 것보다 데이터 사이즈를 줄일 수 있고, 특정 시간에 필요한 데이터만 보낼 수 있기 때문에 전송 효율을 높일 수 있다. 또한 시청자의 시청 시작시간을 미리 알 수 없기 때문에 시청이 시작된 후에 바로 서비스를 받을 수 있도록 하기 위함이다. 최초 명령구문(first instruction)에는 증강영역, 참조영역, 증강객체(콘텐츠) 등에 대한 모든 정보가 포함되지만, 이와 관련된 후속 명령구문(following instruction)에는 변화된 정보에 대한 내용만 포함시켜 전송하게 된다. 최초 명령구문과 후속 명력구문들 간의 관계는 instruction ID를 레퍼런스 하여 표현한다. 그림 4 는 증강방송 메타데이터 전송 개념을 나타낸다 [6] .
PPT Slide
Lager Image
증강방송 메타데이터의 기본 개념 Fig. 4. Basic concept of augmented broadcasting metadata
그림 5 의 (a)는 증강방송 메타데이터의 상위 구조를 나타낸다.
PPT Slide
Lager Image
증강방송 메타데이터의 최상위 구조(a)와 XML 예제(b) Fig. 5. Top level structure of augmented broadcasting metadata(a) and example of XML(b)
keyInstFlag 속성은 현재 instruction이 first instruction인지를 알려준다. first instruction일 경우는 새로운 증강영역의 선언을 위한 instruction으로 초기자세 정보를 포함한 모든 정보가 표현된다. keyInstNum 속성은 first instruction과 following instruction들이 같은 증강영역에 대한 instruction 패밀리임을 나타낸다. 단말은 keyInstNum의 값을 보고 어떤 증강영역에 대한 following instruction인지를 판단할 수 있다. pts 속성은 현재 instruction이 표현되어야 하는 시작타임을 나타낸다. duration 속성은 현재 instruction이 지속되어야 하는 시간을 나타낸다. 즉 pts와 duration 값에 의하여 증강영역이 시작하는 시간과 끝나는 시간을 알 수 있다. timeScale 속성은 pts와 duration의 시간 단위를 나타낸다. 예를 들어 timeScale 값이 1000이라면, pts에서 표현되는 값은 밀리 세컨드 단위로 인식된다. numInstruction 속성은 following instruction들의 개수를 나타낸다. 단말은 numInstruction 값을 미리 알고 향후에 수신될 following instruction이 몇 개 인지를 알 수 있다. 마지막 속성인 priority는 동 시간에 여러 증강영역이 표현되어야 할 경우 먼저 표현되어야 하는 우선순위를 나타낸다. 여러 개의 증강영역이 겹치는 경우 먼저 표현되어야 하는 증강영역과 그 위에 오버레이 되어서 표현되어야 하는 증강영역을 표현할 필요가 있을 때 사용된다. 서브 엘리먼트 MarkerImage는 방송 단말이 증강영역을 자동트랙킹 하기 위한 레퍼런스 이미지를 포함한다. 또는 사용자가 마커이미지를 통하여 증강 콘텐츠를 제어하기 원할 경우 TV 단말에서 트랙킹해야 할 마커이미지를 포함 할 수도 있다. 마커이미지는 하나이상이 될 수 있으며, 트랙킹에 사용될 알고리즘에 대한 정보도 표현된다. 서브 엘리먼트 ARRegion은 증강 콘텐츠가 오버레이 되어야 할 영역정보와 증강영역이 시간에 따라 움직일 경우 움직임에 대한 정보도 표현한다 [7] . 증강영역은 사각형 형태로 표현이되며 증강영역의 움직임은 보통 스케일, 로테이션, 위치이동의 3가지 변수에 의하여 표현된다. 서브 엘리먼트 ARObject는 오버레이 될 증강 콘텐츠의 위치, 엔코딩 정보, 포맷 등의 속성정보를 포함한다. 마지막으로 서브 엘리먼트 EnvironmentInfo는 증강 콘텐츠의 자연스러운 정합에 필요한 요소, 예를 들어 광원의 위치와 컬러에 대한 정보를 포함한다.
그림 5 의 (b)는 증강방송 메타데이터의 간단한 예를 보여준다. 본 예제는 증강영역에 대한 first instruction을 나타내며, 증강 콘텐츠 (파일명: como.x)를 프레젠테이션 타임(pts) 90에서 시작하여 200 타임까지 지속하라는 의미를 나타낸다. 증강영역은 4점을 연결한 사각형으로 표현하고 있으며, 초기 증강영역의 위치, 스케일, 회전 정보를 (tx, ty), (sx, sy), 그리고 (rx, ry, rz) 형태로 표현하고 있다. 만일 증강영역이 프레젠테이션 시간동안 움직이지 않는다면 first instruction만으로 충분하지만, 증강영역이 움직인다면 이러한 움직임이 있을 때마다 following instruction들을 추가해 주어야 한다. 다만 following instruction에는 증강영역의 움직임 정보만 표현해 주면 된다. First instruction과 following instruction 사이의 패밀리 관계는 augNum에 의하여 표현된다 [8] .
Ⅳ. 검증용 테스트베드 시스템
검증용 테스트 베드 시스템은 PC 기반으로 저작서버, 전송서버, 그리고 단말로 구성되어 있다. 그림 6 은 테스트 베드 시스템의 전체 구성을 보여준다. 그림 하단 좌측의 테블릿 PC를 통하여 사용자는 TV 상에 오버레이된 증강객체를 터치패드 방식으로 제어(회전, 스케일, 위치변경, 재생 속도 변경) 할 수 있도록 하므로 증강객체를 보다 편리하게 시청할 수 있도록 하였다.
PPT Slide
Lager Image
증강방송 검증용 테스트베드 시스템의 구성 Fig. 6. System components of test bed system for verifying augmented broadcasting system
저작서버는 증강영역에 대한 움직임을 표현하기 위한 증강메타데이터를 작성할 수 있는 사용자 인터페이스를 제공한다. 그림 7 은 저작서버의 메인 화면을 보여준다. 화면의 좌측 플레이화면은 사용자가 증강방송의 기반이 될 동영상을 플레이 해 볼 수 있는 윈도우로 증강영역을 설정할 적당한 장면을 검색하기 위함이며, 우측에 플레이어 화면은 사용자가 증강영역을 설정한 후에 이를 확인(화면의 중앙에 노란색 영역으로 표시)해 볼 수 있는 영역이다. 화면의 하단에 동영상의 타임라인에는 각각의 증강영역에 대한 시작시간과 종료시간을 표현하는 타임슬롯이 표현된다. 사용자는 타임슬롯을 드래깅 하거나, 타임슬롯의 가장자리 영역을 드래깅하므로 해당 증강영역의 시작시간과 종료시간을 변경할 수 있다. 또한 동영상의 화면이 시간에 따라 변경됨에 따라 증강영역이 움직임일 경우 이러한 움직임에 대한 정보를 표현하는 following instruction들이 어느 시점에 위치하는지를 각각의 증강영역 타임슬롯 안에 하얀 점으로 표시하고 있다. 마지막으로 화면 우측의 그리드 박스에는 각각의 instruction들에 대한 속성 값을 표현하고 있다. 타임라인 상의 특정 instruction을 선택하면, instruction이 포함하고 있는 정보를 우측의 속성 창을 통하여 확인할 수 있다. 증강영역에 대한 편집 작업이 모두 마쳐지면 메뉴의 publish를 선택하여 메타데이터 파일로 결과를 생성한다.
PPT Slide
Lager Image
저작도구의 스크린 캡쳐화면 Fig. 7. Screen shot of authoring server
전송서버와 방송단말 사이의 네트워크는 이더넷 기반의 UDP/RTP 프로토콜로 구현되었다. 현재 구현된 전송서버는 오디오/비디오 데이터와 메타데이터를 분리하여 전송한다. 그림 8 은 메타데이터와 오디오/비디오 데이터 스트림의 전달 과정을 보여주고 있다. 방송단말은 증강방송 메타데이터를 요청하는 메시지를 전송서버에 전달하고, 전송서버는 전송규격에 적합하도록 단편화된 증강방송 메타데이터를 방송단말에 전달한다. 이때, 증강방송 메타데이터 전송패킷의 헤더에는 태그, 메시지 ID, 순열정보, 그리고 메타데이터 페이로드 사이즈 정보가 포함된다. 메타데이터 전송이 끝나면, 전송서버는 VLC 미디어 서버에게 오디오/비디오 데이터를 RTP를 통하여 전송하도록 명령한다.
PPT Slide
Lager Image
증강방송 메타데이터를 위한 전송 처리 흐름 Fig. 8. Sequence of transmission process for augmented broadcasting metadata
방송단말은 메타데이터를 수신 및 파싱하여 오버레이 될 증강객체의 위치를 파악하여 로딩하고 OpenGL을 기반으로 하는 렌더링 엔진을 통하여 비디오 프레임 위에 객체를 합성한다. 마지막으로 합성된 증강객체가 TV를 통하여 방송 프로그램 위에 오버레이 되어 플레이 된다.
증강객체와 비디오 프레임 간의 동기를 맞추기 위하여 방송단말의 엔진은 메타데이터 안에 있는 프레젠테이션 타임 스탬프(pts)와 비디오 프레임의 프레젠테이션 타임 스탬프를 지속적으로 모니터링 해야 한다.
본 테스트 베드 시스템에서 사용된 콘텐츠는 총 6가지 종류로 골프, 야구, 피겨 스케이팅, 다큐멘터리, 드라마 등이다. 골프 콘텐츠의 경우 골프장의 필드 모형 그래픽을 빈 공간에 오버레이 하여 사용자가 필드의 지형을 파악할 수 있도록 하였으며, 야구 콘텐츠의 경우 야구 경기장 바닥에 자연스러운 광고 이미지를 오버레이 하였다. 피겨 스케이팅 콘텐츠의 경우 김연아 선수의 트리플악셀 순간에 회전자세를 알 수 있도록 김연아 선수의 움직임에 동기를 맞춘 인체모델을 오버레이 하였으며, 다큐멘터리 콘텐츠의 경우 코모 성당의 3D 모델을 카메라의 이동에 따라 실사의 코모와 동기화되어 움직이게 하였다. 마지막으로 드라마의 경우 시청자의 아바타를 오버레이 하여 장면에 따른 몸짓을 하도록 표현하였다.
Ⅴ. 결 론
방송 환경은 모바일 환경과 달리 진정한 증강현실 서비스를 구현하기에 한계가 있다. 그러나 TV 단말이 갖고 있는 대 화면의 장점과 최근 스마트TV의 특징을 적절하게 조합할 수 있다면 시청자에게 매력적인 증강방송을 제공할 수 있다. 본 논문에서는 이러한 관점에서 방송환경에 접목할 수 있는 증강방송 서비스 시나리오를 제안하였다. 일부 시나리오는 현재의 방송환경에 바로 접목이 가능하지만 몇몇 다른 시나리오는 향후 방송단말의 성능이나 기능이 업그레이드된다면 적용할 수 있을 것이다. 본 논문에서는 증강방송 서비스를 제공하기 위한 증강방송 메타데이터의 구조와 샘플 메타데이터를 통하여 설명하였다. 또한 이를 검증하기 위한 증강방송 테스트 베드 시스템으로 PC 기반의 증강방송 메타데이터 저작서버, 전송서버, 그리고 방송단말과 태블릿 PC 기반의 보조 단말을 구현하였다.
향후 연구로서, 이러한 증강방송 메타데이터를 사용자가 편리하게 제작할 수 있도록 자동추적 기반의 저작툴을 개발할 예정이고, 방송 영상의 프레임과 증강객체가 동기화될 수 있는 증강방송에 대한 동기화 방법을 연구할 예정이며, 마지막으로 백그라운드 동영상과 증강 콘텐츠를 자연스럽게 정합하기 위한 환경정보를 정의하고 이를 단말에서 이용하여 디스플레이 하는 방법에 대한 연구를 진행할 예정이다.
BIO
최 범 석
- 1997년 : 충남대학교(학사)
- 2001년 : 충남대학교 대학원(석사)
- 2001년 ~ 현재 : 한국전자통신연구원
- 주관심분야 : 3D 오디오, DRM 기술, 4D 시네마, 스마트 TV 기술
김 순 철
- 1998년 : 성균관대학교(학사)
- 2000년 : 성균관대학교 대학원(석사)
- 2000년 ~ 현재 : 한국전자통신연구원
- 주관심분야 : 네트워크 관리 및 보안, 스마트 TV 기술, CAS
정 영 호
- 1992년 : 전북대학교 전자공학과(학사)
- 1994년 : 전북대학교 전자공학과(석사)
- 2006년 : 충남대학교 전자공학과(박사)
- 1994년 ~ 현재 : 한국전자통신연구원 스마트TV서비스연구팀 팀장
- 2011년 ~ 현재 : 과학기술연합대학원대학교(UST) 겸임교수
- 주관심분야 : 증강방송, 스마트TV, 방송광고, DCAS, DMB, OFDM
홍 진 우
- 1982년 : 광원대학교(학사)
- 1984년 : 광원대학교 대학원(석사)
- 1993년 : 광원대학교 대학원(박사)
- 1984년 ~ 현재 : 한국전자통신연구원 차세대스마트TV연구단 단장
- 주관심분야 : 멀티미디어 프레임워크 기술, 스마트TV, 개인형 방송, 실감 방송
이 원 돈
- 1979년 : 서울대학교(학사)
- 1982년 : U. of Illinois 대학원(석사)
- 1986년 : U. of Illinois 대학원(박사)
- 1987년 ~ 현재 : 충남대학교 컴퓨터공학과 교수
- 주관심분야 : 데이터마이닝, 금융공학
References
Tobias Daniel Kammann 2005 “Interactive Augmented Reality in Digital Broadcasting Environments” Diploma Thesis
2005 digitalfernsehen.deInteraktivität: Japaner setzen auf Open TV http://www.digitalfernsehen.de/news/news_46594.html
Choi B. S. , Jeong Young Ho ISO/IEC JTC1/SC29/WG11 2011 m22476 Geneva, Swiss
2012 Layar application product description http://www.layar.com
Kim Junghak , Choi Bum-suk ISO/IEC JTC1/SC29/WG11 2012 m23635 San jose, USA
Choi Bum-suk , Kim Junghak ISO/IEC JTC1/SC29/WG11 2012 m23837 San jose, USA
Choi Bum-suk , Jeong Young Ho ISO/IEC JTC1/SC29/WG11 2012 m24724 Switzerland, Geneva
Choi B. S. , Jeong Young Ho ISO/IEC JTC1/SC29/WG11 2011 m21494 Geneva, Swiss
Ha JeongLak , Jeong YoungHo , Hong JinWoo 2013 “Augmented broadcasting service platform implementation” 2013 summer conference of the korean society of broadcast engineers
Kim SunCheol , Jeong YoungHo , Hong JinWoo 2013 “Design and implementation of re-multiplexer for augmented broadcasting system based on DTV” 2013 summer conference of the korean society of broadcast engineers
Ha JeongLak , Jeong YoungHo , Hong JinWoo 2013 “Augmented broadcasting service techology for smart TV” Journal of the korean society of broadcast engineers
Kim SunCheol , Jeong YoungHo , Hong JinWoo 2013 “Augmented broadcasting service for smart media” Journal of the korean society of broadcast engineers
Choi BumSuk , Jeong YoungHo , Hong JinWoo , Lee WonDon 2014 “Augmented broadcasting technology based on hybrid broadcasting service” Journal of the korean society of broadcast engineers