TWIN-LNB & Dual LNB

Posted 2009.10.27 10:34

 TWIN-LNB An LNB with dual outputs to connect a satellite receiver to a television set and a satellite modem to a computer. This makes it possible to watch television and access the internet at the same time, provided internet access is available.


http://www.satellite.se/ordlistaen.html



"Dual LNB" or "Monobloc LNB"

Comprises two universal LNBs fixed together at a small angle in a single housing. Only one "F" connector is used. A single coaxial cable connects to the Digital (or Digital + Analogue) receiver which must be able to use DisEqC signalling to select which LNB is to be used. Normally used on an 80cm dish to receive Astra at 19.2'E and Hotbird at 13'E (but not simultaneously).

monobloc setup monobloc setting up

This type of LNB has a single output and the actual satellite signal is selected by the receiver which sends a DisEqC (22kHz) pulsed tone up the LNB cable. So only one satellite transmission can be viewed at a time. This is in contrast with dish systems that have two or more separate LNBs where, with two receivers, both satellite transmissions can be viewed or recorded simultaneously. See picture HERE. Not compatible with a Sky Digibox. Not usually suitable for fitting to a Sky minidish (although it can be done - but expect poor performance in bad weather).


http://www.satcure.co.uk/tech/lnb.htm#dual

신고

'Research > Broadcast' 카테고리의 다른 글

TWIN-LNB & Dual LNB  (0) 2009.10.27
AzBoxHD Sample Youtube Player  (0) 2009.10.16
AZ Box HD Show  (0) 2009.10.16
Menu of AZBOX HD  (0) 2009.10.16
Unboxing the Humax Freesat PVR  (0) 2009.10.14
Flash Player  (0) 2009.05.13

AzBoxHD Sample Youtube Player

Posted 2009.10.16 14:21
신고

'Research > Broadcast' 카테고리의 다른 글

TWIN-LNB & Dual LNB  (0) 2009.10.27
AzBoxHD Sample Youtube Player  (0) 2009.10.16
AZ Box HD Show  (0) 2009.10.16
Menu of AZBOX HD  (0) 2009.10.16
Unboxing the Humax Freesat PVR  (0) 2009.10.14
Flash Player  (0) 2009.05.13

AZ Box HD Show

Posted 2009.10.16 14:17
신고

'Research > Broadcast' 카테고리의 다른 글

TWIN-LNB & Dual LNB  (0) 2009.10.27
AzBoxHD Sample Youtube Player  (0) 2009.10.16
AZ Box HD Show  (0) 2009.10.16
Menu of AZBOX HD  (0) 2009.10.16
Unboxing the Humax Freesat PVR  (0) 2009.10.14
Flash Player  (0) 2009.05.13

Menu of AZBOX HD

Posted 2009.10.16 14:13
신고

'Research > Broadcast' 카테고리의 다른 글

AzBoxHD Sample Youtube Player  (0) 2009.10.16
AZ Box HD Show  (0) 2009.10.16
Menu of AZBOX HD  (0) 2009.10.16
Unboxing the Humax Freesat PVR  (0) 2009.10.14
Flash Player  (0) 2009.05.13
How to calculate MPEG-2 PCR value  (0) 2009.01.30

Unboxing the Humax Freesat PVR

Posted 2009.10.14 10:56
신고

'Research > Broadcast' 카테고리의 다른 글

AZ Box HD Show  (0) 2009.10.16
Menu of AZBOX HD  (0) 2009.10.16
Unboxing the Humax Freesat PVR  (0) 2009.10.14
Flash Player  (0) 2009.05.13
How to calculate MPEG-2 PCR value  (0) 2009.01.30
How to extract DTS/PTS values out of MPEG-2 PES header  (0) 2009.01.30

Flash Player

Posted 2009.05.13 10:22
Flash player는 원래 Macromedia(어도드에 합병)에서 개발된 멀티미디어 플레이어이다. Adobe Flash authoring tool, Adobe Flex, 또는
많은 수의 Adobe System 써드파티 툴들에 의해 만들어지는 SWF 파일을 플레이한다.

Flash Video 파일들은 H.263 규격의 변형 video bit stream (Sorenson Spark) 비디오 스트림을 포함한다.
Flash Player 8 이후의 버전은 On2 TrueMotion VP6라는 비디오 스트림의 플레이를 지원한다. On2 VP6 비디오는 낮은 비트 레이트
에서도  Sorenson Spark보다 더 낳은 Visual quality를 제공해 줄 수 있다. 바꿔말하면 On2 VP6가 훨씬 고사양의 시스템을 요구한다고
말할 수 있는것이다.

Flash Player 9H.264(MPEG-4 part 10, or AVC)를 지원한다.

오디오는 일반적으로 mp3을 사용한다. 그 외에 Nellymoser codec, uncompressed audio 또는 ADPCM 포맷도 지원하며, 최근 Flash
Player 9은 AAC(HE-AAC/AAC SBR, AAC Main Profile, and AAC-LC)를 지원한다.

신고

'Research > Broadcast' 카테고리의 다른 글

Menu of AZBOX HD  (0) 2009.10.16
Unboxing the Humax Freesat PVR  (0) 2009.10.14
Flash Player  (0) 2009.05.13
How to calculate MPEG-2 PCR value  (0) 2009.01.30
How to extract DTS/PTS values out of MPEG-2 PES header  (0) 2009.01.30
채널 적응형 위성방송을 위한 DVB-S2 기술동향  (0) 2008.03.28

How to calculate MPEG-2 PCR value

Posted 2009.01.30 05:22
출처: http://blog.jongov.com/?p=3

How to calculate MPEG-2 PCR value

Lets say that we have to calculate PCR for time 10:01:47.66.
10 hours + 1 minute + 47.66 seconds equals 36107.66 seconds.

In MPEG-2 specification it is said:

PCR_base(i) =((system_clock_ frequency * t(i)) DIV 300) % pow(2, 33)
PCR_ext(i) =((system_clock_ frequency * t(i)) DIV 1) % 300,

where PCR_base is 33 bits and PCR_ext is 9 bits.

So

PCR_base(i) =((system_clock_ frequency * t(i)) DIV 300) % pow(2, 33)
PCR_base =((27000000 *36107.669773 ) DIV 300) % pow(2, 33)
PCR_base =( 974907083871 DIV 300) % pow(2, 33)
PCR_base = 3249690279 % pow(2, 33)
PCR_base = 3249690279

PCR_ext(i) =((system_clock_ frequency * t(i)) DIV 1) % 300
PCR_ext(i) =((27000000 * 36107.669773 ) DIV 1) % 300
PCR_ext(i) =(974907083871 DIV 1) % 300
PCR_ext(i) =171

신고
출처 : http://blog.jongov.com/?p=2

How to extract DTS/PTS values out of MPEG-2 PES header

Lets say that we have the following sequence of bytes that represents the start of one PES packet:

0×00 0×00 0×01 0xE0 0×00 0×00 0×84 0xC0 0×0A 0×31 0×00 0×05 0xBF 0×21 …

The description of these bytes is as follows:

0×00 0×00 0×01 [0000 0000 0000 0000 0000 0001] packet_start_code_prefix (24 bits) = 1

0xE0 [1110 0000] stream_id (8 bits) = 224

0×00 0×00 [0000 0000 0000 0000] PES_packet_len (16 bits) = 0

0×84 [1000 0100] reserved(2 bits) = 2,
PES_scrabling_control(2 bits) = 0,
PES_priority(1 bit) = 0,
data_aligment_indicator(1 bit) = 1,
copyright(1 bit), = 0
original_or_copy(1 bit) = 0

0xC0 [1100 0000] PTS_DTS_flags(2 bits) = 3,
ESCR_flag(1 bit) = 0,
ES_rate_flag(1 bit) = 0,
DMS_trick_mode_flag(1 bit) = 0, additional_copy_info_flag(1 bit) = 0,
PES_CRC_flag(1 bit) = 0,
PES_extension_flag(1 bit) = 0

0×0A [0000 1010] PES_header_data_length(8 bits) = 10

0×31 [0011 0001] reserved(4 bits) = 3,
PTS_32_30(3 bits) = 0,
marker_bit(1 bit) = 1

0×00 0×05 [0000 0000 0000 0101] PTS_29_15(15 bits) = 2,
marker_bit(1 bit) = 1

0xBF 0×21 [1011 1111 0010 0001] PTS_14_0(15 bits) = 24464,
marker_bit(1 bit) = 1

The PTS value is contained in 0×31 0×00 0×05 0xBF 0×21 byte sequence, along with the reserved and marker bits. DTS and PTS values are held in 90 kHz units and the resulting value must be divided by 90000 in order to get the result in seconds.

The formula for PTS calculation is:

PTS in seconds = ( (PTS_32_30 << 30 ) + (PTS_29_15 << 15) + PTS_14_0 ) / 90000.0;

Here “<<” denotes the bitwise “shift to left” operation.

PTS in seconds = ( ( 0 << 30 ) + ( 2 << 15 ) + 24464 ) / 90000.0;
PTS in seconds = ( 0 + 65536 + 24464 ) / 90000.0;
PTS in seconds = ( 90000 ) / 90000.0;
PTS in seconds = 1.0
PTS = 00:00:01.0


신고

원문: http://kidbs.itfind.or.kr/WZIN/jugidong/1121/112101.htm

채널 적응형 위성방송을 위한 DVB-S2 기술동향

장대익* 김내수* 이호진**

고차변조기법에 연접된 새로운 채널코딩 기법을 기존의 DVB-S와 DVB-DSNG의 코딩과 변조기법에 적용함으로써 주어진 위성중계기 대역폭과 전송 EIRP에서 30% 이상의 채널대역폭 용량이득(capacity gain)을 가져올 수 있다. 따라서 광대역 전송이 가능하고 기존의 SDTV급 전송뿐만 아니라 HDTV급 방송 및 광대역 멀티미디어 서비스의 제공을 원활하게 하며 특히 광대역 방송통신 융합 서비스에 적합한 전송구조를 갖는다. 또한 위성통신 채널의 상태에 적응적으로 최적의 변조방식 및 부호화율을 선택하여 전송하는 채널 적응형 코딩 및 변조 기법(ACM)은 100~200%까지의 위성채널 용량 확장을 가능하게 한다[1].

I. 서 론

채널코딩의 발전으로 오류정정부호의 이론적 한계인 Shannon Limit에 근접한 데이터 성능을 보이는 채널코딩 기법이 연구됨에 따라 링크마진이 확대되고 있고, 비선형 증폭기 특성에 적합한 APSK 계열의 고차 변조기법이 출현됨으로써 대역폭 효율이 증가하고 있다. 따라서 주어진 위성중계기의 전송대역폭과 신호전력에서 기존 방식보다 훨씬 높은 전송용량 확보가 가능해졌으며, HDTV와 대용량 멀티미디어통신 등 신규 서비스 확보 및 통신과 방송융합을 위해 고차변조방식의 전송기법과 광대역 통신방송 서비스를 제공하기 위해 Ka대역의 주파수 사용이 요구된다. 그런데 고차변조방식이나 Ka 대역 통신은 강우에 심각한 영향을 받아 가용도가 낮아지며, 현재 많이 사용되고 있는 Ku대역의 경우 강우에 의한 시간율을 99%에서 99.9%로 0.9%(80시간/년) 높이기 위해 6~8dB이상의 링크마진을 높여 운용하며 위성전력의 반 이상이 1% 이하의 가용도 개선을 위해 소비된다[2]. 따라서 1년 중 99%인 대부분의 시간 동안은 多심볼의 고차변조방식으로 데이터를 전송하고 강우 시 적응형 변조기법(Adaptive Coding and Modulation: ACM)을 적용하여 전송효율을 약 30% 이상 높일 수 있다. Ka대역에서는 Ku 대역에 비해 강우감쇠가 크기 때문에 이러한 효과가 더욱 커진다[3].

DVB(Digital Video Broadcasting)에서는 주어진 중계기 대역폭과 신호전력에서 기존방식보다 훨씬 더 높은 전송용량을 제공하기 위해 기존의 DVB-S(1.0)을 DVB-S(2.0)으로 개정 진행 중에 있으며, 규격 개정의 주요 목적은 주어진 중계기 대역폭에서 더 높은 전송용량 확보, 개선된 링크 마진을 통한 서비스 가용도 증대, HDTV와 같은 광대역 방송의 신규 서비스 요구 실현, Ka 대역 위성시스템 출현으로 기존 DVB-S(1.0) 시스템 사용의 한계인 대역폭문제 및 강우감쇠에 대한 대책 마련, 통신방송 융합에 따른 양방향 방송 서비스 제공을 목적으로 하고 있다. 본 고에서는 채널 대역폭 효율을 높이고 방송과 통신 융합 서비스를 제공하며, 채널상태에 적응적으로 반응하여 가용도를 높이는 DVB-S2 기술동향에 대해 기술한다.

II. DVB-S2 주요 쟁점사항

DVB-S2의 최우선 목표는 현재의 전송 방식과 동일한 환경에서 월등히 높은 전송 효율과 고신뢰 전송을 가능하게 하는 것이다. 즉, 주어진 중계기 대역폭과 신호전력에서 기존방식보다 높은 전송용량을 제공하고, 고효율 코덱과 대역폭 효율 고차 모뎀의 개발에 의해 개선된 링크 마진을 통한 서비스 가용도 증대, HDTV와 같은 광대역 신규 서비스 제공, 채널 적응형 기법에 의한 강우감쇠 대책 마련, 통신방송 융합에 따른 양방향 방송 서비스 제공이 가능하게 되었다.

DVB-S2는 미국과 유럽의 각기 다른 필요성에 의해 표준화가 시작되었다. 미국의 경우 현재 미국이 확보하고 있는 방송 궤도에서의 가용한 위성 대역폭은 고정되어 있어서 HDTV와 같은 신규 서비스 제공을 위해서는 현재보다 더 많은 용량을 절실히 필요로 하고 있으며, Echostar는 상업적인 요구에 의해 DVB-S에 비해 약 40% 정도의 용량 증가를 달성할 수 있는 새로운 시스템을 요구하게 되었다. 그러나 유럽의 경우는 가용한 위성대역폭의 제한에 대한 필요성과 HDTV 서비스에 대한 요구는 약한 편이나, 위성방송 사업자들은 주로 Unicast/multicast 서비스에 관련된 인터넷과 케이블 head-end에 대한 contribution 링크 등과 같은 광대역 서비스에 대한 새로운 요구와 신뢰성 있는 전송 서비스에 대한 요구가 DVB-S2의 표준화 추진의 기폭제가 되었다.

DVB-S2애플리케이션 시나리오는 위성상의 순방향 링크에서 방송 애플리케이션, interactive애플리케이션, 그리고professional systems(DSNG, Internet trunking, cable feeds,..)으로 구분되며, 방송 애플리케이션에 대해서는 DVB1.0과 호환을 이루는 BC(Backwards compatible) 구조와 비호환 구조인 NBC(Non-backwards compatible) 구조로 구분한다[4]. 특히, interactive애플리케이션과 professional systems에서는 최대 전송 효율을 획득하기 위하여 적응형 부호/변조(ACM) 방식을 포함한다. ACM 방식은 다음과 같은 특징을 갖고있다.

- ACM은 시간적으로 변화하는 위성 채널 환경에서 보다 높은 대역 효율을 제공함

- ACM은 특히 링크마다 물리계층이 최적화되어야 하는 유니캐스트 환경에 적합함

- ACM에서는 리턴링크에 의해 수신기의 수신상태가 모니터링되어야 함

- ACM은 point-to-point의 unicast 환경에 적합한 구조임

ACM 전송에서는 수신측의 데이터 수신성능에 따라 송신부에서 적응적으로 부호/변조방식을 변경하고 부호방식과 변조방식 정보인 MODCOD 정보와 함께 데이터를 전송하며 수신측에서는 MODCOD정보에 의해 수신신호의 복조복호 방식을 변경하여 데이터의 신뢰도를 유지하도록 한다. 따라서 ACM 변조방식은 수신성능정보를 리턴채널을 통해 제공받아야 하고 MODCOD 정보는 중요성에 비추어 강력한 채널로 보장해야 한다. 따라서 ACM 변조방식은 Unicast의 통신환경에 적합한 구조이나 프레임 구조를 변경하여 방송의 환경에 적용할 수 있다.

III. 채널 적응형 DVB-S2 전송시스템

1. DVB-S2 시스템 구조

DVB-S2 시스템의 구조는 (그림 1)[1]과 같이 Mode Adaptation, Stream Adaptation, FEC (Forward Error Correction) 부호화, Mapping, Physical Layer Framing, 변조로 구성된다.

Mode Adaptation은 애플리케이션에 따라 결정되는데 입력 스트림 인터페이스, 입력 스트림 동기, ACM 모드와 TS 입력 포멧을 위한 null-packet 제거, 오류검출을 위한 CRC-8 부호화, 다중 입력 스트림을 위한 입력 스트림 혼합 기능을 수행한다. 프레임을 구성하는 포멧으로 BB(Base-Band) 헤더는 입력 스트림 포멧과 Mode Adaptation 형태를 수신기에 알려주기 위해 데이터필드의 앞단에 부가된다.

Stream Adaptation에서는 BB Frame을 만들기 위해 Padding과 BB 스크램블을 수행한다.

FEC 부호화에서는 외부부호로 BCH와 내부부호로 다양한 부호율의 LDPC(Low Density Parity Check) 부호에 의해 오류정정을 수행하며 응용에 따라 FEC 부호블록의 길이는 64,800비트 또는 16,200비트로 구성된다. 또한 비트 인터리빙은 8PSK, 16APSK, 32APSK변조에서 수행되며 BPSK와 QPSK 변조에서는 수행할 필요가 없다.

Mapping에서는 BPSK, QPSK, 8PSK, 16APSK, 그리고 32APSK 성상도로 수행되며 응용되는 영역에 따라 또는 전송채널의 상태에 따라 비트 매핑을 결정한다. 낮은 비트 오율을 달성하기 위해 BPSK, QPSK, 8PSK 성상도에서는 Gray 매핑한다.

물리계층(PL) 프레이밍에서는 블록 부호인 FEC 프레임과 동기되며, 심볼속도를 유지시키기 위해 필요에 따라 Dummy Frame을 삽입하고, 프레임 동기와 변조/부호율 정보인 PL Header와 수신기의 반송파 복구를 위한 파일롯 심볼을 삽입하여 PL Frame을 구성하며, 에너지 분산을 위해 PL 스크램블링을 수행한다.

직교변조(Quadrature Modulation)에서는 기저대역 데이터에 대한 여파기능을 roll-off factor 0.35, 0.25, 0.20중 하나의 SRC(Square Root Raised Cosine) 성형여파기에 의해 수행하고, 직교변조에 의해 70MHz 또는140MHz의 IF 신호로 변조한다.

2. DVB-S2 프레임 구조

DVB-S2 프레임 구조는 크게 입력 스트림 적응부의 출력인 BBFRAME, FEC부의 출력인 FECFRAME, 물리계층 및 시그널링부의 출력인 PLFRAME 구분할 수 있다. BB Frame에서는 Data Field에 관한 정보가 헤더에 삽입된다. FEC부에서는 BCH 외부 부호와 LDPC의 내부 부호가 수행되어 각각의 패리티가 붙게 된다. 이 때 입력신호는 K_bch 비트를 갖는 BB 프레임(프레임의 길이는 FEC 코딩률에 따라 결정됨)이며 출력은 NBC 방송의 경우 64,800 비트의 고정 프레임이다. 물리계층 프레임은 변복조를 통한 실제 전송을 위한 프레임 과정으로서 FEC 블록은 작은 단위의 슬롯으로 구분하여 전송한다. 그리고 각 프레임에 대한 전송 방식을 알려주기 위한 시그널링 정보와 필요한 경우 캐리어 복원을 위한 파일럿 신호가 삽입된다. 각 슬롯의 길이는 전송 모드에 상관없이 90 심볼로 고정되며, 변조 방식에 따라서 슬롯의 수는 가변적이다.

. BB Frame 구조

입력 스트림 적응부에서는 FEC로 입력되는 신호에 대한 인터페이스 처리를 하는 단계로서 응용 서비스에 맞는 기능을 수행 한다. 즉 현재 188 바이트의 MPEG2 TS 스트림의 경우에는 sync 바이트를 오류 검출을 위한 CRC 코드로 대체하고 에너지 분산을 위한 스크램블링 등이 수행된다. 오류 검출을 위한 CRC 생성 다항식은 g(X)= X8+X7+X6+X4+X2+1이다.

 (그림 2)는 Mode Adapter 출력 포멧으로 BB Frame을 만드는 과정이다. DFL(Data Field Length)은 Data Field(DF)의 길이로서 프레임 길이와 LDPC 부호의 부호율에 의해 결정되며 KBCK (10*8) DFL 0과 같은 길이를 갖는다.

BB 헤더는 10바이트로 구성되고 Data Field의 앞에 삽입되며, FEC Frame의 길이인 hldpc에 따라 64,800비트일 경우 0.25%, 16,200비트일 경우 1%의 efficiency loss가 발생한다. BB 헤더의 내용은 2바이트의 MATYPE, 2바이트의 UPL, 2바이트의 DFL, 1바이트의 SYNC, 2 바이트의 SYNCD, 1바이트의 CRC-8로 구성되며 구체적 내용은 다음과 같다.

1) MATYPE: 2바이트로서 첫 번째 MATYPE은 입력 스트림 포멧, Mode Adaptation 형태, Roll-off Factor 등을 나타내며 <표 1>과 같고 두 번째 MATYPE은 다중 입력 스트림용으로 사용하고 그 밖에는 예비로 사용한다.

2) UPL: 2바이트로서 User Packet Length이며 비트단위의 길이를 표시하고 범위는 [0,65535]이다. UPL의 예로서 0000HEX은 continuous stream, 000AHEX은 10비트의 UP 길이, UPL=188x8D 은 MPEG TS 패킷을 의미한다.

3) DFL: 2바이트로서 Data Field Length이며 비트단위의 길이를 나타내고 범위는 [0,58112]이다. DFL의 예로서 000AHEX은 Data Field length가 10비트임을 의미한다.

4) SYNC: 1바이트로서 User Packet의 Sync-byte로 수신기에서 Sync-byte를 복원하는데 사용되며 예로서 SYNC= 47HEX은 MPEG TS를, SYNC= 00HEX은 GS가 sync-byte 를 포함하지 않았을 경우를 의미한다.

5) SYNCD: 2바이트로서 DATA FIELD의 시작점으로부터 Sync-byte 시작까지의 거리를 의미하며, SYNCD=65535D 은 DATA FIELD 내에 완전한 UD의 시작이 없음을 의미한다.

6) CRC-8: 1바이트로서 BBHEADER의 첫 번째 9바이트에 적용된 CRC부호를 의미한다.

. FEC Frame 구조

FEC부에서는 오류 정정을 위하여 BCH 외부 부호와 LDPC의 내부 부호화가 수행되어 각각의 패리티가 붙게 된다. 따라서 (그림 3)과 같이 K_bch 비트를 갖는 BB 프레임은 외부 부호화기와 내부 부호화기에 의해 부호화되며 출력은 NBC 방송의 경우 64800 비트의 고정 프레임이고 short FECFRAME은 16,200비트이다. (그림 3)은 인터리빙 이전의 FECFRAME 포멧이다.

. PL Frame 구조

물리계층(PL) 프레임은 변조를 통한 실제 전송을 위한 프레임 과정으로서 FEC 프레임 블록을 90심볼의 작은 단위 슬롯으로 구분하여 전송한다. 그리고 각 프레임에 대한 시작점 정보인 SOF(Start Of Frame)와 전송 방식을 알려주기 위한 MODCOD의 시그널링 정보 그리고 필요한 경우 캐리어 복원을 위한 파일럿 신호가 삽입되어 PL프레임을 구성한다. 각 슬롯의 길이는 전송 모드에 상관없이 90 심볼로 고정한다. 따라서 변조 방식에 따라서 슬롯의 수가 가변적이다. (그림 4)는 DVB-S2 프레임의 구성과정을 나타낸다.

FEC FRAME은 변조방식과 부호율에 관계없이 64,800비트 또는 16,200비트로 구성되어 있으며 90심볼 단위의 슬롯으로 블록화한다. 따라서 슬롯이 비트가 아닌 심볼 단위에 의해 구성되기 때문에 슬롯의 수는 변조방식에 의존한다. 또한 (그림 4)와 같이 파이럿 블록은 36심볼로 구성되며 16슬롯 단위로 파일럿 블록이 삽입된다. 프레임 당 슬롯의 수 S와 파이럿 블록을 포함할 때의 프레임 효율 h는 다음식과 같다.

은 변조방식에 따른 심볼 당 비트 수, P는 파일럿블록의 심볼 수로 36심볼이다. 변조방식에 따른 프레임의 슬롯 갯수 및 파일롯 블롯 수, 프레임 효율은 <표3>과 같다.

PL 시그널링에 해당하는 PL 헤더는 전송 프레임의 프레임 동기를 위한 26심볼의 SOF, 변조방식 및 부호율 정보 제공을 위한 5심볼의 MODCOD, 프레임 블록의 길이 및 파일럿의 유무 정보를 제공하기 위한 2심볼의 TYPE으로 구성되며, SOF를 제외한 MODCOD와 TYPE 심볼의 보호를 위해(64,7) RM(Reed-Muller) 부호기를 이용하여 64 심볼로 부호화 하며 구체적인 내용은 다음과 같다.

SOF: 26 심볼로 구성되며 전송되는 프레임의 동기를 위해 수신기에서 사용되고 프레임의 시작을 표시한다. SOF의 내용은 18D2E82hex로 변조방식 및 부호율에 관계없이 일정하다.

MODCOD: 5 심볼로 구성되며 전송되는 프레임의 변조방식과 LDPC 부호기의 부호율에 대한 26가지 정보를 포함하며 구체적 내용은 <표 4>와 같다.

TYPE: 2 심볼로 구성되며 전송되는 프레임의 길이에 따라 64,800비트 블록은 normal로서 0, 16,200비트 블록은 short로 1로 세팅하며, 파일럿의 유무에 따라 파일럿을 삽입하는 경우는 1, 파일럿이 없는 경우는 0으로 세팅한다.

3. FEC Coding

채널 코딩은 DVB-S2에서 요구하는 주어진 중계기 대역폭과 전송 EIRP에서 30% 이상의 전송 용량을 획득할 수 있도록 코딩이득이 높은 채널코딩 기법을 선택하였다. 따라서 BCH 외부 부호와 LDPC 내부 부호의 연접부호를 선정하였으며 LDPC 부호화된 블록부호의 크기를 64,800비트 또는 16,200비트로 결정하는 구조를 갖도록 한다. LDPC의 부호율에 따라 BBFRAME의 크기, BCH 부호의 크기, LDPC 부호어의 크기가 <표 5>와 같이 결정된다. 

BCH 부호는 외부부호로 <표 5>와 같이 t-error 정정 BCH(Nbch, kbch) 부호로 블록크기가 정해지며 BBFRAME(kbch)이 BCH 부호기에 의해 Nbch, 크기로 부호화된다. BCH 부호의 정보비트 m 은 생성다항식 g(x)에 의해 의 부호어로 부호화 된다.

LDPC 부호는 내부 부호로서 <표 5>와 같이 블록크기가 정해지며 FECFRAME(nldpc)과 같다. BCH 부호의 부호어인 kldpc i=(i0,i1,…,ikldpc-1) 크기의 정보 블록을 입력 받아 nldpc 크기의 부호어 c=(i0,i1,…,ikldpc-1,p0,p1,…pnldpc-kldpc-1)로 systematic 부호화 된다.

RM부호기는 5비트의 MODCOD와 FECFEAME 크기에 해당하는 1비트의 TYPE을 bi-orthogonal RM(32,6) 부호기에 의해 부호어 와 같이 부호화 하며 파일럿의 유무에 따라 파일럿 모드에서는 RM부호화 결과를 와 같이 생성하고 파일럿이 없을 경우는 와 같이 복사하여 64비트로 부호화 한다.

4. Modulation

. PL 프레임의 구성 제어

PL FRAME은 PL헤더, FEC FRAME, 파일럿 블록으로 구성되며 각각은 정해진 길이에 따라 프레임 구성을 제어해야 한다. 프레임은 블록단위로 매핑 시각이 다음과 같이 결정된다. PL 프레임의 프레이밍 구성은 (그림 5)와 같다.

1) PL헤더를 90심볼동안 π/2-BPSK 변조한다.

2) FECFRAME을 16 SLOT(1440심볼)동안 변조방식에 따라 변조한다.

3) Pilot삽입을 위해 36심볼동안 I는 1, Q는 0으로 매핑한다.

4) FECFRAME 블록동안 2)와 3)을 반복하고, FECFRAME이 끝나면 새로운 FECFRAME에 대해 1) ~ 4)의 과정을 반복한다.

. 비트매핑

PL FRAME은 PL헤더와 FEC FRAME 데이터, 그리고 파일럿 블록에 따라 각각 정해진 변조방식으로 비트 매핑을 통해 심볼단위 변조한다.

PL 헤더는 입력되는 심볼의 순서에 따라 홀수번째와 짝수번째로 구분되어 홀수번째는 I 축에 BPSK로, 짝수번째는 Q축에 BPSK로 변조되며 데이터 비트의 내용에 따라 (그림 6)과 같이 결정한다.

파일럿은 PL 헤더 슬롯(슬롯-0) 다음부터 매 16 슬롯(1440심볼) 마다 36 심볼의 파일롯 블록이 삽입되며 각 파일럿 신호는 변조되지 않은 반송파로 I = 1, Q = 0과 같이 매핑한다. 또한 변조방식에 따라 파일롯 블록의 개수가 아래와 같이 결정된다.

BPSK의 경우: 45 pilot blocks

QPSK의 경우: 22 pilot blocks

8PSK의 경우: 15 pilot blocks

16APSK의 경우: 11 pilot blocks

32APSK의 경우: 9 pilot blocks

FEC FRAME 데이터 비트열은 변조방식(MODCOD)에 따라 다음과 같이 심볼수가 정해진다. 여기서 N은 FEC FRAME 데이터열의 비트 수이며, 정해진 변조방식에 따라 (그림 7)과 같이 성상도로 매핑한다.

BPSK: 비트i,  i = 0, 1, 2, …, N-1

QPSK: 비트2i, 2i+1,  i = 0, 1, 2, …, (N/2)-1

8PSK: 비트3i, 3i+1, 3i+2,  i = 0, 1, 2, …, (N/3)-1

16APSK: 비트4i, 4i+1, 4i+2, 4i+3,  i = 0, 1, 2, …, (N/4)-1

32APSK: 비트5i, 5i+1, 5i+2, 5i+3, 5i+4,  i = 0, 1, 2, …, (N/5)-1

APSK 변조의 경우 성상도 상에서 내부 및 외부링이 다른 전력을 갖도록 성상도로 매핑한다. 매핑하는 성상도의 내/외부 전력비율은 부호율과 심볼비트의 내용에 따라 <표 6, 7>을 참조하여 성상도 점를 위치시킨다.

. 물리계층 스크램블링

성상도 비트 매핑된 FECFRAME과 Pilot 신호의 I와 Q 블록 신호는 에너지 분산을 위해 랜덤화 하지만 PL 헤더에 해당하는 SLOT-0은 스크램블링하지 않는다. 스크램블링은 FECFRAME 블록의 시작점인 SLOT-1 시점에 초기화 되어 PL 스크램블링한다.

스크램블링은 impulse함수의 연속으로 표현되며 심볼구간은 Ts=1/Rs로 I와 Q의 진폭에 곱하여 복소수 영역으로 스크램블링한다. 또한 스크램블링을 위한 복소수 랜덤 비트열 Cscrb은 Cp와 CQ로 복소수이며 다음식과 같이 표현한다.

스크램블될 원본 신호가 I+jQ 라면 스크램블된 복소수 영역의 신호는 각각 다음과 같으며 물리계층 스크램블러의 I와 Q 출력은 <표 8>과 같다.

.성형필터

성형필터는 SRC(Square root Raised Cosine) 필터로서 전송되는 입력 데이터 펄스의 대역폭을 제한하여 심볼간 간섭(ISI)을 방지하기 위해 사용된다. SRC 성형필터의 roll-off factor는 0.35, 0.25, 0.20으로 심볼속도와 중계기 대역폭에 의해 결정한다.

IV. DVB-S2 전송시스템의 채널 적응형 기법

AWGN 채널에서 변조방식에 따른 요구 C/N과 스펙트럼 효율의 시뮬레이션 결과는 (그림 9)[1]와 같다. 따라서 전송채널 환경에 의해 결정되는 수신 C/N의 상태에 따라 변조방식을 선정함으로써 요구되는 수신성능을 만족시킬 수 있다.

DSNG와 같이 단일 수신기에 전송하는 point-to-point ACM 링크에서는 (그림 10)과 같이 수신지역의 채널상태 C/N+I에 따라 TS 패킷을 보호한다. 즉, 전송채널의 조건을 수신기가 모니터링하며 위성망이나 지상망의 리턴링크를 통해 채널상태를 송신국에 전송하고 송신국에서는 (그림 9)와 같은 시뮬레이션 결과에 따라 최적의 전송방식 Mi, Mj, 또는 Mk를 결정하여 수신기에 전송함으로써 데이터의 수신성능을 유지하도록 한다. 

방송의 경우 수신지역의 채널환경이 다를 수 있으며 중단 없는 방송서비스를 제공하기 어렵다. 즉, 전 지역의 수신기 채널 상태를 모니터링하기도 어렵고 모든 수신기에 최적의 전송방식으로 방송하는 것은 불가능하다. 따라서 시분할 ACM의 전송프레임 구조 개념을 도입하여 VCM (Variable Coding and Modulation) 방식으로 방송신호를 전송하도록 한다. 송신국에서는 동일한 방송 프로그램에 대해 방송품질을 몇 개로 계층화 하여 시분할로 송신하고 수신측에서는 수신환경에 맞는 최적의 전송방식을 선택하게 함으로써 중단 없는 서비스가 가능하도록 할 뿐만 아니라 수신지역의 전송채널상태를 모니터링 할 리턴링크가 필요 없는 특징을 갖는다. (그림 11)은 VCM 을 이용한 채널 적응형 방송 전송구조를 보인다.

V. 결 론

본 고에서는 주어진 전송 대역폭과 신호전력에서 기존 방식보다 높은 전송용량을 확보하고 신호의 신뢰성을 높이기 위한 DVB-S2 전송기술에 대해 기술하였다. DVB-S2에서는 ACM 전송방식을 기반으로 채널의 신뢰성을 높여주는 기술로서 최적의 프레임 포멧을 제시하고 있다. 또한 코딩이득을 높이기 위해 LDPC와 BCH의 연접부호를 제안하였고, 비선형 특성에 강하고 대역폭 효율 특성이 높은 고차 APSK 변조방식을 선정하였다.

ACM 전송방식은 점 대 점 통신환경에 적합한 채널 적응형 전송방법으로 단일 전송로를 구성하며 송수신지역의 채널상태에 국한하여 전송환경이 결정되며 최적의 변조방식 선정에 의해 전송채널을 보장할 수 있다. 그러나 방송환경에서는 수신지역이 넓고 수신지역의 채널환경이 다양하기 때문에 동일한 전송방식에 의한 적응형 변조방식으로는 모든 지역의 통신환경을 만족시킬 수 없는 특징이 있다. 따라서 방송환경에서는 다양한 전송방식을 시분할로 전송하며 수신기에서는 전송채널환경에 적합한 최적의 변조방식을 선택할 수 있는 VCM 방식을 적용한 전송 프레임을 제안함으로써 채널상태에 적응적으로 신뢰성 있는 방송을 시청하도록 한다.

결과적으로 DVB-S2시스템은 통신과 방송의 융합에 적합한 기술이고 광대역 전송과 신뢰성 높은 전송채널을 보장해 줄 수 있는 기술로서 다양한 응용분야에 적용될 것이 확실하며, 표준화가 진행중이기 때문에 기술선점의 전략에서 기술개발의 필요성이 절대적으로 요구된다.

<참 고 문 헌>

[1]    DVBS2-74r9, 2nd Generation framing structure, channel coding and modulation system for Broadcasting, Interactive Services, News Gathering and other broadband satellite applications, ETSI, Sept., 2003.

[2]    Alberto Morello, Turbo Codes & Higher Order Modulations in Satellite Digital Broadcasting and News Gathering, RAI-ESA, March, 2003.

[3]    RAI, Draft Report of the Fifth Meeting, DVB-TM-AHG DVBS2, Geneva, 25~26 Mar.2003.

[4]    DVB-CM 373r1, “Advanced Coding and Modulation Schemes for Broadband Satellite Service – Commercial Requirement,” DVB-S, May.2003.

신고

Anatomy of a Video Signal

Posted 2008.02.21 14:57

Anatomy of a Video Signal

190 ratings | 4.13 out of 5
Print

Overview

You can think of an image as a two-dimensional array of intensity or color data. A camera, however, outputs a one-dimensional stream of analog or digital data. The purpose of the frame grabber is to acquire this data, digitize it if necessary, and organize it properly for transfer across the PCI bus into system memory, from where it can be displayed as an image. In order to understand this process and be capable of troubleshooting display problems, you need to know the exact structure of the video signal being acquired. This document gives an overview of common analog and digital video formats. For information on any non-standard video signal, please refer to the camera manufacturer's documentation.

Video Scanning

Standard analog video signals are designed to be broadcast and displayed on a television screen. To accomplish this, a scheme specifies how the incoming video signal gets converted to the individual pixel values of the display. A left-to-right and top-to-bottom scheme is used as shown below:



At an update rate of 30 frames/sec, the human eye can perceive a flicker as the screen is updated. To minimize this phenomenon, interlaced scanning is typically used. Here, the image frame is split into two fields, one containing odd-numbered horizontal lines and the other containing the even-numbered lines. Then the display is updated one field at a time at a rate of 60 fields/sec. This update rate is not detectable by the human eye (remember AC lighting operates at 60 Hz). Cameras that output interlaced video signals are usually referred to as area scan cameras.

For some high-speed applications, you want the display to update as rapidly as possible to detect or measure movement accurately. In that case, you might want to update the display without combining the odd and even fields into each frame. The resulting image frames would each consist of one field, resulting in an image with half the height and twice the update rate as the interlaced version. This is called non-interlaced video, and cameras that output signals of this type are referred to as progressive scan cameras.

Line scan cameras are a third type; they output one horizontal video line at a time. The frame grabber collects the lines and builds an image of a predetermined height in its onboard memory. A variation on this is a mode called variable height acquisition (VHA). In this mode, the frame grabber collects video lines into an image while another input signal remains active. When the signal becomes inactive, the resulting image is transferred to system memory. Line scan cameras are often used to image circular objects; for example, if you were to rotate a soda can in front of a line scan camera, you could obtain a flattened image of the entire surface of the can. Line scanning is also useful for conveyor belt applications, where parts are moving past a fixed camera. Often a detector is used to provide a trigger signal to begin the acquisition when the object reaches the camera. In the VHA mode, a second detector can be used to signal the end of the object, terminating the acquisition. This is extremely useful for applications in which the objects to be imaged are of variable or unknown lengths.
See Also:
Conveyor Belt Applications

Analog Video Signals


An analog video signal consists of a low-voltage signal containing the intensity information for each line, in combination with timing information that ensures the display device remains synchronized with the signal. The signal for a single horizontal video line consists of a horizontal sync signal, back porch, active pixel region, and front porch, as shown below:



The horizontal sync (HSYNC) signals the beginning of each new video line. It is followed by a back porch, which is used as a reference level to remove any DC components from the floating (AC-coupled) video signal. This is accomplished during the clamping interval for monochrome signals, and takes place on the back porch. For composite color signals, the clamping occurs during the horizontal sync pulse, because most of the back porch is used for the color burst, which provides information for decoding the color content of the signal. There is a good description for all the advanced set-up parameters for the video signal in the on-line help for the Measurement & Automation Explorer.

Color information can be included along with the monochrome video signal (NTSC and PAL are common standard formats). A composite color signal consists of the standard monochrome signal (RS-170 or CCIR) with the following components added:
  • Color burst: Located on the back porch, it is a high-frequency region which provides a phase and amplitude reference for the subsequent color information.
  • Chroma signal: This is the actual color information. It consists of two quadrature components modulated on to a carrier at the color burst frequency. The phase and amplitude of these components determine the color content at each pixel.

Another aspect of the video signal is the vertical sync (VSYNC) pulse. This is actually a series of pulses that occur between fields to signal the monitor to peform a vertical retrace and prepare to scan the next field. There are several lines between each field which contain no active video information. Some contain only HSYNC pulses, while several others contain a series of equalizing and VSYNC pulses. These pulses were defined in the early days of broadcast television and have been part of the standard ever since, although newer hardware technology has eliminated the need for some of the extra pulses. A composite RS-170 interlaced signal is shown below, including the vertical sync pulses. For simplicity, a 6-line frame is shown:




It is important to realize that the horizontal size (in pixels) of an image obtained from an analog camera is determined by the rate at which the frame grabber samples each horizontal video line. That rate, in turn, is determined by the vertical line rate and the architecture of the camera. The structure of the camera's CCD array determines the size of each pixel. In order to avoid distorting the image, you must sample in the horizontal direction at a rate that chops the horizontal active video region into the correct number of pixels. An example with numbers from the RS-170 standard:

Parameters of interest:
  • # of lines/frame: 525 (this includes 485 lines for display; the rest are VSYNC lines for each of the two fields)
  • line frequency: 15.734 kHz
  • line duration: 63.556 microsec
  • active horizontal duration: 52.66 microsec
  • # active pixels/line: 640

Now, some calculations we can make:
  • Pixel clock (PCLK) frequency (the frequency at which each pixel arrives at the frame grabber):
    640 pixels/line / 52.66 e-6 sec/line = 12.15 e6 pixels/sec (12.15 MHz)
  • Total line length in pixels of active video + timing information (referred to as HCOUNT):
    63.556 e-6 sec * 12.15 e6 pixels/sec = 772 pixels/line
  • Frame rate:
    15.734 e3 lines/sec / 525 lines/frame = 30 frames/sec

    Analog Standards

The following table describes some characteristics of the standard analog video formats in common use:

Format
Country
Mode
Signal Name
Frame Rate (frame/sec)
Vertical Line Resolution
Line Rate (lines/sec)
Image Size (WxH) pixels
NTSC US, Japan Mono RS-170 30 525 15,750 640x480
Color NTSC Color 29.97 525 15,734
PAL Europe (except France) Mono CCIR 25 405 10,125 768x576
Color PAL Color 25 625 15,625
SECAM France, Eastern Europe Mono 25 819 20,475 N/A
Color 25 625 15,625

Digital Video Signals

Digital video signals are produced by cameras in which the signal is digitized at the CCD array, rather than at the frame grabber. Applications that call for the use of digital video usually include some or all of the following requirements:
  • High spatial resolution (larger images)
  • High intensity resolution (bit depth)
  • High speed
  • Flexibility in timing or scanning characteristics
  • Noise immunity

The timing signals for digital video are much simpler than those for analog video, since the signal is already digitized. They include a pixel clock, which times the data transfer and can be an input to or output from the camera; a line enable to signal the beginning and end of each video data line; and a frame enable to signal the start and completion of each frame:



These signals, as well as the data itself, can be single-ended (TTL) or differential (RS-422 or LVDS).

There is no standard scanning pattern for digital video signals, so the digital frame grabber needs to be configurable in order to be compatible with all the different scanning conventions available. One important factor in the type of scan is the number of taps a camera has. Some cameras can output two, four, or more pixels in parallel. For example, a 32-bit frame grabber (having 32 data I/O lines) is capable of reading four 8-bit pixels simultaneously. So, the frame grabber needs to be configured to place those four pixels in the proper portion of the image. The camera documentation specifies the exact order in which the image data will be delivered to the frame grabber.
190 ratings | 4.13 out of 5
Print

Reader Comments | Submit a comment »

Nice intro
- Nov 29, 2007

Not clear description
I found Front porch and Back porch definitions not clear to satisfy the reader. Please modify these to reflect more clearance in the document. Rest of document is excellently written. Thanx
- Ravi Thakur, Barco Electronics P ltd, noida. geek_comp@yahoo.com - Dec 25, 2005

very good informations , i was looking for this infos , very useful for video engineer
- Oct 5, 2005

GENERAL COMMENT: exactly the thing i wanted to know to start my LAser beamer Project
i was curious if it is posible and effective to build a laserbeamer using VGA D-SUB15 output and i think it must be easy since you only need 3 Lasers(R,G,B G & B are most expensive but maybe some cheap things are there) and 2 moresided(depending on motorspeed and accuracy at least 6 sided ) mirrors and two motors and two and a reed contact or something else tomake the motor stop till hsync or vsync comes and a few electronic components to adjust laser intensity and "starting"(optimal would no stopping be) the turning of the mirrors again
- Nov 19, 2004

No circuits, no explanation No software No signal flowing shown out
- TERRY, AAFS ENGINEERING (M) Sdn bhd. terry@alhq.com.my - Jun 30, 2004

 

Legal
This tutorial (this "tutorial") was developed by National Instruments ("NI"). Although technical support of this tutorial may be made available by National Instruments, the content in this tutorial may not be completely tested and verified, and NI does not guarantee its quality in any way or that NI will continue to support this content with each new revision of related products and drivers. THIS TUTORIAL IS PROVIDED "AS IS" WITHOUT WARRANTY OF ANY KIND AND SUBJECT TO CERTAIN RESTRICTIONS AS MORE SPECIFICALLY SET FORTH IN NI.COM'S TERMS OF USE (http://ni.com/legal/termsofuse/unitedstates/us/).

 
신고
PbPr_Colorbars.jp
GB_Colorbars.jp
omposite_SVideo_Colorbars.jp
신고

'Research > Broadcast' 카테고리의 다른 글

채널 적응형 위성방송을 위한 DVB-S2 기술동향  (0) 2008.03.28
Anatomy of a Video Signal  (0) 2008.02.21
YPbPr, RGB, Composite and S-VIdeo Colorbars  (0) 2008.02.19
what's Es/No mean?  (0) 2007.12.31
MPEG-2 4:2:2  (0) 2007.12.28
22KHZ On/Off Switch  (0) 2007.12.28

what's Es/No mean?

Posted 2007.12.31 19:01

What's Es/No mean? - Davy - 06:46 04-03-06

Hi all,

I am new to communication region.

We know that Eb/No means "the ratio of the transmitted signal energy
per bit to the noise spectrum density".

What's Es/No mean? And what's their difference?

Any suggestions will be appreciated!
Best regards,
Davy


Re: What's Es/No mean? - Bevan Weiss - 07:19 04-03-06

Instead of just giving you the answer, I'll step you through it
logically. Very simple of course.

If you were to transmit multiple bits, what would you call this multiple
bit transmission. ie those multiple bits would be encoded into a signal
transmitted s..... (the word will fit if the dots are replaced with the
correct letters)

Via phonic spelling it's also a percussion instrument.


Davy wrote:
> Hi all,
>
> I am new to communication region.
>
> We know that Eb/No means "the ratio of the transmitted signal energy
> per bit to the noise spectrum density".
>
> What's Es/No mean? And what's their difference?
>
> Any suggestions will be appreciated!
> Best regards,
> Davy
>

Re: What's Es/No mean? - john - 11:19 04-03-06


Bevan Weiss wrote:
> Instead of just giving you the answer, I'll step you through it
> logically. Very simple of course.
>
> If you were to transmit multiple bits, what would you call this multiple
> bit transmission. ie those multiple bits would be encoded into a signal
> transmitted s..... (the word will fit if the dots are replaced with the
> correct letters)
>
> Via phonic spelling it's also a percussion instrument.
>
>
> Davy wrote:
> > Hi all,
> >
> > I am new to communication region.
> >
> > We know that Eb/No means "the ratio of the transmitted signal energy
> > per bit to the noise spectrum density".
> >
> > What's Es/No mean? And what's their difference?
> >
> > Any suggestions will be appreciated!
> > Best regards,
> > Davy
> >

Another distinction -- in a system with FEC, Eb/No normally refers to
the *information* bits, before any FEC is applied. Es/No refers to the
*channel* symbols, after FEC is applied. The channel symbols may in
fact still be "bits" though.

For example, if a r=1/2, K=7 code is used with BPSK, a textbook might
show a BER vs Eb/No curve with two traces on it, coded and uncoded. The
uncoded one will have a 1e-5 BER at the familiar 9.6 dB Eb/No. The
coded one will hit 1e-5 BER at approx 4.5 dB Eb/No (just over 5 dB
gain). The Es/No for the coded case is actually 4.5 + 10*log10(r) = 1.5
dB.


John


Re: What's Es/No mean? - Almas_Uddin_Ahmed - 14:44 04-03-06

What's Es/No mean? And what's their difference?

it's mean symbol energy to noise ratio.

2.

symbol means a cllection of bit Es=nEb.

in digital communication
u can send your signal by bit (0/1) or symbol (0/1 s0 s1 for bpsk 00
010 10 11s0 s1 s2 s3 for qpsk so here eatch symbol represnt two bit)
it's totally up to u.


Re: What's Es/No mean? - mpoullet - 16:35 04-03-06

Hi,

You can have a look at :

http://www.sss-mag.com/ebn0.html

and replace "Energy per Bit (Eb)" with "Energy per Symbol (Es)" as
explained in the other answers.

Regards,

Matthieu


Re: What's Es/No mean? - Davy - 02:35 05-03-06

Hi john,

Thank you for your help!

A simple question:
Does 10*log10(rate) mean the code gain of BPSK modulation?
And is there code gain of QAM modulation?

Any suggestions will be appreciated!
Best regards,
Davy


Re: What's Es/No mean? - john - 05:50 05-03-06


Davy wrote:
> Hi john,
>
> Thank you for your help!
>
> A simple question:
> Does 10*log10(rate) mean the code gain of BPSK modulation?
> And is there code gain of QAM modulation?
>
> Any suggestions will be appreciated!
> Best regards,
> Davy

10*log10(rate) is the rate of the error correction code, expressed in
decibels. The rate of the code is the ratio of number of input bits to
number of output bits. For a convolutional code this is the inverse of
an integer, for example 1/2, 1/3, etc. It is important to take this
factor into account when comparing coded and uncoded systems, because
to be fair the coded system should be compared to the uncoded system
running at a lower bit rate.

Coding gain is achievable for QAM modulation.

John
신고

'Research > Broadcast' 카테고리의 다른 글

Anatomy of a Video Signal  (0) 2008.02.21
YPbPr, RGB, Composite and S-VIdeo Colorbars  (0) 2008.02.19
what's Es/No mean?  (0) 2007.12.31
MPEG-2 4:2:2  (0) 2007.12.28
22KHZ On/Off Switch  (0) 2007.12.28
CA system ID  (0) 2007.07.03

MPEG-2 4:2:2

Posted 2007.12.28 17:01
MPEG-2, 4:2:2
Date. 2003-05-02 14:29:14   Count. 359   By   webmaster  

TV 프로그램 제작과 송출 애플리캐이션을 위한


MPEG-2 4:2:2


Ⅰ. 서론

압축기술 및 반도체와 저장기술의 계속된 발전은 수많은 전문방송과 멀티미디어 애플리케이션에 디지털비디오의 사용을 가능하게 했다. 1988년 디지털 코딩과 저장을 위한 광범위한 포맷의 필요성이 제기됨에 따라 ISO(International Standards Organization)은 Moving Pictures Expert Group(MPEG)을 설립하게 되었다. MPEG의 임무는 디지털 멀티미디어의 저장과 송출 애플리케이션을 위한 동화상과 associated 오디오 정보의 압축에 관한 표준을 지속적으로 개발하는 것이다. MPEG는 가전 및 전문방송장비 생산업체 그리고 전세계의 수많은 과학 연구 센터로부터 기술적인 협조를 구했다. MPEG는 전세계의 최고의 기술적 마인드를 이용하여 가장 이상적인 오디오 비디오 압축기술개발을 조율하여 왔으며 다양한 애플리케이션을 최적으로 만족시키는 표준그룹을 형성하였다.

■ 1단계

ISO-IEC/JTC1 SC29/WG11 그룹으로 공식적으로 알려진 MPEG는 1991년1.5Mbps 전송속도의 동화상 및 오디오 부호화 기술인 ISO표준 11172(MPEG-1)를 개발함으로써 그 첫 번째 사업을 완성하였다. MPEG-1의 비디오 부호화 알고리즘은 새로운 비디오/오디오 통신 서비스를 위해 그 당시 사용하게 될 압축 기술을 개선하였다. 또한, MPEG-1 비트 스트림 신택스는 광범위한 비디오 입력 포맷(화면크기 4095×4095)을 허용하였고, 알고리즘은 약 1.5Mbps의 효율적인 코딩을 위해 360×240 크기의 작은 화면크기를 지원하는 애플리케이션에 활용되었다. CD-ROM 멀티미디어, 비디오CD, 화상회의 등의 애플리케이션에 이 새로운 오디오/비디오 압축시스템이 처음으로 적용되었다.

■ 2단계

1990년 MPEG는 비디오포맷의 유연성과 높은 전송율(HDTV의 수용에 요구되는) 그리고 전문 TV방송에 요구되는 특별한 기술적 특성을 제공하기 위하여 그 두 번째 사업인 MPEG-2의 개발에 착수했으며, 1995년 ISO 표준 13818(혹은 ITU R H.262) “Generic coding of moving picture and associated audio"을 개발하였다.

1994년 MPEG는 디지털 시청각 데이터의 전달과 처리방법을 지원하는 새로운 코딩 Tool과 시스템 구조의 개발을 위한 표준화작업에 착수했다. 디지털TV의 증명된 기술에 근거하여 interactive 그래픽 애플리케이션과 월드와이드웹(www) 그리고 MPEG-4는 이 새로운 패러다임으로의 접근을 가능하게 하는 제작과 분배 그리고 컨텐츠를 집약함으로써 표준화된 기술적 요소를 제공할 것이다. ISO/IEC 14496 인 MPEG-4는 1998년 11월 발표되었고, 1999년 1월 국제표준이 되었다.

모든 MPEG 표준은 발생학적으로 보면 특정 애플리케이션을 위해 독립적으로 발전하였지만, 보편적 요구조건에 대하여 최상의 오디오/비디오 코딩 수행능력을 제공한다. 표준(Standard)은 인코딩 절차에 대해서는 구체화하지 않지만 대신 부호화 된 비트스트림과 디코딩 절차에 대해서는 엄격한 제한을 둔다. 이러한 접근은 엄청난 유연성을 가진 표준이 최적으로 만족될 수 있게 하고 때때로 수많은 애플리케이션들의 요구사항을 제한 할 수 있게 한다.

MPEG 표준은 주요부분인 시스템 부분과 현재 시스템에 적용중인 MPEG-1과 MPEG-2 등 여러 부분으로 발표되었는데, 시스템 부분은 데이터와 비디오/오디오 스트림이 어떻게 다중화 될 수 있는지 뿐만 아니라 비디오/오디오 스트림의 다중화에 필요한 동기(sync)에 대한 정보와 데이터로의 무작위 접근과 버퍼의 운용에 관해 구체화하고 있다. 표준에서 비디오와 오디오에 대한 부분에는 비디오/오디오 데이터의 부호화 표현과 이들 화상과 오디오 정보를 재구성하기 위한 디코딩 처리에 대해 상세히 규정되어 있다. 표준의 적용부분은 부호화된 비트스트림의 특성을 결정하는 것과 비트스트림과 디코더의 적응 시험에 대한 절차를 설명한다.

다음 섹션은 1996년 시작된 방송의 제작과 전송 애플리케이션에 사용을 위한 MPEG-2에 포함된 기술적 요소들을 보여 줄 것이다; 비디오 압축 시스템MPEG-2 4:2:2Profile@Main Level.


Ⅱ. 본론


1. MPEG 압축 시스템의 네 가지 주요 장점



MPEG 비디오압축 시스템이 제공하는 거대한 유연성은 다음과 같은 네 가지 중요한 장점으로 요약 할 수 있다.

1) 픽쳐포맷의 독립성
2) 화질의 선택가능(비트래이트의 조정이 가능)
3) 낮은 비트래이트에서의 고화질
4) 부호화 형태를 선택함으로써 편집/스위칭이 가능


<그림 1. MPEG의 장점>

1) 픽쳐포맷의 독립성

MPEG-2 압축기술은 작은 크기의 화상(64K×64Kpixel)에서 HDTV(2백만 화소)까지 거의 모든 범위의 픽쳐포맷에 적용될 수 있다. 화상의 중복성을 제거하기 위한 알고리즘 Tool 역시 순차주사방식 뿐만 아니라 비월주사방식의 화상에도 사용되고 있다. 따라서 ‘순차주사화상’ 혹은 ‘비월주사화상’의 개념은 MPEG-2의 부호화구조에 의해 쉽게 지원되는 것으로 이해 할 수 있다.

한편, 비월주사방식의 비디오 신호를 처리하기 위해 DV 압축 알고리즘이 고안되었다. DV는 필드/프레임 적용으로 비디오 영역을 다루는 DCT 압축 모듈을 사용한다. 또한 DV를 기본으로한 시스템은 720×480/576 픽셀과 같이 다루기가 매우 어려운 아주 특별한 비디오 포맷에 적용된다.

DV의 압축된 스트림에서 비트 할당을 위한 방법이 비월주사 신호를 위한 헤리컬 베이스 VTR의 하드웨어적 제약을 계산에 두고 고안되었기 때문에 순차주사를 위해 이러한 기술을 이용하는 것은 화상 품질에 손상 가능성이 있는 코딩의 비효율적 결과를 낳는다. 또한, DV를 현재의 50Mbps로 제한하고, DV의 고정된 필드/프레임 압축의 전략은 정확한 필드 편집을 요하는 포스트 프로덕션 애플리케이션에는 부적합하다.

2) 비트래이트 조정가능

MPEG-2 비디오 압축 알고리즘은 서로 다른 애플리케이션들에 대한 고품질 제공을 위해 수많은 압축 Tool을 가진다. 하지만, 모든 Tool의 사용을 강요하는 것은 모든 Tool이 필요하지 않는 애플리케이션을 복잡하고 비생산적으로 이끌 수 있다. MPEG-2는 적절한 “프로파일”과 “레벨”을 조합하여 정의함으로써 이 문제를 해결한다.


<그림 2 : MPEG-2 프로파일과 레벨 조합의 허용 가능한 표>

프로파일은 일반적 요구를 가진 애플리케이션의 부류 내에서 사용을 위한 압축 Tool의 세트를 정의한다. 인코더는 애플리케이션을 위해 주어진 프로파일 내에서 허용된 코딩 기술의 subset을 선택할 수 있다. 최상의 효율적 수행과 비용 절약을 위해 정확한 선택이 필요하다. 레벨은 코딩 파라미터가 취할 수 있는 즉, 최대 픽쳐사이즈, 프레임, 비트래이트 등의 최고 값을 구분한다.

프로파일과 레벨의 조합의 표는 MPEG 비트스트림 신택스에 의해 허용되는 Compliance point를 정의한다. 가장 많이 쓰이는 프로파일과 레벨의 조합은 Consumer 애플리케이션을 위한 모든 SDTV의 전송과 저장에 대하여 세계적 기본이 된 메인프로파일과 메인레벨(MP@ML)이다.

MPEG 코딩의 유연성은 HDTV의 전송과 저장에 요구되는 화상 품질을 지원하기 위해 최대 80Mbps의 Main Profile@High Level과 같은 보다 높은 비트래이트의 사용을 허용한다. ATSC는 1995년 새로운 디지털지상파방송의 표준으로 MPEG-2의 MP@ML을 선택하였다. 스튜디오 제작과 넌-리니어 편집 애플리케이션을 위해서 4:2:2P@ML이 고품질의 intra-coded 화질을 위해 50Mbps까지의 비트래이트를 지원한다.

또한 SMPTE는 4:2:2P@ML을 확장하여 스튜디오 제작 환경에 HDTV신호의 사용을 위해 새로운 4:2:2P@HL을 제안하였다. 4:2:2P@HL은 multi-generation 작업에서 Lossless한 실행을 위한 300Mbps 이상의 비트래이트를 지원하고 현재의 SDI/SDTI 라우팅 intra-structure와 호환성을 가진다. MPEG 국제위원회는 최근 SMPTE의 사업을 인정하였고, 1995년 MPEG-2에 이은 새로운 4:2:2P@HL의 표준화 작업을 위해 바쁘게 움직이고 있다.

따라서, 코딩 알고리즘의 MPEG "Toolkit"을 형성한 강력한 기술들은 다양한 픽쳐포맷과 비트래이트를 선택할 수 있게 하여 화상품질과 압축된 신호구조에 큰 확장성을 제공한다. 이들 능력은 다른 압축 시스템에서 간단히 얻어질 수 있는 것이 아니다.

3) 낮은 비트래이트에서의 고화질

근본적으로 애플리케이션의 요구에 대해 가능한 가장 낮은 비트래이트로 최상의 부호화된 고화질의 비디오 품질을 창조하는 것이 MPEG 위원회의 주어진 임무이다. MPEG는 이 같은 사명을 위해 그림의 공간적 중복성 뿐 아니라 시간적 유사성을 이용하는 새로운 비디오 압축 기술을 개발했으며, Group of Picture (GOP) 라는 개념을 창조했다. GOP는 Intra-coded 필드 혹은 프레임(I-picture)을 다가올(그리고 지나간) 그림의 압축을 위해 Anchor 요소로 사용한다.

이러한 압축 필드와 프레임의 배열은 낮은 비트래이트(압축되지 않은 비디오 신호와 비교하여)에서의 높은 레벨의 비디오 품질을 가능하게 한다. 예를 들어, MP@ML SDTV급 화질(50/60hz i)의 사용은 5-8Mbps로 표현이 가능하다. 반면 필름 베이스 비디오신호(24hz)의 묘사는 3-5Mbps면 충분하다. MP@ML이 허용하는 최고 15Mbps까지, 보다 높은 비트래이트에서 부호화 된 재료의 화상 품질은 비압축 컴퍼넌트 비디오 소오스의 품질에 근접한 것으로 주관적으로 인식된다.

따라서 MPEG는 선택된 압축 기술과 그림구조의 복잡함을 조심스럽게 처분하고 부호화 된 화상과 비트래이트 그리고 화상 품질에 개별적으로 접근하는 유연성에 대한 일을 진행한다. 그러나 이것이 MPEG이 어떤 제조업체들에서 잘못 인용된 것 같이 다른 형태의 GOP나 높은 비트래이트 그리고 심지어 높은 레벨의 화질과 강력함(robustness)를 수용 할 수 없다는 것을 의미하는 것은 아니다.

4) Editing/Switching

TV제작을 위해 정교한 프래임 경계에서의 인서트 편집과 스위칭의 수행은 필수적이다. 또한 포스트프로덕션 애플리케이션에서는 편집시 심지어 비월주사 화면의 각 필드에까지 접근한다. Intra-coded(I-picture)화상만을 사용하는 50Mbps MPEG-2 4:2:2P@ML 압축 시스템은 고화질과 multi-generation 수행능력 뿐만 아니라 복잡한 편집과 오퍼레이션에서 개별 그림으로의 접근을 용이하게 한다.

필드 획득(acquisition)과 송출 환경을 위해 화질과 비트래이트의 신중한 균형은 전송채널의 제약, 방송국내 서버의 저장능력 등을 만족시키고, 현재 제작환경에서 이 문제에 의해 예상되는 희생을 줄이기 위해 필수적이다. 이러한 경우, 짧은 GOP의 사용이 최적의 해결책이다. 짧은 GOP는 B-프레임과 I-프레임으로 구성되며 짧은 GOP의 적용은 인접한 프레임의 중복적 요소를 처리하는데 효과적이다. 따라서 Intra-프레임의 인위적인 픽쳐 코딩 없이도 높은 압축비를 얻게 한다.

18Mbps의 비트래이트가 압축된 4:2:2 컴퍼넌트 신호의 전송과 저장을 위해 선택되었다. 예로, 18Mbps에서 MPEG 4:2:2P@ML의 두 채널이 45Mbps DS-3 링크 혹은 디지털 위성 시스템의 패이로드로 동시에 보내질 수 있고, 하나의 18Mbps 비트스트림이 획득장소에서 송신소까지 실시간 속도의 두 배로 전송될 수 있다. 비디오 서버와 넌-리니어 편집 시스템에 대해, 18Mbps 스트림은 높은 비트래이트에서의 다른 압축 포맷에 대한 저장능력을 개선하면서 실시간 동작 보다 빠른 장점과 정교한 프래임 편집의 장점을 유지한다.

압축 효율과 유연성이 부족한 MPEG-2는 다른 압축 시스템과 유사한 기능을 가지기 위해 4:1:1과 같은 만족스러운 그림 수준의 크지 않은 압축비를 가진 서브샘플 컴퍼넌트 시스템의 이용에 의존한다. 그러나 비교적 높은 압축비의 25Mbps의 비디오 스트림(associated 오디오 포함)은 마이크로웨이브, 텔코, 위성디지털 패이로드에 존재하는 비 실시간 동작과 멀티채널작업, 또한 비디오 서버 애플리케이션의 저장비용 증가 등 기술적으로 해결해야 할 문제가 많다.


2. 새로운 MPEG-2 4:2:2P@ML(HL)의 이론적 해석

MPEG-2 MP@ML이 모든 새로운 디지털 텔레비전 서비스와 DVD 미디어를 위한 사실상 세계적 압축 시스템이 되었지만, 전문제작 애플리케이션의 보다 절박한 요구를 완전히 만족시키지는 못하였다. 특히 TV스튜디오와 넌-리니어 작업에는 아래와 같은 능력이 요구된다.

◆ Multi-generation 수행능력과 중대한 주관적 화질 평가를 지원하는 Consumer 애플리케이션을 만족시키는 보다 높은 화질

◆ 테이프와 디스크 사용을 위해 압축된 비트스트림에서의 인서트 편집과 스위칭

◆ 복잡하고 반복된 화상 처리의 고화질 제공

◆ 전송과 저장을 위한 고 압축 효율

◆ 저비용 고효율 실행

◆ 낮은 부호화/복호화 딜레이

1994년 수많은 전문 TV장비 제조업체들은 MPEG 위원회에 방송제작 현장의 요구에 맞는 MPEG-2 시스템의 유연한 코딩 Tool의 새로운 조합을 표준화 해줄 것을 요청하였다. 기술을 개발하고 철저한 수행력 시험을 거친 2년후 1996년 1월 MPEG-2 4:2:2Profile@Main Level이 표준화되었고, 지상파와 위성Feeds 분배용(contribution)품질의 선택적 압축 포맷이 되었다. 위에서 언급한 것과 같이 스튜디오 HDTV신호와의 사용을 위해 이들 코딩 파라미터들의 확장이 SMPTE에 의해 완료되었고 심사를 위해 MPEG에 맡겨졌다.

그림 3은 방송현장에서 사용자적 관점에서 본 MPEG의 계급구조(Hierarchy)이다.


<그림 3 MPEG의 Hierarchy.>

■ 4:2:2P@ML(HL로 확장가능)의 가장 중요한 특성은 :

1) 전문 TV 애플리케이션에서 요구되는 4:2:2 컴퍼넌트 시스템의 높은 크로마 해상도를 사용한다. 이것은 가정과 consumer 애플리케이션으로의 최종 송출을 위한 MP@ML에 사용하는 4:2:0 컴퍼넌트 시스템과는 다르다.

2) I-프레임 혹은 짧은 GOP 이미지 구조를 이용한 부호화된 프레임으로의 임의 접근 능력.

3) Multi-generation 작업과 강력한 수행능력을 요하는 비디오 처리 작업을 위한 최상의 화질. 이것은 최상의 신호 품질을 위해 독립적으로 적용될 수 있는 새로운 루미넌스와 크로미넌스 표에 의해 실행되어짐.

4) 모든 액티브 라인과 버티컬블랭킹에 있는 라인의 부호화 능력; 60hz시스템에서 512라인이 부호화 될 수 있다(50hz/608라인).


3. MPEG의 트랜스코딩 기술

디지털 기술과 압축 기술의 급속한 진보는 의심할 여지없이 TV산업 전반에 걸쳐 새로운 서비스와 채널의 분배로 효율 및 화질을 증대 시켰다. 그러나 다른 면으로 보면 신호 인터페이스의 광범위한 본질- 아날로그 TV시대에서 잘 예시된-을 디지털의 혁신적 발전으로 잃어 가고 있다. 특히 아날로그 NTSC 시스템에서는 획득, 제작, 전송의 모든 양상들이 잘 알려진 일반적 신호 즉, 컴포지트, 1Vp-p의 비디오 파형의 제한된 상황하에서 통합되어 있었다.

아날로그 시스템의 사용자는 동축 케이블의 끝에 도달한 신호가 모든 장비에 완벽하게 적용될 수 있다는 신뢰감으로 다양한 제조업체의 전문 장비를 혼용 할 수 있었다. 오늘날 제작 환경에서 대부분의 리니어와 넌-리니어 저장용 장비는 여러 가지 좋은 이유를 들어 압축기술을 채택한다. 그러나 압축된 신호는 반드시 decompress되어야 하고 대부분의 경우 프로덕션 체인에서 다른 장비 즉, 스위쳐, VCRs, DVEs 등과의 통신을 위해 4:2:2 컴퍼넌트(ITU R BT 601규정)신호로 만들어 져야 한다. 비디오 비트스트림은 그들의 제작 경로에서 디코더 되고 다시 재 인코더 되기 때문에, 양자화 왜곡과 화질의 인위적 변화가 다중 코딩의 효과와 다른 압축 전략을 사용하는 시스템간의 상호 작용에 의해 생길 수 있다. 정의에 의하면 압축된 스트림은 비트래이트의 사용과 저장능력 면에서 보다 효율적이기 때문에, 모든 상황에서 압축된 레벨에서의 정보의 교환을 원하는 많은 생각들을 만들게 된다. 그러나 현재, 이 같이 요구되는 신호 처리는 단지 기초단계에서만 이루어질 수 있다.

불행하게도 이것은 이루어지지 않았다: 상호 호환성 없는 압축 기술의 급증과 파일의 형태, 신호 인터페이스와 물리적 계층이 보다나은 제작환경의 걸림돌이었다.

모든 새로운 디지털 서비스에서 가정으로의 최종 전송 부분에 MPEG-2 MP@ML을 사용한다. TV방송국내의 환경에서 MPEG-2 4:2:2P@ML을 모든 동작에 사용한다면 압축 계층을 통일 할 수 있는 좋은 기회가 될 수 있다. 물론, 여기에는 현존하는 아날로그와 디지털 포맷을 일반적 압축으로 연결할 브릿지의 역할이 필요 할 것이다. 그림 4에서 보인 이 개념으로 end-to-end 신호 품질과 스튜디오 장비의 호환의 크다란 이점을 얻을 수 있을 것이다.


<그림 4 MPEG 방송 제작>

모든 방송 제작에 대해 하나의 압축 시스템을 사용하는 이 개념은 트랜스 코딩의 실행에 대한 최근의 발표로 더욱 구체화되었다. 일반적으로 트랜스코딩은 하나의 압축 시스템에서 다른 특성을 가진 또 다른 압축 시스템으로 최소의 손실로 압축된 스트림의 전환을 허용한다. 실제로 다른 압축 시스템간의 트랜스코딩은 처리에서의 높은 정확도와 수용할 수 있는 결과의 획득을 위해 시스템 간의 조화가 필요하기 때문에 아주 어렵다. 하나의 압축 시스템 내에서의 트랜스코딩은 가능하다. 그리고 그 이점은 근본적인 코딩의 유사성을 이용하여 최대화 할 수 있다.

아래의 그림은 MPEG-2 4:2:2P@ML을 적용한 두 GOP 구조의 트랜스 코딩을 보여준다. 첫 번째 그림은 짧은 GOP를 가진 18Mbps Acquisition 시스템과 고품질 넌-리니어 편집을 위한 50Mbps의 I-프레임 만 사용하는 시스템 사이의 트랜스코딩 동작을 설명한다. 두 번째 그림은 긴 GOP를 가진 고품질 contribution feed가 시청자에게 최종 전송을 위해 역시 6Mbps와 긴 GOP를 가진 MP@ML 비트스트림으로 트랜스코딩되는 것을 묘사한다. 이들 예에서 트랜스코딩의 역할은 화질과 압축 단계에서의 신호의 강인함을 최대화하는 것이다.


<그림 5 MPEG 트랜스코딩 동작의 예>

여러 조직들은 다른 MPEG 소스들간의 매우 고무적인 비트래이트 트랜스코딩의 결과를 보여주었다. 품질 저하는 MPEG압축 이전단계의 passing coding knowledge에 의해서 거의 제거 될 수 있다. 첫 번째 단계로부터 양자화 파라미터, 모션벡터, coding adaptation과 GOP 구조와 같은 인코딩 파라미터 정보는 재 인코딩 처리를 최적화하기 위해 두 번째 압축 단계에 의해 사용된다. 그림 6이 이것을 보여준다. “chip set" 내에서 한번 실행되면 MPEG 소스사이의 상호호환은 이음매 없이 효과적이어야 한다. 이 상호호환은 고속의 전송 래이트로 실시간 보다 빠르게 얻을 수 있다.


<그림 6 비트래이트 전송을 위한 트랜스코딩의 계통도>


4. 프로 MPEG 컨소시움

텔레비전 산업의 기술적 인프라스트럭처는 수많은 TV와 컴퓨터 네트워크를 통하여 오디오/비디오/데이터의 상호 교환에 의해 특성 지어질 무언가를 확실히 포함하고 있다. 이 상호교환은 획득(acquisition)에서 저장(archive)으로의 다른 애플리케이션을 위해 서버(server)와 마그네틱/optical 디스크 저장 시스템 그리고 테이프 저장장비의 범주 내에서 존재할 것이다. MPEG 데이터의 저장과 파일전송 그리고 네트워킹이 미래 디지털 산업의 근간이 될 것은 분명하다. MPEG 전송 프로토콜에 의해 정의된 산업이 전송 애플리케이션을 위해 존재하는 동안에, MPEG-2 4:2:2을 기본으로한 open 네트워크와 저장 시스템이 전체 제작과 적절한 프로파일@레벨과 파일 포맷이 선택된 contribution을 지원하기 위해 반드시 창조되어야 한다.

ProMPEG 컨소시움은 TV제작과 포스트프로덕션을 위해 MPEG를 기본으로 하는 기술의 채택과 전개를 진행하기 위해 전문 비디오 산업의 지도자들의 조직을 최근 구성하였다.

컨소시움 구성원들은 가장 중요한 목표 중에 하나인 multi-vendor시스템과 장비를 위해 상호 호환 가능한 인터페이스를 정의하고 개발을 가속화하는 일을 할 것이다. 또한 이 그룹은 실행에 대한 가이드라인을 제시함으로써 표준(standards)과 산업 조직(SMPTE, EBU, ATSC 등)의 활동을 보완할 것이다. 이미 강력한 개발 프로그램이 제조업체들에 의해 진행중이다. 이들은 MPEG-ES와 TS (elementary stream & transport stream)의 디자인을 위한 SDI와 파일 포맷과 같은 공개 표준의 개발을 위해 SMPTE와 EBU에 참가하고 있다.


5. 결론

MPEG-2는 국제적인 압축 표준으로써 전송과 DVD 애플리케이션의 모든 디지털 비디오 영역에서 사용된다. 지금 이 표준은 획득과 제작에서 가정으로의 최종 전송까지 모든 전문 방송 애플리케이션을 위해 사용중이다.

MPEG-2를 채용한 다른 압축 스트림 사이의 트랜스코딩은 기술의 빠른 발전으로 근간에 등장 할 것이다. 이 기술은 통합된 압축 계층 하에서 상호호환 가능한 TV 인프라스트럭처의 건설에 중요한 역할을 하게 될 것이다. 이런 새롭고 개방된 상호 호환 가능한 비트스트림의 교환은 방송 시스템의 end-to-end 에서 신호의 품질을 개선할 것이고 또한, 라우팅, 저장 그리고 오토메이션 장비와 같이 사용한다면 비용 면에서 더욱 효율적일 것이다.

MPEG-2에 기초한 스트림을 위한 파일 포맷과 전송 전략의 개발을 위한 노력은 최근 결성된 ProMPEG에 의해 강화될 것이다. 이 개방된 컨소시움은 모든 방송, 제작과 디지털 비디오의 전송 애플리케이션에 대하여 MPEG-2 표준의 Multi-vendor 실행의 전반적인 상호호환을 가능하게 하고 이것을 정의하기 위해 같이 일하는 회원들에게 공개토론의 장을 제공 할 것이다.
신고

'Research > Broadcast' 카테고리의 다른 글

YPbPr, RGB, Composite and S-VIdeo Colorbars  (0) 2008.02.19
what's Es/No mean?  (0) 2007.12.31
MPEG-2 4:2:2  (0) 2007.12.28
22KHZ On/Off Switch  (0) 2007.12.28
CA system ID  (0) 2007.07.03
Norway's Conax Comes to America  (0) 2007.06.26

22KHZ On/Off Switch

Posted 2007.12.28 16:53
신고

'Research > Broadcast' 카테고리의 다른 글

what's Es/No mean?  (0) 2007.12.31
MPEG-2 4:2:2  (0) 2007.12.28
22KHZ On/Off Switch  (0) 2007.12.28
CA system ID  (0) 2007.07.03
Norway's Conax Comes to America  (0) 2007.06.26
Video Standards: NTSC, PAL, SECAM  (0) 2007.05.17

CA system ID

Posted 2007.07.03 14:08
http://sat-digital-tv.isp.net.pl/sections.php?op=printpage&artid=1 SDTV
Conditional Access systems
CA_system_id CA system specifier
0x0000 Reserved
0x0001 to 0x00FF Standardized systems
0x0100 to 0x01FF Canal Plus (SECA/Mediaguard)
0x0200 to 0x02FF CCETT
0x0300 to 0x03FF Deutsche Telecom
0x0400 to 0x04FF Eurodec
0x0500 to 0x05FF France Telecom (Viaccess)
0x0600 to 0x06FF Irdeto
0x0700 to 0x07FF Jerrold/GI
0x0800 to 0x08FF Matra Communication
0x0900 to 0x09FF News Datacom (NDS/Videoguard)
0x0A00 to 0x0AFF Nokia
0x0B00 to 0x0BFF Norwegian Telekom (Conax)
0x0C00 to 0x0CFF NTL
0x0D00 to 0x0DFF Philips (CryptoWorks)
0x0E00 to 0x0EFF Scientific Atlanta (PowerVu)
0x0F00 to 0x0FFF Sony
0x1000 to 0x10FF Tandberg Television
0x1100 to 0x11FF Thomson
0x1200 to 0x12FF TV/Com
0x1300 to 0x13FF HPT - Croatian Post and Telecommunications
0x1400 to 0x14FF HRT - Croatian Radio and Television
0x1500 to 0x15FF IBM
0x1600 to 0x16FF Nera
0x1700 to 0x17FF BetaTechnik (BetaCrypt)
0x1800 to 0x18FF Kudelski SA (NagraVision)
0x1900 to 0x19FF Titan Information Systems
0x2000 to 0x20FF Telef?ica Servicios Audiovisuales
0x2100 to 0x21FF STENTOR (France Telecom, CNES and DGA)
0x2200 to 0x22FF Tadiran Scopus
0x2300 to 0x23FF BARCO AS
0x2400 to 0x24FF StarGuide Digital Networks
0x2500 to 0x25FF Mentor Data System, Inc.
0x2600 to 0x26FF European Broadcasting Union
0x4700 to 0x47FF General Instrument
0x4800 to 0x48FF Telemann




Artyku?pochodzi z SDTV
http://sat-digital-tv.isp.net.pl

Adres tego artyku퀅 to:
http://sat-digital-tv.isp.net.pl/sections.php?op=viewarticle&artid=1

신고

'Research > Broadcast' 카테고리의 다른 글

MPEG-2 4:2:2  (0) 2007.12.28
22KHZ On/Off Switch  (0) 2007.12.28
CA system ID  (0) 2007.07.03
Norway's Conax Comes to America  (0) 2007.06.26
Video Standards: NTSC, PAL, SECAM  (0) 2007.05.17
디지털 지상파 전송방식  (0) 2007.05.08

Norway's Conax Comes to America

Posted 2007.06.26 19:51
http://www.onlinereporter.com/article.php?article_id=1223Norway's Conax Comes to America

By: The Online Reporter
Date: May 07, 2005


Norway's Conax has opened a US branch in San Diego and moved Jørgen
Bertheau there as VP of America sales. Conax supplies conditional
access technology (smart cards) for digital and IP TV services.

It recently signed a deal with Malaysia's MiTV Corporation Sdn Bhd
to deliver Conax CAstream to its digital broadcasting over Internet
Protocol (IP) operation in Malaysia. MiTV uses a combination of
Internet, transmission technologies and infrastructures for the
Malaysian market. Conax CAstream enables operators and content
providers to encrypt the streamed IP television content, distribute
the encrypted stream via open networks and selectively determine the
receivers who will be able to decrypt and view the content.

The system will also be prepared for virtual video-on-demand (VVOD),
meaning that MiTV can automatically download blocks of films to the
hard drives of set-top boxes during off-peak hours, saving broadband
capacity. Subscribers can browse a catalog of the movies currently
available on the hard disc, and select the one they want to view -
no download needed at the time of viewing.

"This daring move of MiTV is just yet another confirmation of what
we believe is going to be the future broadcasting transmission
technology. Their project will create waves and vibrations world
wide," said Raza Ansari, VP Asia, Conax AS Singapore.

Conax is owned 90% by the Norwegian telecom, IT and media company
Telenor and 10 % by Telenor Venture II ASA, a new fund of
TeleVenture, with its main areas of interest within mobile
communications broadband and new media/Internet.


신고

'Research > Broadcast' 카테고리의 다른 글

22KHZ On/Off Switch  (0) 2007.12.28
CA system ID  (0) 2007.07.03
Norway's Conax Comes to America  (0) 2007.06.26
Video Standards: NTSC, PAL, SECAM  (0) 2007.05.17
디지털 지상파 전송방식  (0) 2007.05.08
[동영상]디지털 위성방송 수신기술의 현황과 전망  (0) 2007.03.23

Video Standards: NTSC, PAL, SECAM

Posted 2007.05.17 18:44
http://www.telsat.com/world.htm

Video Standards: NTSC, PAL, SECAM

There are currently three standards in the world for composite, color encoded video: NTSC, PAL and SECAM.

"NTSC" stands for the National Television System Committee of the Electronics Industries Association, the organization which defined the standard format adopted by the FCC for broadcast television in the United States. NTSC is also the standard used in Japan, Canada, and Mexico. "NTSC" is usually taken to mean the NTSC color television system itself, or its interconnection standards. This is also called "composite video" because all of the video information sync, luminance, and color are combined into a single analog signal. "NTSC" is often said to stand for "Never The Same Color." When color broadcasting first became a commercial possibility, the standard was created to allow color television signals to be compatible with existing black and white television. The restriction of compatibility with the earlier technology results in compromises in color image quality.


"PAL" stands for Phase Alternation by Line, the broadcast video standard used in West Germany, Great Britain and most Western European nations. By reversing the relative phase of the color signal components on alternate scanning lines, this system avoids the color distortion that appears in NTSC. Otherwise, PAL closely resembles NTSC. Based on the 50 Hz power system, PAL displays 625 lines interlaced at 50 fields per second (25 frames per second). PAL is not compatible with NTSC or SECAM, though conversion between the standards is possible. Video products to be used in Europe require compatibility with PAL standards.


"SECAM" is an abbreviation for Squential Couleur Moire, the line sequential color system used in France, Russia, Eastern Europe and some Middle Eastern countries. Like PAL, SECAM is based on a 50 Hz power system, displaying interlaced lines at 50 fields per second. The color information is transmitted sequentially (R-Y followed by B-Y, etc.) for each line and conveyed by a frequency modulated subcarrier that avoids the distortion arising during NTSC transmission. SECAM is not compatible with NTSC or PAL, although conversion between the standards is possible.


System Parameters

System Lines Channel
bandwidth
Vision
bandwidth
Vestigial
sideband
width
Vision
modulation
method
Sound
spacing
Sound
modulation
method
 
B 625 7.0MHz 5.0MHz 0.75MHz AM -ve 5.5MHz FM
D 625 8.0MHz 6.0MHz 0.75MHz AM -ve 6.5MHz FM
G 625 8.0MHz 5.0MHz 0.75MHz AM -ve 5.5MHz FM
H 625 8.0MHz 5.0MHz 1.25MHz AM -ve 5.5MHz FM
I 625 8.0MHz 5.5MHz 1.25MHz AM -ve 6.0MHz FM
K 625 8.0MHz 6.0MHz 0.75MHz AM -ve 6.5MHz FM
K1 625 8.0MHz 6.0MHz 1.25MHz AM -ve 6.5MHz FM
L 625 8.0MHz 6.0MHz 1.25MHz AM +ve 6.5MHz AM
M 525 6.0MHz 4.2MHz 0.75MHz AM -ve 4.5MHz FM
N 625 6.0MHz 4.2MHz 0.75MHz AM -ve 4.5MHz FM


Technical Specifications

Code Frames Scan Freq Sound Vision In Use
Lines Band Offset Modulation
Terrestrial Transmission Standards
A 25 405 VHF -3.5MHz Pos No
B 25 625 VHF +5.5MHz Neg Yes
C 25 625 VHF +5.5MHz Pos Yes
D 25 625 VHF +6.5MHz Neg Yes
E 25 819 VHF +11MHz Neg No
F 25 819 VHF +5.5MHz Pos No
G 25 625 UHF +5.5MHz Neg Yes
H 25 625 UHF +5.5MHz Neg Yes
I 25 625 UHF +6.0MHz Neg Yes
K 25 625 UHF +6.5MHz Neg Yes
KI 25 625 UHF +6.5MHz Neg Yes
L 25 625 UHF +6.5MHz Pos Yes
M 30 525 VHF/UHF +4.5MHz Neg Yes
N 25 625 VHF/UHF +4.5MHz Neg Yes
Satellite Transmission Standards
Ku-Band Any Any ~11GHz +6.50MHz Neg Yes
C-Band Any Any ~4GHz +6.50MHz Pos Yes

Colour and Broadcasting Systems by Country

Country TV Colour Stereo Subtitles
Albania B/G PAL
Argentina N PAL-N
Australia B/G PAL FM-FM Teletext
Austria B/G PAL FM-FM Teletext
Azores (Portugal) B PAL
Bahamas M NTSC
Bahrain B PAL
Barbados N NTSC
Belgium B/G PAL Nicam Teletext
Bermuda M NTSC
Brazil M PAL-M MTS
Bulgaria D SECAM
Canada M NTSC MTS CC
Canary Is B PAL
China D PAL
Colombia M SECAM
Cyprus B PAL
Czechsolvakia D/K SECAM/PAL
Denmark B PAL Nicam TeleText
Egypt B SECAM
Faroe Islands (DK) B PAL
Finland B/G PAL Nicam TeleText
France E/L SECAM Antiope
Gambia I PAL
Germany B/G PAL FM-FM TeleText
Germany (prev East) B/G SECAM/PAL
Gibraltar B PAL
Greece B/H SECAM
Hong Kong I PAL Nicam
Hungary D/K SECAM
Iceland B PAL
India B PAL
Indonesia B PAL
Iran H SECAM
Ireland I PAL Nicam TeleText
Israel B/G PAL
Italy B/G PAL FM/FM TeleText
Jamaica M SECAM
Japan M NTSC MTS
Jordan B PAL
Kenya B PAL
Luxembourg B/G PAL - TeleText
Madeira B PAL
Madagascar B SECAM
Malaysia B PAL
Malta B/G PAL
Mauritius B SECAM
Mexico M NTSC MTS CC
Monaco L/G SECAM/PAL
Morocco B SECAM
Netherlands B/G PAL FM-FM TeleText
New Zealand B/G PAL Nicam TeleText
Norway B/G PAL Nicam
Pakistan B PAL
Paraguay N PAL
Peru M NTSC
Philipines M NTSC
Poland D/K PAL Teletext
Portugal B/G PAL Nicam Teletext
Romania G PAL
Russia D/K SECAM
Saudi Arabia B SECAM
Seychelles I PAL
Singapore B PAL
South Africa I PAL
Spain B/G PAL Nicam
Sri Lanka B/G PAL
Sweden B/G PAL Nicam Teletext
Switzerland B/G PAL FM-FM TeleText
Tahiti KI SECAM
Taiwan M NTSC
Thailand B PAL
Trinidad M NTSC
Tunisia B SECAM
Turkey B PAL - TeleText
United Arab Emirates B/G PAL
United Kingdom I PAL Nicam TeleText
Uruguay N PAL
USA M NTSC MTS CC
Venezuela M NTSC
Yugoslavia B/H PAL
Zimbabwe B PAL

[Return to TELSAT® COMMUNICATION's Home Page Main Menu]

신고

'Research > Broadcast' 카테고리의 다른 글

CA system ID  (0) 2007.07.03
Norway's Conax Comes to America  (0) 2007.06.26
Video Standards: NTSC, PAL, SECAM  (0) 2007.05.17
디지털 지상파 전송방식  (0) 2007.05.08
[동영상]디지털 위성방송 수신기술의 현황과 전망  (0) 2007.03.23
What's MCPC or SCPC ?  (0) 2006.10.20

디지털 지상파 전송방식

Posted 2007.05.08 13:09
전자신문 기사 전문 2002. 7. 16

국내 디지털지상파방송 전송방식 유럽식 '판정패' 하나


미국방식(ATSC)을 기반으로 이미 상용서비스를 전개중인 디지털지상파방송을 놓고 일부에서 유럽방식(DVB-T)으로 전환해야 한다는 주장이 제기되고 있는 가운데 유럽방식이 기술적 한계를 극복하기 위해 핵심 전송기술을 수정해야 하는 것으로 밝혀졌다.


이 경우 유럽방식은 우리나라의 방송정책이 전략목표로 설정한 고선명(HD)TV 전송에 부적합할 수밖에 없어 디지털지상파 국가표준을 둘러싼 국내의 논란 역시 수그러들 것으로 보인다.


◇확실시되는 DVB-T규격의 변경 = 지난 4일 영국 방송·통신정책기구인 ITC는 지난 5월말 파산한 ITV디지털의 주파수를 재활용한다는 차원에서 주파수를 신청한 6개 사업자중 BBC·크라운캐슬(Crown Castle)에 디지털지상파 사업권을 재부여했다. 문제는 6개 사업권 신청사중 BBC와 크라운캐슬을 포함한 5개사가 제안서에서 DVB-T규격의 핵심요소인 전송방식 변경을 ITC에 요구했다는 점이다.


ITV디지털이 채택한 DVB-T 표준규격의 전송방식은 64QAM(Quadrature Amplitude Modulation)이었으나 새로운 사업자들은 16QAM방식으로 전환해 서비스하겠다는 것이다.


ITC는 이에 BBC와 크라운캐슬이 디지털지상파방송서비스에 들어갈 수 있도록 16QAM 방식으로 변경해줄 의향이 있다고 공식 발표했다. DVB-T규격의 전송방식이 64QAM에서 16QAM으로 변경되는 것은 이제 시간문제일 뿐이다.


◇치명적 한계를 지닌 DVB-T = 유럽의 디지털 지상파방송표준인 DVB-T는 세계 최초의 디지털지상파방송사업자이자 최초의 DVB-T규격 채택기업인 ITC디지털을 파산케 한 주요한 요인을 제공했다. ITC나 사업권을 획득한 BBC 등은 ITV디지털이 채택한 64QAM의 기술적 문제를 인정하고 있다.


BBC는 ITV디지털이 채택한 64QAM 전송방식은 목표치를 밑도는 방송수신율(40%)은 물론 수신가정의 50%가 전파간섭(노이즈 등)의 영향을 받는 등 수신도에 치명적 문제를 일으켰다고 주장하고 있다. BBC는 이 문제를 해결하기 위해 전송모드를 64QAM에서 16QAM으로 바꾸고 송출파워를 2배로 늘려야 한다고 제시했다.


◇64QAM과 16QAM의 차이 = ITV디지털이 채택한 64QAM과 BBC가 제안한 16QAM은 데이터전송률면에서 엄청난 차이를 가져온다.


64QAM 전송방식은 8㎒ 주파수대역을 한 채널로 하는 DVB-T규격에서 데이터전송률을 24Mbps를 유지케 하나 16QAM방식은 18Mbps를 제공케 한다. 데이터전송률을 떨어뜨려서라도 수신율을 제고하겠다는 발상이 BBC의 16QAM 전송방식 채택이었다. 이 경우 아날로그 1개 채널인 8㎒ 주파수대역을 6개의 SDTV급 디지털채널로 쪼갰던 ITV디지털과 달리 같은 주파수 대역에서 4개의 채널로 줄어든다.


◇유럽방식의 한계 = DVB-T규격이 16QAM 전송방식으로 변경된다는 사실은 유럽표준이 우리나라에 적합하지 않을 수 있다. 더구나 우리나라가 HDTV전송을 채택한 상황에서 이같은 유럽식 규격은 더이상 의미를 갖지 못하게 된다.


HDTV전송을 위해서는 채널당 19.3Mbps의 데이터전송률이 요구되는 데 반해 16QAM은 8㎒대역을 기준으로 18Mbps만 제공한다. 특히 우리나라는 6㎒ 주파수대역을 하나의 디지털채널로 활용하기 때문에 16QAM을 채택한다면 데이터전송률은 더 떨어질 수밖에 없다.


전문가들은 6㎒를 한개 채널로 하는 우리의 상황에서 16QAM 전송방식을 채택한다면 데이터전송률은 14Mbps로 떨어지기 때문에 HDTV전송은 도저히 할 수 없다고 설명하고 있다. 만약 유럽처럼 SDTV 채널전송을 위해 디지털전환을 한다면 가능성이 있지만 HDTV전송을 디지털전환의 주요한 이유로 한 상황에서는 DVB-T가 의미를 잃을 수밖에 없게 됐다.


반박문


전송방식과 변조방식의 차이에 대해


일반적으로 사람을 비행기로 수송한다고 가정할 때, 큰 점보 비행기로 많은 수의 사람을 수송할 수도 있고 작은 비행기로 적은 수의 사람을 수송할 수도 있다.


여기서 전송방식은 비행기로 표현되고, 변조방식은 비행기의 크고 작음으로 비유할 수 있다. 그리고 사람의 수는 데이터양으로 비유할 수도 있다. 영국 디지털방송에서의 전송방식은 COFDM이다. 그리고 그 COFDM에서도 변조방식은 QPSK, 16QAM, 64QAM 등이 있다. 64QAM은 16QAM에 비해 많은 데이터를 보낼 수 있지만 수신하기 위해 16QAM에 비해 수신전력이 더 필요하다. 즉, 큰 비행기(64QAM)로 많은 사람을 수송하기 위해 기름이 많이 필요한 것과 비슷한 이치이다.


영국 ITV가 파산한 이유에 대해


첫째, 영국에서는 DTV 송출전력이 우리나라에 비해 아주 낮다. 그래서 ITV 신호의 수신이 쉽지 않았다. 우리나라는 관악산 DTV가 아날로그 대비 1/4로 송출하고 있다. 영국은 아날로그 대비 평균 약1/100로 아주 낮은 전력으로 DTV방송을 하고 있다. 즉, ITV신호의 수신이 어렵다는 것은 영국 정부가 아주 낮은 전력을 배정한 전파정책 때문이지 유럽방식 자체에 문제가 있는 것은 아니다.


둘째, ITV 디지털은 유료방송인데, 시청료 징수에 필요한 CAS(수신제한시스템, Canal+)이 복제돼 해적판이 유통됐다는 점을 주목해야 한다. 즉 비용을 내지 않는 불법 수신이 급속하게 늘어나 수신료 징수가 용이하지 않았고 이로 인해 재정상태가 급속히 악화된 것이다.


셋째, 축구독점중계권 투자실패도 직접적인 원인이다. 모기업인 그라나다-칼톤이 영국 프리미어 리그의 독점중계권을 확보하면서 발생한 손실을 메우지 못해 DTV사업에서 손을 떼게 됐다. 이로 인해 ITV디지털은 지난 4월 파산을 선언할 수밖에 없었고 중계권을 독립방송위원회(ITC)에 반납하고 법정관리에 들어갔다.


넷째, 약전계 지역에서 발생한 임펄스 노이즈 문제는 초기에 보급된 수신기의 문제다. 즉, 임펄스 노이즈에 대한 대응능력은 유럽방식 자체의 문제라기 보다는 수신기의 문제다. 나중에 개발된 2세대, 3세대 수신 칩은 2K/8K 모드를 전부 지원하며 임펄스 제거 기능을 탑재해 임펄스 노이즈가 아무런 문제가 되지 않고 있다. 참고로 영국보다 2∼3년 늦게 방송을 시작한 호주나 싱가포르에서는 임펄스 노이즈가 거의 문제가 되고 있지 않고, 호주의 경우 국내 업체가 수신기를 대부분 공급하고 있는데 임펄스 노이즈는 전혀 문제가 되지 않는다고 밝히고 있다.


이러한 이유로 파산을 해 영국 디지털 방송은 BBC와 크라운캐슬이 사업권을 재부여 받았으며 64QAM에서 16QAM으로 변조방식을 바꾸어서 서비스할 예정이다. 이 회사들이 64QAM에서 16QAM으로 바꾸어 서비스할 수 밖에 없는 이유는 현재의 송신 출력이 너무 낮게 정해져 있기 때문이다. 64QAM으로 방송했을 때에는 ITV와 마찬가지로 수신의 어려움을 겪을 것이며 임펄스에 의한 영향도 받을 것이다. 앞에서 설명했듯이 작은 비행기로 적은 수의 사람을 수송한다면 기름이 적게 든다고 얘기했다. 그와 마찬가지로 16QAM으로 방송을 하게되면 이론적으로 수신 전력이 64QAM에 비해서 약 3배(5dB) 정도 작아도 수신이 가능하다.


현재 영국의 전파환경과 송신 시설의 설비 문제로 송신 출력을 올리기가 쉽지 않기 때문에 역으로 비행기의 크기를 줄이는 방식인 64QAM에서 16QAM으로 변조방식을 바꿔서 안정된 수신을 목표로 서비스를 할 예정이다.


다시 한번 밝히지만 전자신문의 기사에서와 같이 64QAM이 기술적인 문제가 있어서 16QAM으로 바꾼 것이 아니다. 낮은 송신 출력을 허가한 영국 전파정책에 기인한 것이며 그 것을 해결하고자 서비스 사업자가 수신율과 방송구역을 넓히기 위해 16QAM으로 바꾸려는 것이다.


64QAM의 변조방식에 문제가 있었다면 현재 호주가 64QAM 변조를 사용해 서비스를 하는데 그 곳의 방송사도 파산을 해야한다. 그러나 파산을 했다는 어떠한 보고도 없으며 프라임 타임에 HDTV 서비스도 하고 있는 것으로 보아 64QAM의 변조방식은 어떠한 기술적인 결함도 없음을 알 수가 있다.

김철관 기자
신고

'Research > Broadcast' 카테고리의 다른 글

Norway's Conax Comes to America  (0) 2007.06.26
Video Standards: NTSC, PAL, SECAM  (0) 2007.05.17
디지털 지상파 전송방식  (0) 2007.05.08
[동영상]디지털 위성방송 수신기술의 현황과 전망  (0) 2007.03.23
What's MCPC or SCPC ?  (0) 2006.10.20
Dolby PrologicII  (0) 2006.10.13
http://multimedia.itfind.or.kr/edu/디지털 위성방송 수신기술의 현황과 전망_300k.wmv
출처: http://www.itfind.or.kr/

신고

'Research > Broadcast' 카테고리의 다른 글

Video Standards: NTSC, PAL, SECAM  (0) 2007.05.17
디지털 지상파 전송방식  (0) 2007.05.08
[동영상]디지털 위성방송 수신기술의 현황과 전망  (0) 2007.03.23
What's MCPC or SCPC ?  (0) 2006.10.20
Dolby PrologicII  (0) 2006.10.13
전체주사선과 유효주사선  (0) 2006.10.13

What's MCPC or SCPC ?

Posted 2006.10.20 18:42
http://www.coolstf.com/mpeg/index.html

SCPC, MCPC

What's MCPC?

MCPC 모드에서의 송신은, 트랜스폰더의 전체 대역폭을 점유함으로써 단일 주파수 상에서 몇 개의 오디오 및/또는 비 디오 채널의 방송을 허용한다. SCPC 모드에서의 송신에서, 트랜스폰더는 몇 개의 주파수를 가질 수 있으며, 각 프로그 램은 구별된(distinct) 주파수를 사용한다. 프로그램 방송가는 그들의 프로그램 부케(bouquet)를 세우기(build) 위하여 다양한 트랜스폰더를 사용할 수 있다. 특 별히, 비용의 이유로, 그들 자신의 네트워크를 가지지 않은 어떤 방송가는 그들의 프로그램 부케를 세우기 위하여 주파 수 대역의 일부를 빌리거나 구입한다. 그래서 어떤 프로그램 부케는 SCPC 트랜스폰더 그리고 또한 MCPC 트랜스폰더 를 포함한다. 예를 들어, 위성 수신의 경우에, 그 위에 이용가능한 대역은 몇몇의 구입자(customer)에 의해 공유될 수 있다.

MCPC stands for Multiple Channel Per Carrier. Given an average satellite transponder with a bandwidth of 27MHz, typically, the highest symbol rate that can be used is SR 26MS/s. Obviously, with this large bandwidth, multiple video or audio channels can be transmitted via the transponder at the same time.

MCPC uses a technique called Time Division Multiplex to transmit the multiple programs at the same time. As one can expect from the name, TDM sends data for one channel at a certain time and then data for another channel at another time.

Many encoder manufacturers are currently experimenting with statistical multiplexing of MPEG-2 data. Using this technique, channels that need high data rate bursts in order to prevent pixelization of the picture (such as live sports events), will obtain the bandwidth as they need it by reducing the data rate for other services that don't.

Statistical multiplexing should improve perceived picture quality, epecially on video that changes rapidly and has the advtange of requiring no changes in the receiver equipment.

What's SCPC?

SCPC stands for Single Channel Per Carrier. In the case of this type of transmission, only a part of the available transponder is used for the signal. The satellite operator can sell the remaining space on the transponder to other up linkers. SCPC is typically used for feeds rather than for direct programming. SCPC has the advantage over MCPC that the signals up linked to the same transponder can be transmitted up to the satellite from different locations (SNG trucks for example), but has the disadvantage of not being quite as efficient as MCPC because of "guard bands" which keep the SCPC signals on the same transponder separated from each other.

NBC uses SCPC MPEG-2 for its back haul feeds and is able to use up to four SCPC transmissions on a single satellite transponder (GE-1 Ku-Band). Microspace uses the same type of transponder on the same satellite, but in MCPC format and is able to transmit six video channels and a few audio channels in the same space.


신고

'Research > Broadcast' 카테고리의 다른 글

디지털 지상파 전송방식  (0) 2007.05.08
[동영상]디지털 위성방송 수신기술의 현황과 전망  (0) 2007.03.23
What's MCPC or SCPC ?  (0) 2006.10.20
Dolby PrologicII  (0) 2006.10.13
전체주사선과 유효주사선  (0) 2006.10.13
SCART  (0) 2006.04.04

Dolby PrologicII

Posted 2006.10.13 10:19
Dolby PrologicII


특징 : 기존 5.1채널 방식(DTS, 돌비디지털로 포맷시켜야만



다시 DTS 와 돌비디지털로 들을 수 있는)에서



디지털 방식이 아닌 2채널(음악 CD, VCR Tape, TV(음악방송, 드라마),



LP, Cable TV)로 포맷된 아날로그 소스도 5.1채널로 호환하여 들을 수 있다.


또한 기존에 전대역이 100Hz~7Khz인 프로로직의 단점을 개선,



프로로직Ⅱ는 가청주파수 대역(20Hz~20,000Hz) 까지



가능하여 최상의 음향을 즐길 수 있다.

신고

'Research > Broadcast' 카테고리의 다른 글

[동영상]디지털 위성방송 수신기술의 현황과 전망  (0) 2007.03.23
What's MCPC or SCPC ?  (0) 2006.10.20
Dolby PrologicII  (0) 2006.10.13
전체주사선과 유효주사선  (0) 2006.10.13
SCART  (0) 2006.04.04
DVB 채널을 이용한 고속 인터넷 접속  (0) 2006.03.24

전체주사선과 유효주사선

Posted 2006.10.13 10:16
http://www.avkorea.co.kr/moFORUMS/moA_DISP.aspx?FRM_ID=14&A_ID=20&PG_ID=3화질은 영상신호를 발생시키는

주사(scanning) 규격에 따라 기본적으로 결정되는 것입니다.

과거 픽업튜브(광전변환 진공관)를 사용한 카메라의 경우와 CRT 디스플레이(브라운관)의 경우,

주사행위는 튜브를 둘러싼 수평, 수직 deflection coil에 의해 이루어지며, 이때 유효구간이 생기게 됩니다.


다시말해, X축 deflection coil이 전자총으로부터 쏘아진 전자비임(electron beam)을

좌우로 흔들면서 수평주사가 행해지는데, 이때 좌에서 우로 주사되다가

다시 좌로 급히 비임을 돌려놓아야 하는데, 그 되돌아가는 시간에 해당하는

구간을 제외한 것을 수평유효구간이라 합니다.


그리고 수직방향의 유효구간은 유효주사선수로 바로 결정됩니다.

NTSC에서는 한 화면(프레임)당 전체 525라인으로 주사를 하며,

그 중 약 480라인이 유효한 주사선수가 됩니다. HDTV는 일반적으로

전체주사선수가 1125이고 그중 1080라인이 유효주사선수가 됩니다.


물론 CCD카메라나 TFT-LCD나 프라즈마 디스플레이 패널(PDP)에서는

과거 튜브에서와 같은 deflection이 필요없습니다만, 아직도 많은 브라운관 TV가

있기 때문에 유효주사선이라는 단어는 계속 존재할 수 밖에 없습니다.

다음으로 영상신호의 디지털화에 따라 구체적인 화소수가 결정되는데,

NTSC나 PAL의 아날로그 신호규격이 다르기 때문에 디지털화시에

그 규격을 국제적으로 통일시켜 놓았습니다. 이른바 ITU-R BT.601규격이 그것입니다.


ITU는 방송을 포함한 통신에 관한 국제기구이며, 국제통신연합이라고 합니다.

ITU-R은 ITU중 방송을 포함한 무선통신을 다룹니다.
그 조직에서 TV방송을 다루는 그룹이 있고 그 그룹에서 나온 권고규격을 BT.xxxx라고 합니다.

BT.601(과거에는 CCIR 601이라 하였음)규격에 따르면 하나의 주사선을

샘플링하는 주파수는 13.5MHz이며 이는 PAL이건 NTSC이건 동일합니다.


그 주파수로 NTSC신호를 샘플링하면 하나의 주사선당 유효한 화소수가 720이 됩니다.
그리하여 720x480이라는 화소수가 나오게 된 것입니다.


그렇지만 이는 NTSC의 aspect ratio가 4:3인 것과는 아무런 관계가 없습니다.

그 말은 바로 NTSC의 디지털규격에 따른 화소구성이 non-square pixel이라는 것입니다.

Square pixel은 컴퓨터 디스플레이에서 일반적으로 사용하는 것입니다.

이를테면 640x480, 800x600, 1024x768, 1280x960이 그것입니다.


그런데 ITU-R의 방송관련 Study Group에서 HDTV를 논의하면서 국제적으로

통일된 규격을 사용하여 프로그램을 교환하자고 결정하여 ITU-R BT.709라는

역사적인 권고규격을 마련하였습니다. 하지만 50Hz사용 권역(대체로 PAL, SECAM 사용국)과

60Hz사용 권역(주로 NTSC 사용국)이 첨예하게 대립하여 이른바 common image format

수준의 합의를 하게 되었습니다.



그 중요한 것 중의 하나가 주사선 한 라인당 유효샘플수를 1920으로 정한 것입니다.

이는 물론 샘플링주파수에 따라 얻어진 것인데, HDTV의 디지털화 샘플링주파수는

74.25MHz로 두 권역이 합의하였던 것입니다.

그 1920에 대해 16:9의 aspect ratio와 square pixel 개념을 일단 적용하면

유효라인수는 1080라인이 됩니다.


그리고 HDTV 주사구조에 있어서 컴퓨터디스플레이에서 사용하는

Progressive scanning과 square pixel 개념을 도입하자는 의견이 지배적이었지만,

현단계의 기술수준에서는 제작과 수신 및 디스플레이기술 등으로 보아

1920x1080 interlace(1080i)로 하고, 향후 기술이 발전되면 1920x1080 progressive(1080p)로

나아간다는 의견을 모은 것입니다.

따라서 현재 1920x1080 interlace가 HDTV 프로그램 교환 국제 표준 포맷으로 되어 있습니다.

그런데 최근 미국의 ABC, 일본의 NTV, 호주방송사 등이 1280x720 progressive(720p)

포맷을 추가할 것을 주장하고 있습니다.


그런데 미국의 ATSC방식

(우리나라도 현재 이 방식을 지상파 디지털 TV방식으로 정하였음)

에서는 수신기가 1080i, 720p, 480i, 480p가 포함된 18가지 영상포맷을

다 수신할 수 있도록 하고 있습니다

신고

'Research > Broadcast' 카테고리의 다른 글

What's MCPC or SCPC ?  (0) 2006.10.20
Dolby PrologicII  (0) 2006.10.13
전체주사선과 유효주사선  (0) 2006.10.13
SCART  (0) 2006.04.04
DVB 채널을 이용한 고속 인터넷 접속  (0) 2006.03.24
Universal LNB  (0) 2006.03.13

SCART

Posted 2006.04.04 16:22
http://en.wikipedia.org/wiki/SCARTFrom Wikipedia, the free encyclopedia
신고

'Research > Broadcast' 카테고리의 다른 글

Dolby PrologicII  (0) 2006.10.13
전체주사선과 유효주사선  (0) 2006.10.13
SCART  (0) 2006.04.04
DVB 채널을 이용한 고속 인터넷 접속  (0) 2006.03.24
Universal LNB  (0) 2006.03.13
POD Module  (0) 2005.11.22
http://www.kbi.re.kr/report/trendview.jsp?book_no=113&book_seq=1621&menucode=3/1/1출처: 한국방송영상산업진흥원
신고

'Research > Broadcast' 카테고리의 다른 글

전체주사선과 유효주사선  (0) 2006.10.13
SCART  (0) 2006.04.04
DVB 채널을 이용한 고속 인터넷 접속  (0) 2006.03.24
Universal LNB  (0) 2006.03.13
POD Module  (0) 2005.11.22
디지털 케이블방송 표준에서 복제방지기술  (0) 2005.11.22

Universal LNB

Posted 2006.03.13 14:54
Universal" LNB 9.75 and 10.60 GHz L.O.


Works in 2 bands* 10.7-11.8 and 11.6 - 12.7 GHz. (22 kHz signal switched). Noise Figure usually 1.0 dB or better. Integral feed horn with 40mm neck but C120 flange type available in some models. Spigot fitting for Sky Minidishes.

A Universal LNB requires a 22kHz signal at 0.5v p-p to switch its Local Oscillator to 10.6GHz ("high band"). Otherwise it uses its 9.75GHz oscillator ("low band").

Polarisation switching is controlled by dc voltage supplied by the receiver. 12.5v to 14.5v gives vertical and 15.5 to 18v gives horizontal polarisation. A higher voltage than that may damage the LNB but most are OK up to 20v. A voltage that is too low (less than 12.5v) will prevent the LNB from working correctly.

신고

'Research > Broadcast' 카테고리의 다른 글

SCART  (0) 2006.04.04
DVB 채널을 이용한 고속 인터넷 접속  (0) 2006.03.24
Universal LNB  (0) 2006.03.13
POD Module  (0) 2005.11.22
디지털 케이블방송 표준에서 복제방지기술  (0) 2005.11.22
클록 복구와 A/V 동기화  (0) 2005.10.19

POD Module

Posted 2005.11.22 11:56
--
신고

'Research > Broadcast' 카테고리의 다른 글

DVB 채널을 이용한 고속 인터넷 접속  (0) 2006.03.24
Universal LNB  (0) 2006.03.13
POD Module  (0) 2005.11.22
디지털 케이블방송 표준에서 복제방지기술  (0) 2005.11.22
클록 복구와 A/V 동기화  (0) 2005.10.19
5.1 채널? 돌비 디지털5.1? DTS?  (0) 2003.04.29
TTA
신고

'Research > Broadcast' 카테고리의 다른 글

Universal LNB  (0) 2006.03.13
POD Module  (0) 2005.11.22
디지털 케이블방송 표준에서 복제방지기술  (0) 2005.11.22
클록 복구와 A/V 동기화  (0) 2005.10.19
5.1 채널? 돌비 디지털5.1? DTS?  (0) 2003.04.29
OFDM 기술 및 응용  (0) 2003.04.24

클록 복구와 A/V 동기화

Posted 2005.10.19 16:00
클록 복구와 A/V 동기화

방송사가 비디오와 오디오 프로그램을 인코딩하거나 압축할 때에 MPEG-2 인코더의 27MHz 기준 클록 시간-기수(Time-Base)가 주기적으로 샘플된다. 이런 PCR 데이터 샘플은 MPEG-2 멀티플렉스나 전송 스트림과 결합되어 방송된다. 방송 STB 수신기에서는 위상고정 루프(PLL-Phase Locked Loop) 클록 발생기에 의해 27MHz MPEG-2 기준 클록이 생성되고, 클록은 다시 STC 카운터의 클록으로 작동한다. STB 전송 스트림 디멀티플렉서가 수신되는 PCR 값을 추출하면 그것은 바로 도착 당시의 STC 카운터와 비교된다. 이 두 시간-기수 값의 차이를 나타내는 단순 에러 값이 IIR 필터에 의해 처리된 결과로 출력되는 필터링된 에러 값을 이용해 기준 27MHz PLL을 변조함으로써 셋톱박스의 시간-기수를 MPEG-2 인코더의 시간-기수에 고정시키기 위한 피드백 루프를 제공한다. 방송사의 네트워크에 따라 수신되는 PCR의 지터(Jitter) 특성이 상당히 많이 다를 수 있기 때문에 클록 복구 루프에 프로그램이 가능한 필터를 구현하는 것이 매우 중요하다. 메인 시스템 CPU 상에 소프트웨어 필터를 구현한다면 별도의 하드웨어 없이 잘 작동하고, 시스템 CPU에 대한 추가 부하도 적은 필터를 만들 수 있다.

오디오/비디오 동기화, 즉 ‘입을 맞추는’ 것은 오디오와 비디오를 각각 STC에 동기화 함으로써 이루어진다. 각각의 PES 헤더에 들어 있는 비디오와 오디오 스트림의 PTS 값은 해당하는 ‘액세스 유닛(Access-Unit)’이 시작되어야 하는 시간을 나타낸다. 오디오에 대한 액세스-유닛은 프레임이고, 비디오를 위한 액세스 유닛은 그림, 즉 비디오 기초 스트림에 정해진 그림 구조에 따른 하나의 프레임이다. ‘해당하는 액세스 유닛’은 그 PES 패킷에서 최초의 것이다. 영상이나 오디오 프레임의 재생은 외부 참조에 기반한 고정 절차에 따라 이루어지는데, 외부 참조란 비디오를 위한 수직 동기화와 특수 오디오 프레임 속도 클록이다. 따라서 동기화 작업은 액세스 유닛이 재생되는 시간을 ‘프레임 시간(오디오 프레임 또는 그림)’의 배수가 되도록 조정하는 일이며, 이것은 액세스 유닛을 순서대로 재생하거나 정상적인 경우 하나의 액세스 유닛을 건너뛰어 그 다음의 액세스 유닛을 재생하거나 다음의 액세스 유닛으로 가지 않고 바로 전의 액세스 유닛을 반복하는 것이다. 이런 방법을 이용하여 원하는 PTS 값에 가장 근접하는 시간에 프레임 재생이 시작될 수 있도록 조정한다.
신고

'Research > Broadcast' 카테고리의 다른 글

POD Module  (0) 2005.11.22
디지털 케이블방송 표준에서 복제방지기술  (0) 2005.11.22
클록 복구와 A/V 동기화  (0) 2005.10.19
5.1 채널? 돌비 디지털5.1? DTS?  (0) 2003.04.29
OFDM 기술 및 응용  (0) 2003.04.24
SFN (Single Frequency Network)  (0) 2003.04.24

5.1 채널? 돌비 디지털5.1? DTS?

Posted 2003.04.29 18:12
새 페이지 1

5.1채널은 아래 그림과 같이 청취자가 중심인 정사각형에서 왼쪽 상단과 하단, 오른쪽 상단과 하단, 그리고 상단의 중앙에 5개의 음원(스피커)이 위치하며 저음을 보강하기 위한 서브 우퍼가 별도 구성된 방식을 말한다

돌비 디지털 5.1과 DTS 사이의 차이점은 소리 데이터의 압축률의 차이다. 돌비 디지털 5.1은 압축률이 1/12인 반면 DTS는 1/4의 압축률로 압축을 한다. 단순히 압축률의 차이로 DTS가 우수하다고 말할 수는 없다. 두가지 방식을 모두 감상한 사람들의 평에 따르면 돌비 디지털 5.1은 저음이, DTS는 고음이 더 두드러진다고 한다. 또한 음 분리도의 경우 DTS가 좀더 우수하다고 평하는 사람들이 많다. 그러나 요즘 출시되는 홈시어터 시스템은 두가지 방식을 모두 지원하는 경우가 많아 큰 우려를 가질 필요는 없을 것으로 보인다

신고

OFDM 기술 및 응용

Posted 2003.04.24 11:24
http://www.rapa.or.kr/korean/data/2002/6/2002_6_03.htmOFDM 기술 및 응용
신고

'Research > Broadcast' 카테고리의 다른 글

클록 복구와 A/V 동기화  (0) 2005.10.19
5.1 채널? 돌비 디지털5.1? DTS?  (0) 2003.04.29
OFDM 기술 및 응용  (0) 2003.04.24
SFN (Single Frequency Network)  (0) 2003.04.24
고스트 현상에 대한 질문과 답  (0) 2003.04.22
KBS지상파 디지털 TV 방송연구2001  (0) 2003.03.20