'[Study]/[Image Processing]'에 해당되는 글 5건

  1. 2009.10.12 H.264 Standard(H.264 표준문서 영문/한글 판)
  2. 2009.10.12 YUV(Ycbcr)의 종류
  3. 2009.09.18 주기, 주파수, 각속도, 파장
  4. 2009.09.18 Finite impulse response
  5. 2009.09.16 Rate-Distortion optimization
[Study]/[Image Processing]2009. 10. 12. 13:29

H.264 Standard(H.264 표준문서 영문/한글 판) 보기는 어렵지만 자세하게 나와있음.

'[Study] > [Image Processing]' 카테고리의 다른 글

YUV(Ycbcr)의 종류  (0) 2009.10.12
주기, 주파수, 각속도, 파장  (0) 2009.09.18
Finite impulse response  (0) 2009.09.18
Rate-Distortion optimization  (0) 2009.09.16
Posted by xiasonic
[Study]/[Image Processing]2009. 10. 12. 13:26

우연히 인터넷 검색중에 YUV포멧 종류에 대한 설명이 너무나도 자세하게 설명된 사이트를 찾아서 퍼왔음
http://cafe.naver.com/linuxkernel26 의 DMB쪽 보면 H.264에 대한 정보들이 많이 있음

1. YUV 4:1:1

 콤포넌트 비디오의 휘도신호(Y)와 색차신호(R-Y, B-Y)를 디지털화하는데 사용되는 표본화 주파수의 비율. Y신호는 13.5MHz, 색차신호 R-Y와 B-Y는 각각 3.37MHz로 표본화된다.
TV화면 등의 주사선에 포함되는 정보신호 중 휘도 정보(Y)와 색차 정보(Cb, Cr)의 성분비율은 보통 : : 으로 표시되는데 이러한 표시는 휘도 신호(Y)와 두 개의 색차 Cb, Cr 신호의 표본화 주파수의 비율을 나타낸다. 여기서 4:1:1의 비율이란 휘도 신호 Y의 표본화 주파수 13.5㎒를 4로 할 때 색차 신호 R-Y, B-Y는 각각 1이기 때문에 휘도 신호의 표본화 주파수 13.5㎒의 1/4이 되므로 색차 신호 R-Y와 B-Y는 각각 3.37㎒가 된다. 또한 4:1:1의 신호처리 기법은 4:2:2의 신호처리 기법 등에 비해서 해상도 등이 다소 떨어지는 단점이 있으나 비교적 적은 데이터 비율로 디지털 영상신호를 기록 수 있다는 점에서 경제성이 우수하며 이러한 포맷은 가정용 DVTR(Digital VTR)의 세계 통일 규격인 DV(DVC)와 업무 및 방송용 포맷으로 널리 이용되는 DVCAM과 DVCPRO(25Mbps 규격) 등에 제한적으로 이용되고 있다.
참조 : 4:2:2

 2. YUV 4:2:0

 Y신호가 매 라인마다 13.5MHz로 표본화될 때 R-Y와 B-Y는 한 라인을 건너뛰어 6.75MHz로 표본화되는 (즉, 한 라인은 4:0:0으로 다음 라인은 4:2:2로 표본화) 휘도와 색차신호의 표본화 주파수 비율.
4:2:2 표본화에서는 수직라인의 색해상도가 수평라인 해상도의 1/2인 반면, 4:2:0 표본화에서는 수평과 수직해상도가 같다.
TV화면 등의 주사선에 포함되는 정보신호 중 휘도 신호 Y의 표본화 주파수 13.5㎒를 4로 할 때 두 개의 색차 신호 Cb, Cr의 종 방향 및 횡 방향 모두를 Y의 표본화 주파수에 대해 1/2로 표본화하는 신호처리 기법이다. 즉 라인마다 Y의 13.5㎒에 대해 R-Y를 Y신호의 1/2인 6.75㎒로 표본화하는 동시에 B-Y는 6.75㎒로 표본화하지 않고, 이와 반대로 Y의 13.5㎒에 대해 R-Y를 6.75㎒로 표본화하지 않는 동시에 B-Y는 6.75㎒로 표본화하는 상태를 교대로 되풀이하는 것을 말하는데 이것을 비율로 나타내는 경우 4:2:0과 4:0:2로 반복이 된다. 따라서 이러한 포맷으로 표현되는 표본화 주파수비율을 일반적으로 4:2:0으로 나타내고 있다.
참조 : 4:2:2, DVC

 3. YUV 4:2:2

콤포넌트 비디오의 휘도(Y)와 색차신호(R-Y, B-Y)를 디지털화하는데 사용되는 표본화 주파수의 비율. 4:2:2라는 용어는 Y가 4번 표본화될 때 R-Y와 B-Y는 2번 표본화되는 것을 의미하는데, 이는 4:1:1에 비하여 휘도에 대한 색도대역폭을 더 많이 할당한 것이다. CCIR 601에서 4:2:2 표본화는 디지털 스튜디오 장비의 표준으로서, 4:2:2와 CCIR 601이라는 두 용어가 일반적으로 동의어로 사용되지만 기술적으로 정확히 같은 의미는 아니다.
Y의 표본화 주파수는 13.5MHz이고, R-Y와 B-Y는 각각 6.75MHz로서 고품질 크로마키에 적합한 3.37MHz의 최대 가능 색대역폭을 제공한다.
TV화면 등의 주사선에 포함되는 정보신호 중 휘도 신호 Y의 표본화 주파수 13.5㎒를 4로 할 때 두 개의 색차 신호 Cb, Cr를 횡 방향으로 Y의 표본화 주파수에 대해 1/2로 표본화하는 신호처리 기법이다. 즉 Y의 표본화 주파수 13.5㎒에 대해 색차 신호 R-Y, B-Y는 각각 6.75㎒가 된다. 이러한 신호처리 기법은 8비트 양자화 규격의 D-1, DVCPRO50, Digital-S, Betacam SX 그리고 10비트 양자화 규격의 D-5, 디지털 베타캄과 같은 방송·업무용 포맷의 콤포넌트 DVTR 등에 이용되고 있으나 ITU-R-BT.601에서 규정하는 Y신호의 최대 주파수가 5.5㎒인 점을 고려하면 충분한 샘플링 주파수이긴 하지만 데이터 비율은 콤포지트 방식의 약 2∼2.5배에 이르는 216/270Mbps가 되므로 이로 인해 발생된 막대한 디지털 데이터를 비디오 테이프에 여유 있게 기록하기 위해서는 고효율의 압축 알고리즘이 사용되는 경우가 있다.
참조 : CCIR 601

4. YUV 4:2:2:4

4:2:2와 같으나 4번째 요소로서 13.5MHz로 표본화된 키신호를 포함한다.

5. YUV 4:2:2:P@ML

MPEG-2에서는 여러 가지 도구(Tool)가 제공되고 있어서 대단히 광범위한 응용에 대응할 수 있다. 한편 하드웨어 관점에서 바라보면 지원해야 할 사항이 너무 많아 모든 것을 실현하기가 대단히 어렵다. 가령 A사의 부호기가 4:2:2를 직접 부호화 할 수 있도록 만들어진 것이라도 B사의 복호기가 4:2:0만을 복호 할 수 있다면 A사의 비트열(부호기에 의해 생성된 데이터)의 실용성은 낮아지게 된다. 이와 같은 일이 자주 일어나면 모처럼의 국제표준이 정보의 상호 이용성에 있어서 사실상 무용지물이 되어버린다. 따라서 이와 같은 사태를 피하기 위하여 MPEG-2에서는 "프로파일(Profile)"과 "레벨(Level)"이라고 하는 개념을 도입하여 MPEG-2의 복호기의 특성을 나누고 있다. 즉 메인 프로파일의 메인레벨은 "MP@ML(Main Profile at Main Level)이라고 약칭하게 되는 것이다. ☞ MPEG

6. YUV 4:4:4

콤포넌트 비디오의 휘도(Y)와 색차신호(R-Y, B-Y)나 R·G·B신호를 디지털화하는데 사용되는 표본화 주파수의 비율. 4:4:4에서 모든 콤포넌트들은 동일한 수의 표본들로 이루어진다.
TV화면 등의 주사선에 포함되는 정보신호 중 휘도 신호 Y와 두 개의 색차 신호 Cb, Cr 모두의 표본화 주파수를 13.5㎒로 하는 신호처리 기법이다. 한편으로는 그래픽환경에서 사용되는 고해상도 Component 디지털 비디오 신호의 샘플링 비를 나타내는 약어의 표현을 말한다. 이들 숫자의 의미는 3개의 콤포넌트 채널(Y, Pb, Pr 또는 R, G, B)을 나타내며 3개의 채널을 각각 13.5㎒로 샘플링 한다. 즉, 비디오 신호의 루미넌스와 크로미넌스 차이를 나타내는 Y, R-Y, B-Y에 사용되는 샘플링 주파수는 13.5㎒로 각각 모두 같다. 4:4:4는 통상적으로 컴퓨터를 기본으로 하는 장비에서 장비의 특성이나 성능을 나타내는 기준으로 삼고 있다.

 7. YUV 4:4:4:4

 13.5MHz로 표본화된 키신호가 추가로 포함되어 있는 것을 제외하고는 4:4:4와 동일하다.


출처: http://cafe.naver.com/linuxkernel26/654

'[Study] > [Image Processing]' 카테고리의 다른 글

H.264 Standard(H.264 표준문서 영문/한글 판)  (0) 2009.10.12
주기, 주파수, 각속도, 파장  (0) 2009.09.18
Finite impulse response  (0) 2009.09.18
Rate-Distortion optimization  (0) 2009.09.16
Posted by xiasonic
[Study]/[Image Processing]2009. 9. 18. 14:16

주기: T
주파수: f
각속도: ш(오메가)
파장: λ(람다)

T = 1/f = 2π/ш
v = fλ

'[Study] > [Image Processing]' 카테고리의 다른 글

H.264 Standard(H.264 표준문서 영문/한글 판)  (0) 2009.10.12
YUV(Ycbcr)의 종류  (0) 2009.10.12
Finite impulse response  (0) 2009.09.18
Rate-Distortion optimization  (0) 2009.09.16
Posted by xiasonic
[Study]/[Image Processing]2009. 9. 18. 13:36

개인적으로 까먹을까봐 대충 적어놓은 글...

DSP시간에 배웠는데 기억이 잘 나지는 않지만...
디지털 시스템 input->system->output이 있을때
system에서 행해지는 작업 필터 의 계수를 알기 위해서
임펄스값을 입력으로 넣으면 출력되는 output값이 필터의 계수값이 된다.
특별히 임펄스 리스폰스값을 h[n]이라고 하고 이는 변환행렬 Bk와 같은 값이 된다.

간단히 말해서 어떤 시스템에서 필터 계수를 알수 없을때 이 계수를 찾기 위해서 입력값이 1인 임펄스를 시스템 인풋으로
넣으므로서 계수값을 알 수 있는것...

한가지 더 생각해 보아야 될것은 finite 즉 한정적? 인것을 생각해 봐야된다. 출력값이 ...0,0,0,0,1/3,1/3,1/3,1/3,0,0,0,0... 같이
한정적으로 (0은 값이 없는걸로 보는것) 나오는것 이라고 보면된다.

같이 공부 해야 될 것으로는
FIR, IIR, LTI(맞나??)등등

- Hello Digital Processing -(스펠이 맞나?) 책에 자세히 나와 있다.

A finite impulse response (FIR ) filter is a type of a digital filter. The impulse response, the filter's response to a Kronecker delta input, is finite because it settles to zero in a finite number of sample intervals. This is in contrast to infinite impulse response (IIR) filters, which have internal feedback and may continue to respond indefinitely. The impulse response of an Nth-order FIR filter lasts for N+1 samples, and then dies to zero.

- From Wikipedia, the free encyclopedia -

'[Study] > [Image Processing]' 카테고리의 다른 글

H.264 Standard(H.264 표준문서 영문/한글 판)  (0) 2009.10.12
YUV(Ycbcr)의 종류  (0) 2009.10.12
주기, 주파수, 각속도, 파장  (0) 2009.09.18
Rate-Distortion optimization  (0) 2009.09.16
Posted by xiasonic
[Study]/[Image Processing]2009. 9. 16. 16:08

Rate-Distortion optimization - how it works

Calculating the bit cost is made more difficult by the entropy encoders in modern video codecs, requiring the rate-distortion optimization algorithm to pass each block of video to be tested to the entropy coder to measure its actual bit cost. In MPEG codecs, the full process consists of a discrete cosine transform, followed by quantization and entropy encoding. Because of this, rate-distortion optimization is much slower than most other block-matching metrics, such as the simple sum of absolute differences (SAD) and sum of absolute transformed differences (SATD). As such it is usually used only for the final steps of the motion estimation process, such as deciding between different partition types in H.264/AVC.

대충 해석하자면
이미지를 압축 하는 과정에서 마지막 과정인 엔트로피 코딩시
이것을 다른 네트워크상대의 컴퓨터나 파일로 저장할때 비트수까지 카운트 해서
적은 량의 비트로 보내겠다는 소리 같은데....

오래전에?? 배워서 기억이 가물가물하고.. 영어 해석도 귀찮쿠...
- 출처: wikipedia.org -

'[Study] > [Image Processing]' 카테고리의 다른 글

H.264 Standard(H.264 표준문서 영문/한글 판)  (0) 2009.10.12
YUV(Ycbcr)의 종류  (0) 2009.10.12
주기, 주파수, 각속도, 파장  (0) 2009.09.18
Finite impulse response  (0) 2009.09.18
Posted by xiasonic