Re: Karta do przechwytywania obrazu analogowa ?

Autor: PAndy <pandrw_cutthis__at_poczta.onet.pl>
Data: Fri 20 Jul 2007 - 18:11:05 MET DST
Message-ID: <f7qmqo$a3q$1@news.onet.pl>
Content-Type: text/plain; format=flowed; charset="iso-8859-2"; reply-type=response

"Radosław Sokół" <rsokol@magsoft.com.pl> wrote in message
news:2007071916493800@grush.one.pl...
> PAndy pisze:
>> moze byc np efektem lepszego decodera video - lepiej wykonanej sekcji
>> analogowej , lepszej jakosci pcb itd
>
> Zazwyczaj jednak ograniczeniem jest jakość źródła, zastoso-
> wanego sposobu wprowadzenia sygnału (composite, s-video,

Tak, to bezdyskusyjne - jakosc zrodla implikuje pozniejsza jakosc
nagrania.

> RGB) oraz jakość przewodów. Nawet zwykłe Brooktree 878
> daje na przyzwoitej karcie bardzo dobry obraz, o ile
> źródłem jest na przykład dekoder cyfrowy podłączony przez
> s-video dobrym kablem.

Bt 478,479,878,879 jest 8 bitowy (przetwornik jest 8 bitowy wiec szumy
kwantyzacji sa wieksze niz przetwornika 10 bit) a nowe conexanty z
rodziny CX2388x
maja ADC 10 bitowy i 10 bitowa jest obrobka sygnalu (dla 8 bitowego ADC
rzeczywisty produkt obrobki ma ok 10 -11 bit wiec dla przetwornika 10
bit tor dekodera powinien byc co najmniej 12 a lepiej 13 lub nawet 14
bitowy -wspolczesny profesjonalny sprzet studyjny zazwyczaj obliczenia
przeprowadza na 16 bitach)
Zasada jest ze raczej nie prowadzi sie przesylania programow z plena
rozdzielczoscia (dla PAL to 720x576) - wiele programow ogladanych z
satelity czy nawet w TV analogowej (to samo zrodlo co w satelitarnej,
kablowej czy naziemnej) ma 352, 480, 540, 576 i tylko w wypadku
najlepszych kanalow 704 lub 720 pikseli, liczba linii jest zawsze 576
(naprawde niezwykle trudno trafic na cos co ma 288 lini).
Dlatego oplaca sie przechwytywac obraz z rozdzielczoscia jak najwieksza
(720 pikseli - czasem np 768 czyli tzw square pixel) i potem reskalowac
to np do formatu 480 pikseli w linii. - dzieki temu nastepuje dalsza
redukcja szumow kwantyzacji.

> Nigdy też nie ucieknie się od programowego filtrowania,
> na przykład przez uśrednianie międzyliniowe albo temporalne.

ale po co usredniac miedzyliniowo? deinterlacing to zbrodnia na
sygnale - tracimy w ten sposob mase informacji.
ogolnie kazdy proces usredniania prowadzi do utraty informacji i ma sens
tylko w sytuacji gdy np chcemy poprawic kompresowalnosc zrodla (dlatego
zrodlo ktore nagrywamy np 10 bitowym przetwornikiem bedzie sie lepiej
kompresowac niz zrodlo nagrywane 8 bitowym - oczywiscie upraszaczam bo
nie ma co zaglebiac sie w teorie kodowania).

> A procesory dzisiaj są takie szybkie, że jeden kanał wideo
> wyfiltrują i skompresują przy obciążeniu jednego rdzenia
> rzędu 30%.

a wszystko zalezy od zlozonosci kodeka - pelne wykorzystanie tak
zlozonego kodeka jak np h.264 moze wymagac znacznej mocy obliczeniwoej
nawet dla formatu SD
Received on Fri Jul 20 18:15:11 2007

To archiwum zostało wygenerowane przez hypermail 2.1.8 : Fri 20 Jul 2007 - 18:51:12 MET DST