Re: karta nvidia vs ati

Autor: Jan Bartnik <bartnikj_at_gmail.com>
Data: Mon 03 Nov 2008 - 10:44:26 MET
Message-ID: <9gyl8mxeq6yv.72wpdhevd6rz.dlg@40tude.net>
Content-Type: text/plain; charset="iso-8859-2"

Dnia Mon, 3 Nov 2008 07:54:53 +0100, Marcin Narzynski napisał(a):

> No więc radzę poznać ten protokół, zanim zacznie się na nim psy wieszać.
> HDMI pozwala nie tylko na kontrolę błędów, ale także ich korektę w locie lub
> nawet ponowne wysłanie pakietu. Poza tym struktura błędów cyfrowych jest
> taka, że albo sygnał jest IDELANY, albo KOSZMARNY. Nie ma czegoś takiego, że
> bity "trochę się pozmieniają" i RGB zamiast 50,60,70 wyśle 51,59,72.
> Reasumując: jeśli obraz "na oko" wydaje się poprawny, to znaczy, że został
> przesłany idealnie bez jednego błędu.

Widzę, że kolega nigdy nie miał do czynienia z cyfrowymi danymi... To Twoje
"trochę się pozamieniają" jest jak najbardziej możliwe. Sygnał cyfrowy nie
jest wyłącznie idealny albo koszmarny - może przyjmować wszelkie stany
pośrednie. W gruncie rzeczy - sygnał cyfrowy jest w HDMI sygnałem
analogowym. Przy odpowiednim jego zakłóceniu (lub "kiepskim" wysłaniu przez
kartę graficzną) możemy otrzymać właśnie zamiast (50,60,70) -> (51,59,72).
Chociaż lepiej jest wtedy rozpatrywać taką informację binarnie, bo
przekłamany nie musi być najmniej znaczący bit.

Ze względu na wspomnianą kontrolę parzystości (zwaną dumnie ECC) najłatwiej
byłoby przekłamać synchronizację pionową lub poziomą.

Ale wracając do meritum - z mojego punktu widzenia, nawet przy transmisji
HDMI (czy tam kompatybilnej DVI-D) mogą istnieć róznice w jakości
wyświetlanego (poprawniej byłoby powiedzieć wsyłanego) obrazu:

- pierwsza, przez nadawanie słabego sygnału, przez co dużo błędów do
poprawienia i możliwość "niewyrobienia się"
- druga, wysyłanie tylko jednego kanału, przez co podatność na błędy
znacznie wzrasta
- trzecia, wewnętrzna konstrukcja karty, która przecież może zrobić z
sygnałem co jej się tylko podoba (skupiałbym się na tej opcji, bo
poprzednie są wyjątkowo mało prawdopodobne); wystarczy, że np. ati wpadnie
na pomysł zapakowania do swojego GPU modułu "koloropoprawiacza" i już
odbiorca powie "o, na tej karcie kolory są żywsze" :)

-- 
Pozdrawiam,
Jasko Bartnik
Received on Mon Nov 3 10:45:02 2008

To archiwum zostało wygenerowane przez hypermail 2.1.8 : Mon 03 Nov 2008 - 10:51:00 MET