Użytkownik "Marcin N" napisał w wiadomości grup
dyskusyjnych:5b85c486$0$598$65785112@news.neostrada.pl...
Tak. Cyfrowy sygnał jest praktycznie idealny. Zakres błędów jest bardzo
wąski, co oznacza, że przejście od idealnego do beznadziejnego sygnału
odbywa się bardzo szybko.
A jeśli obraz sieje artefaktami i przycina na jednym kablu a na innym nie,
to co się dzieje z tym sygnałem?
Co do telefonów - gdy projektowałem sieć GSM (około 15 lat temu) to
telefony miały 7 poziomów jakości sygnału audio - w zależności od warunków
propagacji. Najlepsza jakość wymagała pasma 13 kbit/s oraz około 1 MIPS'a
mocy obliczeniowej telefonu do przeprowadzania kodowania sygnału. W
gorszych warunkach propagacji jakość się pogaraszała ze względu na
mniejszy strumień danych.
Czy poza projektowaniem testowałeś organoleptycznie? Czy zdarzały się
przerwy, ubytki w transmisji, zniekształcenia typu jakieś echo? "Powiedz raz
jeszcze, bo przerywa"?
Jednak cyfrowe sygnały są znacznie odporniejsze na zakłócenia od
analogowych a metody detekcji i korekcji błędów jeszcze dodatkowo działają
na korzyść cyfrówki.
Cóż... najtańszym kablem audio coś tam da się przesłać, chociaż szumi a
najtańszym przedłużaczem USB już niekoniecznie :)
Wracając do przesyłania kablami - jest jak napisałem na początku: jeśli na
oko obraz przesłany wydaje się dobry - to znaczy, że jest idealny.
Idealny - czyli każdy bit na jednym końcu kabla jest taki sam jak na
drugim.
- "Grażyna, wyź no pizgnij tyn odtwarzacz Blurej, bo się ino obraz jakby
przycina a dyć monitor sto dwadzieści Herce ma a nie je płynnie!"
- "Stefan, co ty piertolisz, płynnie je przecie! Aa... faktycznie przycięło
jak łociec Matełusz pedałamy zakręcił"
:)
|