Autor: Arkadiusz Dabrowski (dobrov_at_friko.onet.pl)
Data: Sun 03 May 1998 - 23:11:18 MET DST
On 3 May 1998 12:30:21 GMT, "Michał Wisz" <mwisz_at_elka.pw.edu.pl> wrote:
>Na przykład monitor 15 calowy o plamce 0.27 ma maksymalną
>rozdzielczość 1280x1024. Według prostego rachunku
>wychodzi, że jest to niemożliwe. Zakładając, że efektywna
>przekątna ma 350mm, to mnożąc to przez 0.8 otrzymuję
>dłuższy bok, czyli 280mm. Jeśli ten bok podzielę przez
>wielkość plamki, to otrzymam rozdzielczość 1037 a nie 1280.
>Chcąc otrzymać maksymalną rozdzielczość (1280), to
>wielkość plamki musiałaby być 0.21mm.
>Czy ktoś może mi wyjaśnić jak to jest naprawdę.
W kineskopach z maską delta. Średnicę plamki mierzy się po skosie. Układ
składowych jest następujący:
r g
g b r
0.27 cali jest między sąsiednimi "r", sąsiednimi "g" i sąsiednimi "b"
Odległość pozioma między dwoma składowymi jest równa wtedy
0.27*cos(pi/6)=0.234
Czyli 1280 nie wlezie, ale różnica jest niewielka, więc źle nie będzie.
+--\ /--\ +--\ +--\ /--\ | | Arkadiusz Dabrowski
| | | | |--< |--/ | | | | dobrov_at_priv.onet.pl
+--/ \--/ +--/ | \ \--/ \/
To archiwum zostało wygenerowane przez hypermail 2.1.7 : Tue 18 May 2004 - 17:14:47 MET DST