Re: Telewizor HD jako monitor

Autor: Michal <usenet_at_invalid.pl>
Data: Mon, 02 Apr 2012 03:34:50 +0200
Message-ID: <jlavq3$osu$1@mx1.internetia.pl>
Content-Type: text/plain; charset=ISO-8859-2; format=flowed

W dniu 2012-04-01 12:19, K pisze:

> To nie jest zart przeciez napisalem ci wyraznie ze zamiast GTS8800
> uzywam 4350,

        Ty. Pytający ma 8800GT (to już nie 90nm i zauważalnie mniej się grzeje)
oraz oferuje wydajność 90 do 150% w zalezności od tytułu 8800GTS640 (320
nie nadaje się do grania ze względu na zbyt małą ilość pamięci w czasach
tytułów pisanych gdy nawet budżetówki mają 1 GB, że czasem 64bit to inna
sprawa).

> mialem jeden i drugi i solidnie przetestowalem i wybacz ale
> te testy sponsorowane przez firmy produkujace sprzet mozesz sobie w dupe
> wsadzic.

Tak. To pochwal się wynikami testów w starawych już tytułach jak Crysis1
czy Metro 2033 w 1920x1080 @high (przypominam - mowa o graniu na 40"
LCD), a nie na CRT w 800x600 / 1024x768.

> Zaczac trzeba od tego ze ten GF ktory mialem nie ma zadnego wspomagania
> mpeg4 mimo ze trabia na lewo i prawo ze ma.

Jaki OS i player. Bo nawet z MPC-HC DXVA dobrze działa w zasadzie tylko
z NT6.x. Pod XP z DXVA są cholerne problemy. Ale to i tak nie prawda, że
nie miał _żadnej_ bo akcelerację video mają już karty od czasów co
najmniej S3 Trio32/64, Virge itp, RAGEII, a u nVidii od babci Rivy128
- choćby sprzętowe transformacje YUV, skalowanie itp., potem dochodziło
kolejno MC, IDCT i przerzucanie coraz większej ilości zadań na GPU,
z bardzo ładnie działającymi sprzętowymi polepszaczami
(deblocking/wyostrzanie itp) na dowolnej karcie z programowanymi
shaderami zgodnymi z DX10.

No i stary G80 miał tylko częściowe dekodowanie bitstreamu H.264, ale
G92 do którego zmiany nakłaniasz jak najbardziej wspiera kompletną
akcelerację H.264 (to jest w praktyce potrzebne) oraz częściową MPEG1/2
oraz VC1.

> Zreszta GT8800 tym bardziej

Wiesz co - spójrz na np: na
https://en.wikipedia.org/wiki/Nvidia_PureVideo#The_First_Generation_PureVideo_HD
a dopiero potem pisz. Akurat tu się zmieniło całkiem sporo pomiędzy G80
a G92.

> full HD mozesz wlaczyc co prawda ale bedzieszliczyl klatki na palcach.

        jw. NT6.x + player z poprawną obsługą DXVA i działa.

> Za to 4350 swietnie sobie radzi na tym samym procku i ramie z dowolnym
> filmem HD, no czasem potrafi przyciac przy duzym bit rate. Dodam jeszcze
> ze procesory z ktorymi dzialy te karty to 2.8GHz i 3GHGz DualCore.

Ale on ma GF8800GT. Zresztą IMHO do wygodnego oglądania służy
stacjonarny player - choćby BluRay. Wygoda nieporównywalna. Jak mam
odpalić laptop do tych cholernych polskich VODów, których niemal każdy
wymaga Windows + Silverlight (już z Mono są problemy, a w odtwarzaczach
stacjonarnych w bólach wprowadzany jest IPLEX oraz najmniej ciekawa
część IPLA) to mnie trafia nieergonomiczność tego rozwiązania.

> Z grami troche gorzej tak jak napisalem w pelnych detalach niestety ale
> klatki lecialy do chwili jak wymienilem procesor na E7500 2.93GHz.

        TROCHĘ - to się nazywa eufemizm. Chylę czoła - masz dar z którym
zrobiłbyś karierę w polityce ;)

Na R4350 z jego wydajnością nie pomoże nawet Core i7-3820 do normalnych
gier w FullHD, a jak ktoś gra w te nowomodne gry "casualowe" (jak to
się w PL nazywa - "niedzielne"?) to może spokojnie skreślić kartę
dyskretną z listy zakupów - tu wystarcza nawet wydajność mostka typu
AMD780G -AMD890GX

P.S.
Nie kwestionuję, że nowe karty graficzne są bardziej energooszczędne od
posiadanego przez pytającego GF8800GT i to jest bardzo fajna cecha,
zwłaszcza przy postępie z każdą kolejną generacją - R68xx miały już 19W
w IDLE, z R7850 to się okaże, bo w te 3W jakoś nie do końca wierzę dla
AKTYWNEJ karty, a nie drugiej nieaktywnej w CrossFire czy z wyłączonym
wyjściem wizji (tryb energooszczędny przy uśpieniu). Nawet jak będzie
~10W w typowej pracy 2D to i tak będzie dobrze.
Dalej jednak twierdzę, że jeśli tylko pada słowo "gry" to propozycja
wymiany GF8800GT na R4350 jest nie na miejscu. Do zauważalnie lepszej
wydajności wartej przesiadki warto by przesiadać się co najmniej na coś
pokroju R6850. Energooszczędność jest fajna, ale pod warunkiem, że karta
ma wydajność potrzebną dla danego zastosowania (tu również gry).
Bez tego warunku tańszym i bardziej energooszczędnym rozwiązaniem jest
chociażby Matrox Millenium (2064) Permedia2 czy nawet prehistoryczny
Trident8900 jakie do tej pory siedzą mi w konfiguracjach zarządzanych
wyłącznie przez sieć bez podłączonego monitora, a karta graficzne jat
potrzebna by PC po prostu działał. Z tym Tridentem 8900D to całkiem
serio - do komputera energooszczednego komputera pasywnego z pfSense
musiałem coś wsadzić, a każda inna grafika na AGP grzała się
zdecydowanie bardziej. Zużycie energii minimalne, cisza błoga, bo
underclockowany AMD K6-2+ 500 nie potrzebuje aktywnego chłodzenia,
za dysk robi compact Flash w przejściówce CF-IDE, a jedynego wentylatora
w zasilaczu ustawionego na poniżej 5V z pół metra nie słychać. Całość
ciągnie ~15W-20W według pomiarów z miernika wpinanego
w gniazdko, czyli mniej więcej tyle co współczesny router SOHO.

-- 
/MB
Received on Mon 02 Apr 2012 - 03:35:03 MET DST

To archiwum zostało wygenerowane przez hypermail 2.2.0 : Mon 02 Apr 2012 - 03:51:00 MET DST