Re: Jaka grafika <=50W

Autor: Michal Bien <mbien_at_uw.edu.pl.invalid>
Data: Tue 11 Nov 2008 - 23:59:43 MET
Message-ID: <Xns9B53F4182A821mbien@127.0.0.1>
Content-Type: text/plain; charset=iso-8859-2

Saiko Kila <fnvxbxvyn@phgzr.vqrn.arg.cy> wrote:

> Sorry Michał, ale coś mi się wydaje że jesteś uprzedzony do nVidii :P

            Nie - raz biore nVidie, raz ATI a calosc godzi Matrox - kilka
monitorow + TV czasami fajna sprawa ;)
Teraz akurat siedze na R4850 jako glownej, wczesnmiej przez dwa lata
7600GT, dwa lata R9550/9600, jeszcze wczesniej GF2Ti itd. W sumie przez
opozniajacy sie R4830 wzialem na poczatku wrzesnia GF9600GT i szybko
oddalem przez sterowniki wlasnie. Nie jestem uczulony na nVidie, ale przy
tym GF9600GT wscieklem sie na obsluge wideo w sterownikach. O traktowaniu
video out po macoszemu przez nVidie wszyscy wiemy, ale o ile jeszcze
skopane proporcje nakladki pelnoekranowej dalo sie poprawic przez fix w
ffdshow, to celowe usuniecie video mirror driver w sterownikach u nvidii
bylo dla mnie za wiele. Kuzwa - dla kogo oni robia te karty - dla userow
ktorzy za nie placa, czy dla Holywood jak MS Viste?

> Co to znaczy nVidia z tego zrezygnowała? nVidia nie produkuje kart w
> ogóle.

            A ATI produkuje? Przeciez tez nie, nawet najwiekszy dostawca
produkujacy kiedys pod firma ATI produkuje teraz wylacznie pod swoja wlasna
jako Sapphire. Ale obie firmy wypuszczaja konstrukcje referencyjne i przede
wszystkim sterowniki. W Forceware od dluzszego czasu usunieto profile dla
roznych czestotliwosci zegara albo cos rpzeoczylem w tych rozlezionyc
zakladkach. W ATI to dziala OK, w R4830 nawet bardzo dobrze, bo zbijanie
zegara do 160 MHz w 2D to jest bardzo duzy skok, nie taki kosmetyczny jak w
R4850.

> Ja na codzień używam dwóch kart nvidii ponad GF7 (tj. notebookowy
> Quadro 570M

            Wiesz - nie mieszajmy do tego kart notebookowych, bo te rozwiazania
rzadza sie swoimi prawami i sa od dawna projektowane przede wszystkim pod
katem oszczednosci energii (choc jak widze 17" "desktop replacement" to mam
pewne watpliwosci).

> oraz desktopowy GTX 260) i obie w 2D obniżają bardzo taktowanie,

            Z GTX260 nie mialem stycznosci, choc zastanawialem sie pod katem
liczena w Folding@Home - calkiem fajny podgrzewacz pokoju na zime przy
referencyjnym chlodzeniu wywiejacym cieple powietrze bezposrednio przez
sledz - w zimie mozna skrecic grzejnik w pokoju (na ATI jest to samo -
R4850 tez grzeje sie przy liczeniu do 70 stopni na Ausie z glaciatorem).
            W rezultacie dalem sobie jednak spokoj z GTXem - poza cena
przestraszylo mnie wlasnie TDP - musialbym penwie zmienic zasilacz.

> i zużywają mniej prądu (sprawdzam urządzeniem typu kill-a-watt).

            Ale zauwaz, ze praktycznie wszystkie wspolczesne karty zuzywaja w
IDLE duzo mniej pradu, nawet jesli nie zmniejszaja zegarow.

> I obie mają trzy profile - dwa do 2D i jeden do 3D...

            Wiesz - dwie GF9600GT ktore sprawdzalem (Gainward i Galaxy) mialy
tylko jeden profil max, z ciekawosci pobralem kilka biosow z techPowerUp
do tych kart i po wczytaniu do nirbitora to samo. Zreszta jak sam
sprawdzisz to w popularnych na dzis kartach 8600gT, 9600GT, 8800Gt, 9800GT
itp. masz zazwyczaj tylko jeden profil (u ATI we wszystkich bylo kilka).
Tak wiec profile u nvidii to raczej wyjatek niz regula, a przy smoku
skladajacym sie z 1,4 mld tranzystorow jakimi jest GTX260 i 280 w wysokim
wymiarze technologicznym nic dziwnego ze by nie zminc karty w ppierkarnic
zegary sa opuszczane do poziomu 300 GPU/100mem/600 shader.

> Współczesna wydajna nVidia (GeForce X) w 2D zużywa bardzo mało prądu, na
> pewno mniej niż odpowiadające Radeony

            Jw - powod masz podany na tacy - 300/100/600 a nie ze sa one jakos
sprcjalnie oszczedne - takiej ilosci tranzystorow i starego 65 nm nie da
sie przeskoczyc. W efekcie te karty wymagaja dla siebie ~190-240W (GTX260-
280) - to przeciez wiecej niz najwydajniejsze jednordzeniowki ATi w koncu w
55 nm. A kart z dwoma GPU nie ma co umieszczac w tym zestawieniu, ale
jakbys bardzo chcial to najwyzsze co nVidia moze zaproponowac to GF9800GX2
ktory jest przeciez znaczaco slabszy od R4870x2, a R4850x2 jest jeszcze na
tyle nowy, ze trudno o takiego "na wolnosci" i nie mam jeszcze danych.

> i to był jeden z powodów dla którego ją wybrałem.

            Tzn? Bo przeciez jest pod obciaeniem wyzszy od R4870, a w 2D nie
widze problemu ze zrobieniem sobie profili z nizszym taktowaniem do poziomu
jak u nVidii, w nowszysch (R4830 jest to zreszta juz w biosie). Jedyna
sprawa nad ktora zastanawialem sie nad GF9800GTX byla CUDA i F@H, ale ten
ostatni ciezko porownywac, bo ATI i nVidia dostaja w realnym liczeniu (bez
oszukiwania klienata) zupelnie inne bialka, o rozneym stopniu zlozonosci.
Zreszta teraz nVidia zwalnia wyraznie, po tym jak skonczyly sie malo
skomplikowane proteiny i nawet klient GPU od nVidie musi dostawac bardziej
zlozone, w wyniiku czego ludzie od razu raportuja spadek na poziomie 30%,
podczas gdy na ATI utrzymuje sie mniej wiecej na tym samym poziomie.

> Zużycie prądu bardzo ładnie koreluje z użyciem GPU.

            A tak z ciekawosci - jak to liczysz? Bo na nVidii wkurzal mnie brak
monitorowania zajetosci GPU (cos przeoczylem) podczas gdy na ATI jest to
ladnie podane. W sumie detal, ale wlasnie takie detale zniechecily mnie
ostatnio do karty nVidii - lubie wiedziec takie rzeczy. M.in. dzieki
wykresom zajetosci GPU oraz CPU na poszczegolnych rdzeniach widze czy
waskim gardlem jest np: CPU z obciazeniem rozlozonym rowno na oba rdzenie
(np: w Frotntlines Fuel of War), CPU tylko na jednym rdzeniu (TeamFortess2)
i GPU sie nudzi na ~60%, czy tez wykorzystje sie a danych ustawieniach cala
moc GPU jak np: w Crysis przy wyzszych ustawieniach. W zaleznosci od tego
moge sobie dobierac ustawiania grafiki w grze nie tylko na wyczucie.

> Np. włączenie animowanego tła w Viście zwiększa zużycie o 20 W, gierka o
> ponad 50 W, demo graficzne ponad 70 W itd.

            Ale to ma kazda wspolczesa karta. Do zestawienia polecam jeszcze
dodac podgrzewacz srodowiska pt. FurMark ;)
 
> Jeśli masz inaczej w karcie, to możesz spróbować edytorem biosu poprawić
> (NiBitor), może coś producent skopał.

            Nie - wychodze z zalozenia, ze skoro producent daje 3-letnia
gwarancje to przed jej koncem (czyli wczesniej zmieni sie grafike) nie
nalezy grzebac na wlasna reke przy karcie by byc uczciwym w razie
reklamacji. Jesli chodzi o underclocking przy rozwiazaniach w sofcie ciezko
cokolwiek popsuc, a przy OC nie wychodzic poza zakres, ktory narzucil sam
producent. W tym Asusie R4850 firmowe narzedzie dolaczone do karty ma
ograniczenia do 710 GPU i 2300 DDR. Z ciekawosci sprawdzilem i dziala bez
najmniejszych problemow - wiecej nie potrzebuje, a na dzis i tak wystarcza
mi spokojnie standardowe 625/2000 - jestem raczej okazjonalnym graczem,
teraz wlasnie zastanawiam sie czy nie kupic Fallouta3 i nie skorzystac
z wPLN na Stalkera Clear Sky - grzech nie wziac za 29,90 zl.

> Bo z tego co widzę wielu
> producentów mimo pozornie referencyjnej konstrukcji robi sobie w Biosie
> co chce - niektórzy zawyżają np. napięcie (pewnie żeby lepiej
> overclockować), inni zapewne mieszają w profilach.

            jw - juz pisalem o kolekcji biosow techPowerUp i wystepujacej tam
prawidlowosci.

> Karty nVidii z serii GT 9600 mimo TDP na poziomie 100 W biorą od ~25 W
> na profilu 2D do 60 W na 3D. Karta GT 9500 ma o połowę niższy TDP (i z
> grubsza wydajność) i zużywa 20/35 W. Karta Radeon 4670 bierze od ~10 W
> przy niskim obciążeniu (faktycznie mało) do 70 W przy wysokim.

            Mam wrazenie, ze lekko zanizasz pobor mocy przez nVidie (GF9600GT pod
obciazeniem pobieral raptem ~10W mniej niz teraz R4850) i zawyzasz max.
R4670 ktory trudno by bral 70W skoro ma w spoecyfikacji max. 59W. Przy
zapotrzebowaniu rzedu 70W bezpiecznie jest juz dodac do karty PEGa, a tych
jak doskonale wiesz R4670 nie maja.

> Zaznaczę że odpowiednikiem wydajnościowym HD 4670 jest GT 9500 (w
> niektórych grach wolniejszy, w innych szybszy, średnio Radeon trochę
> lepszy) a nie GT 9600.

            Nie zartuj - co prawda R4670 nazywany jest "GF9500 killerem" ale
roznca w wyajnosci jest zbyt duza - te karty walcza raczej z GF9600GSO,
choc nei najmadrzejszym pomyslem ATI bylo obciecie szyny pamieci do 128 bit
- przez to R4670 bywa wydajniejszy tam gdzie ejst duzo obliczen na
shaderach, a ustepuje GF9600GT w wyzszych rozdzielczosciach i przy AA gdzie
potrzebna jest duza przepustowosc pamieci.
 
> Te testy które kolega wcześniej podaje używały ATITool, ale ATITool nie
> jest najlepszym IMO wygrzewaczem do karty (podobnie jak CPUBurn do CPU,
> ale to inna broszka).

            Dlatego ja do wygrzewania CPU i GPU uzywam odpowiednio Prime95 Orthos
@small FFT i FurMarka, do CPU czasami dobrze tez sprawdza sie klient RC5-72
ze wzgledu na bardzo dobra optymalizacje pod konkretna architekture CPU
potrafiaca wyciagnac z niego max. mocy (np: w czasach AthlonaXP to byl
jeden z niewielu programow potrafiacych obciazyc ALU i wszystkie trzy a nie
tylko dwa potoki koprocesora).

-- 
Pozdrawiam, Michal Bien 
#GG: 351722 #ICQ: 101413938 
JID: mbien@jabberpl.org
Received on Wed Nov 12 00:15:02 2008

To archiwum zostało wygenerowane przez hypermail 2.1.8 : Wed 12 Nov 2008 - 00:51:03 MET