Re: Jaka grafika <=50W

Autor: Saiko Kila <fnvxbxvyn_at_phgzr.vqrn.arg.cy>
Data: Sat 15 Nov 2008 - 04:12:06 MET
Message-ID: <kfvmtdn49qok$.dlg@saikokila.pl>
Content-Type: text/plain; charset="iso-8859-2"

Proces Michal Bien <mbien@uw.edu.pl.invalid> zwrócił błąd:

>> Sorry Michał, ale coś mi się wydaje że jesteś uprzedzony do nVidii :P
>
> Nie - raz biore nVidie, raz ATI a calosc godzi Matrox - kilka
> monitorow + TV czasami fajna sprawa ;)
> Teraz akurat siedze na R4850 jako glownej, wczesnmiej przez dwa lata
> 7600GT, dwa lata R9550/9600, jeszcze wczesniej GF2Ti itd. W sumie przez
> opozniajacy sie R4830 wzialem na poczatku wrzesnia GF9600GT i szybko
> oddalem przez sterowniki wlasnie. Nie jestem uczulony na nVidie, ale przy
> tym GF9600GT wscieklem sie na obsluge wideo w sterownikach. O traktowaniu
> video out po macoszemu przez nVidie wszyscy wiemy, ale o ile jeszcze
> skopane proporcje nakladki pelnoekranowej dalo sie poprawic przez fix w
> ffdshow, to celowe usuniecie video mirror driver w sterownikach u nvidii
> bylo dla mnie za wiele. Kuzwa - dla kogo oni robia te karty - dla userow
> ktorzy za nie placa, czy dla Holywood jak MS Viste?

No dobrze, dobrze, też nie jestem miłośnikiem takiej filozofii.
Przypomina mi to robotę Microsoftu z Vistą. Usunęli sporo ciekawych
rzeczy żeby niby poprawić bezpieczeństwo itp. Okazało się że powody były
cokolwiek inne - po prostu nie udało im się zabezpieczyć lub
ustabilizować systemu, więc usunęli niebezpieczne elementy (przykłady to
DirectSound3D i obsługa IP po firewire, ale znam więcej). nVidia IMHO
też ma problemy ze stabilnością i usuwa różne rzeczy z tego powodu. Poza
tym ma nvidia (albo nvidii inżynierowie) dziwne zamiłowanie do
eksperymentów.

>> Co to znaczy nVidia z tego zrezygnowała? nVidia nie produkuje kart w
>> ogóle.
>
> A ATI produkuje? Przeciez tez nie, nawet najwiekszy dostawca
> produkujacy kiedys pod firma ATI produkuje teraz wylacznie pod swoja wlasna
> jako Sapphire. Ale obie firmy wypuszczaja konstrukcje referencyjne i przede
> wszystkim sterowniki. W Forceware od dluzszego czasu usunieto profile dla
> roznych czestotliwosci zegara albo cos rpzeoczylem w tych rozlezionyc
> zakladkach. W ATI to dziala OK, w R4830 nawet bardzo dobrze, bo zbijanie
> zegara do 160 MHz w 2D to jest bardzo duzy skok, nie taki kosmetyczny jak w
> R4850.

OK, sprawdziłem sporo BIOSów nvidii z GF 8,9, 10 i częściowo muszę
przyznać Ci rację. Tzn. w seriach 8 i 9 rzadko są profile
częstotliwości. Częściej są profile napięć, które są jednak
wykorzystywane dopiero jeśli się w sterach wymusi albo samemu BIOS
zmodyfikuje. Wszystkie które miały dodatkowe profile okazały się
modyfikowane. Za to we wszystkich GTXach jakie sprawdziłem są obecne
wszystkie tryby częstotliwości i napięć już firmowo. Czyli nVidia
wróciła do dobrych wzorców w 10 generacji GeForców. Ciekawe, że starsze
Radeony z kolei też nie miały profili, przynajmniej nie wszystkie
(X800).

Przy okazji wyjaśniło się też dlaczego w moim GTXie są wysokie
temperatury - producent zawyżył napięcie. Mam nadzieję dobić kartę
szybko a jak się nie uda wymienię w grudniu na nowszy model, bo ten
konkretny egzemplarz przestał mi się podobać...

> Z GTX260 nie mialem stycznosci, choc zastanawialem sie pod katem
> liczena w Folding@Home - calkiem fajny podgrzewacz pokoju na zime przy
> referencyjnym chlodzeniu wywiejacym cieple powietrze bezposrednio przez
> sledz - w zimie mozna skrecic grzejnik w pokoju (na ATI jest to samo -
> R4850 tez grzeje sie przy liczeniu do 70 stopni na Ausie z glaciatorem).
> W rezultacie dalem sobie jednak spokoj z GTXem - poza cena
> przestraszylo mnie wlasnie TDP - musialbym penwie zmienic zasilacz.

Ja wybrałem bo mam często włączonego kompa, w zasadzie 24/7. Mieszkam w
miejscu gdzie jest najdroższa energia elektryczna w kraju (ponad 20
centów za kWh), i żaden Ati z serii 4800 by mi się nie kalkulował -
kilkanaście dolców miesięcznie różnicy nawet przy bardzo konserwatywnym
liczeniu. Za to w czasie pełnego wykorzystania i owszem, ciągnie aż
miło. Można sobie postawić kompa tyłem i będzie robił za biurkowy
ogrzewacz.
 
>> i zużywają mniej prądu (sprawdzam urządzeniem typu kill-a-watt).
> Ale zauwaz, ze praktycznie wszystkie wspolczesne karty zuzywaja w
> IDLE duzo mniej pradu, nawet jesli nie zmniejszaja zegarow.

Tak, ale nVidia twierdzi że jej karta to 25 W (35 przy DVD/BR). To jest
bardzo mało jak na nowoczesną kartę.

> Wiesz - dwie GF9600GT ktore sprawdzalem (Gainward i Galaxy) mialy
> tylko jeden profil max, z ciekawosci pobralem kilka biosow z techPowerUp
> do tych kart i po wczytaniu do nirbitora to samo. Zreszta jak sam
> sprawdzisz to w popularnych na dzis kartach 8600gT, 9600GT, 8800Gt, 9800GT
> itp. masz zazwyczaj tylko jeden profil (u ATI we wszystkich bylo kilka).
> Tak wiec profile u nvidii to raczej wyjatek niz regula, a przy smoku
> skladajacym sie z 1,4 mld tranzystorow jakimi jest GTX260 i 280 w wysokim
> wymiarze technologicznym nic dziwnego ze by nie zminc karty w ppierkarnic
> zegary sa opuszczane do poziomu 300 GPU/100mem/600 shader.

No tak. Te z wieloma profilami to po prostu nie są "referencyjne", w
seriach GF 8 i 9. Zresztą 9 od 8 różnią się w większości dość
kosmetycznymi poprawkami...

>> i to był jeden z powodów dla którego ją wybrałem.
>
> Tzn? Bo przeciez jest pod obciaeniem wyzszy od R4870, a w 2D nie
> widze problemu ze zrobieniem sobie profili z nizszym taktowaniem do poziomu
> jak u nVidii, w nowszysch (R4830 jest to zreszta juz w biosie). Jedyna
> sprawa nad ktora zastanawialem sie nad GF9800GTX byla CUDA i F@H, ale ten
> ostatni ciezko porownywac, bo ATI i nVidia dostaja w realnym liczeniu (bez
> oszukiwania klienata) zupelnie inne bialka, o rozneym stopniu zlozonosci.
> Zreszta teraz nVidia zwalnia wyraznie, po tym jak skonczyly sie malo
> skomplikowane proteiny i nawet klient GPU od nVidie musi dostawac bardziej
> zlozone, w wyniiku czego ludzie od razu raportuja spadek na poziomie 30%,
> podczas gdy na ATI utrzymuje sie mniej wiecej na tym samym poziomie.

Dokąd nie muszę modyfikować BIOSu to tego nie robię :) Tzn. staram się
dopiero po gwarancji - nigdy nie mam pewności że mi coś nie padnie w
trakcie flaszowania, a potem nie przywrócę oryginału. Dlatego wolę kartę
która ma standardowo oszczędny profil. Ale główny powód wyboru był inny
- wydajność gierek i interfejs CUDA, który jest wykorzystywany w
progsach do biologii oraz chemii (akurat pracuję przy projekcie który ma
m.in. ustalić strukturę pewnego białka). Gierki były jednak ważniejsze
;) - wyszło że np. w Obku czy F3 lepszego kopa mają nVidie, a w silniku
Source (HL2) co prawda Ati, ale on jest na tyle wydajny że żadna karta
nie spadnie poniżej 100 fps... Policzyłem w ile nvidiowych a ile
atiowych zamierzam grać i wyszło jak wyszło.

Dość paradoksalnie i ironicznie akurat największe (jedyne?) problemy mam
z Oblivionem i Falloutem 3 dla których poskładałem całego kompa, ale tu
składam winę na barki programistów - taki crap zrobili że szkoda gadać.

>> Zużycie prądu bardzo ładnie koreluje z użyciem GPU.
>
> A tak z ciekawosci - jak to liczysz?

Po prostu kiedy ustawiam parametry danego dema na wyższe to WIEM że
więcej zużywa i wtedy faktycznie rośnie :) Temperatura też, i to
najlepsza metoda ;) Ale sprawdzałem też fachową metodę, czyli narzędzie
nVidii o nazwie PerfMonKit, używając dema z kotkiem. Tam można ustawić
żeby pokazywało się użycie GPU a nawet bardziej szczegółowo,
poszczególne elementy, np. same shadery. I suwać sobie suwakiem w
trakcie pracy. Niestety, żeby obserwować na innych demach niż dołączone
przez nVidię trzeba mieć kod źródłowy i go lekko przygotować, no bo to
jest w gruncie rzeczy debugger do grafiki.

> Bo na nVidii wkurzal mnie brak
> monitorowania zajetosci GPU (cos przeoczylem) podczas gdy na ATI jest to
> ladnie podane. W sumie detal, ale wlasnie takie detale zniechecily mnie
> ostatnio do karty nVidii - lubie wiedziec takie rzeczy. M.in. dzieki
> wykresom zajetosci GPU oraz CPU na poszczegolnych rdzeniach widze czy
> waskim gardlem jest np: CPU z obciazeniem rozlozonym rowno na oba rdzenie
> (np: w Frotntlines Fuel of War), CPU tylko na jednym rdzeniu (TeamFortess2)
> i GPU sie nudzi na ~60%, czy tez wykorzystje sie a danych ustawieniach cala
> moc GPU jak np: w Crysis przy wyzszych ustawieniach. W zaleznosci od tego
> moge sobie dobierac ustawiania grafiki w grze nie tylko na wyczucie.

Rozumiem. Pokazywanie %GPU w Ati to fajna sprawa. Ale nie wiem jak by to
działało praktycznie w nvidii - ile np. stream processorów jest
obciążonych w danym momencie? Jak obciążone? Nie jestem pewien czy ten
procent byłby miarodajny szczerze mówiąc, po obejrzeniu wyników z
PerfMonKita. Tam można ustawić kilka różnych procentów wydajności,
niektóre to mi nawet niewiele mówią.
 
>> Np. włączenie animowanego tła w Viście zwiększa zużycie o 20 W, gierka o
>> ponad 50 W, demo graficzne ponad 70 W itd.
>
> Ale to ma kazda wspolczesa karta. Do zestawienia polecam jeszcze
> dodac podgrzewacz srodowiska pt. FurMark ;)

Jep, ale Ati (bez modów) daje mi 40-60 wacików więcej na dzień dobry :)
Dopiero przy dopaleniu różnica spada, a ja dopalam raczej dopiero w
grach. Wyjątki to użytki, o których wspomniałem, i o których nie
wspomniałem bo nie używałem _jeszcze_ a mianowicie kodery grafiki.

>> Jeśli masz inaczej w karcie, to możesz spróbować edytorem biosu poprawić
>> (NiBitor), może coś producent skopał.
>
> Nie - wychodze z zalozenia, ze skoro producent daje 3-letnia
> gwarancje to przed jej koncem (czyli wczesniej zmieni sie grafike) nie
> nalezy grzebac na wlasna reke przy karcie by byc uczciwym w razie
> reklamacji.

O no widzisz, podobnie myślę.

> Jesli chodzi o underclocking przy rozwiazaniach w sofcie ciezko
> cokolwiek popsuc, a przy OC nie wychodzic poza zakres, ktory narzucil sam
> producent. W tym Asusie R4850 firmowe narzedzie dolaczone do karty ma
> ograniczenia do 710 GPU i 2300 DDR. Z ciekawosci sprawdzilem i dziala bez
> najmniejszych problemow - wiecej nie potrzebuje, a na dzis i tak wystarcza
> mi spokojnie standardowe 625/2000 - jestem raczej okazjonalnym graczem,
> teraz wlasnie zastanawiam sie czy nie kupic Fallouta3 i nie skorzystac
> z wPLN na Stalkera Clear Sky - grzech nie wziac za 29,90 zl.

Co do Stalkera to nie wiem, mam tylko podstawkę, ale F3 jest całkiem
fajny... Tylko frustrujący bo napisali go ciemniacy. I wcale nie
wymagający - grafikę ma dość ubogą IMHO. Wątpię żeby różniła się na
konsolach.

>> Karty nVidii z serii GT 9600 mimo TDP na poziomie 100 W biorą od ~25 W
>> na profilu 2D do 60 W na 3D. Karta GT 9500 ma o połowę niższy TDP (i z
>> grubsza wydajność) i zużywa 20/35 W. Karta Radeon 4670 bierze od ~10 W
>> przy niskim obciążeniu (faktycznie mało) do 70 W przy wysokim.
>
> Mam wrazenie, ze lekko zanizasz pobor mocy przez nVidie (GF9600GT pod
> obciazeniem pobieral raptem ~10W mniej niz teraz R4850) i zawyzasz max.
> R4670 ktory trudno by bral 70W skoro ma w spoecyfikacji max. 59W. Przy
> zapotrzebowaniu rzedu 70W bezpiecznie jest juz dodac do karty PEGa, a tych
> jak doskonale wiesz R4670 nie maja.

Piszę co producenci deklarują, ale kart a nie chipsetów. Oraz wyniki z
sieci - z testów. True, 4670 ma mieć niby 59W, ale większość producentów
podaje 70W, a niektórzy nawet tak jak Ati na stronie - "mniej niż 75W".
Oczywiście że musi mieć "mniej niż 75W", bo więcej z PCIEx nie powinien
brać, ale z wyników które widziałem to osiąga więcej niż 59, choć
możliwe że to są OC, nie pamiętam. Jak by nie było nie może podskoczyć
za dużo z poborem, bo ma ograniczenie w postaci braku zasilania
(6-pinowy kabelek to drugie 75 wat), co znaczy że możliwości OC są też
ograniczone.

>> Zaznaczę że odpowiednikiem wydajnościowym HD 4670 jest GT 9500 (w
>> niektórych grach wolniejszy, w innych szybszy, średnio Radeon trochę
>> lepszy) a nie GT 9600.
>
> Nie zartuj - co prawda R4670 nazywany jest "GF9500 killerem" ale
> roznca w wyajnosci jest zbyt duza - te karty walcza raczej z GF9600GSO,
> choc nei najmadrzejszym pomyslem ATI bylo obciecie szyny pamieci do 128 bit
> - przez to R4670 bywa wydajniejszy tam gdzie ejst duzo obliczen na
> shaderach, a ustepuje GF9600GT w wyzszych rozdzielczosciach i przy AA gdzie
> potrzebna jest duza przepustowosc pamieci.

Nie żartuję, co tam za różnice. Napisałem że jest średnio lepszy, ale
już samo to że nie we wszystkich grach...

>> Te testy które kolega wcześniej podaje używały ATITool, ale ATITool nie
>> jest najlepszym IMO wygrzewaczem do karty (podobnie jak CPUBurn do CPU,
>> ale to inna broszka).
>
> Dlatego ja do wygrzewania CPU i GPU uzywam odpowiednio Prime95 Orthos
> @small FFT i FurMarka, do CPU czasami dobrze tez sprawdza sie klient RC5-72
> ze wzgledu na bardzo dobra optymalizacje pod konkretna architekture CPU
> potrafiaca wyciagnac z niego max. mocy (np: w czasach AthlonaXP to byl
> jeden z niewielu programow potrafiacych obciazyc ALU i wszystkie trzy a nie
> tylko dwa potoki koprocesora).

FurMarka nie mam, do wygrzewania używam ostatnio częściej OCCT, który
jest chyba trochę bardziej wymagający niż Orthos. Niestety OCCT źle
pokazuje temperaturę c2d, ale temu łatwo zaradzić. Zresztą, c2d mają
często skopane czujniki temperatury. Tego RC5-72 sobie potestuję w
wolnej chwili.

-- 
Saiko Kila
Unregistered Windows User #7.29581131e8
Received on Sat Nov 15 04:15:03 2008

To archiwum zostało wygenerowane przez hypermail 2.1.8 : Sat 15 Nov 2008 - 04:51:03 MET