Re: GF6600 i Barton 2600+

Autor: maX <aver_at_interia.pl>
Data: Sun 28 Aug 2005 - 12:50:46 MET DST
Message-ID: <des4f9$dh6$1@atena.e-wro.net>

Użytkownik "Piter" <spamtrap@honda.bt.pl> napisał w wiadomości
news:deqjlu$ec9$1@inews.gazeta.pl...
>
> Poczytaj testy jak wtedy wydajnosc GPU zalezala od CPU.

To były inne czasy. Poanalizuj i wyciągnij wnioski z :
http://graphics.tomshardware.com/graphic/20030120/vgacharts-04.html
http://graphics.tomshardware.com/graphic/20030120/vgacharts-06.html

>
> Wydaje mi sie ze chcesz mi wcisnac ze majac geforce 6800 i procka np. P4
> 2.8 GHz i P4 1.8 GHz wydajnosc w 3d bedzie taka sama :P
>

W wysokich rozdzielczościach i/lub wysokim AA będzie taka sama wydajność. Bo
co z tego że procesor nr1 policzy 100fps, nr2 - 80fps, skoro karta policzy
tylko 50fps, więc (sumarycznie) "obetnie" końcowe framerate do swojego
poziomu. Na www.benchmark.pl testowali skalowanie procesora z GF7:
http://www.benchmark.pl/artykuly/recenzje/GeFofrce7/strona-4b.html (na samym
dole)
Jak widać nie ma ŻADNEJ różnicy między P4 3.4 , a P4 2.8. Jakby wsadzili P4
10GHz to wyniki dalej wyglądałby tak samo. Nie przypadkiem w zachodnich
serisach coraz częściej używa się do benchmarków rozdzielczości 2048x1536 -
maksymalnej możliwej dla kart nVidii i Ati .
Received on Sun Aug 28 12:55:15 2005

To archiwum zostało wygenerowane przez hypermail 2.1.8 : Sun 28 Aug 2005 - 13:51:21 MET DST