Re: GF6600 i Barton 2600+

Autor: Jolly Roger <dsbrak_at_maila.w.pl>
Data: Sun 28 Aug 2005 - 00:11:11 MET DST
Message-ID: <2d1tfqcgbd1$.i4riorr2h5mj.dlg@40tude.net>
Content-Type: text/plain; charset="iso-8859-2"

Dnia Sat, 27 Aug 2005 22:51:29 +0200, Piter napisał(a):

>> w porównaniu do RIVY TNT2 różnica w wydajności był rzędu 25%, więc wzrost
>> wydajnosci był duży. Inna sprawa to taka, że producenci zapowiadali wzrost
>> wydajności rzędu 100%.
>
> Roznica byla bo sam procek graficzny byl szybszy!!

A dlaczego GPU był szybszy? Może dlatego że własnie zaszyto w nim nowe
technologie w stylu T&L? GPU w TNT2 ultra działał z większą częstotliwością
niż w GF, ale to właśnie GF był wydajniejszy bo dawał odetchnąć procesorom,
gdyz sam liczył sporo rzeczy związanych z oświetleniem sceny.

>> obliczenia związane z oświetleniem brał na siebie GPU, który AFAIR mógł
>> dokonywać obliczeń ośmiu niezależnych źródeł światła. Brak obsługi T&L
>> przez karty Voodoo 4/5 był powodem upadku 3dfx'a, bo właśne dzęki
>> sprzętowemu T&L GeForce zyskiwał (a pamięci DDR też robiły swoje).
>
> ROTFL. Firma upadla bo prowadzila zla polityke,

firam upadła, bo nie sprzedawała tyle kart ile trzeba. A dlaczego - bo ich
wydajność była gorsza od kart nVidii. No i technologicznie karty od 3dfx w
czasach Voodoo3 były mniej zaawansowane od konkurencji, m.in. nie
umożliwiały wyświetlania 3D w 32-bit kolorze i nie miały T&L.

> 3dfx byl wtedy na tyle duzy
> ze mogl sie podniesc, zabraklo pomyslow albo checi.

No niezupełnie. Gdyby 3dfx był tak potężny, to by nie został wykupiony
przez malutka nVidię. Lata świetności 3dfx to okres między wydaniem voodoo1
i viidoo2. Voodoo3 był już średni pod wzgledem sprzedaży, a v4 i v5 to już
prawdziwa klapa, więc wcale 3dfx taki duzy nie był.
 
>> ten ktoś wcale taki mądry nie był. Stwierdziłbym nawet że plótł 3 po 3 :)
>
> Poczytaj testy jak wtedy wydajnosc GPU zalezala od CPU.

o którym roku mówimy? 2000? Wtedy bez mocnego CPu nie dało się obejść, bo w
grach sporo roboty miały CPU (i często nie radziły sobie), ale właśnie
dzięki T&L procki mogły nieco odetchnąc. Wtedy nie istniały jednostki
vertex i pixel shader które by zajmowały się cieniowaniem czy deforamcjami
- tym wszystkim zajmował się CPU. To właśnie T&L powodowało, że nie trzeba
było mieć aż tak potężnego proca żeby zagrać, bo karta zajmowała się
większą częścią roboty.

> Wydaje mi sie ze chcesz mi wcisnac ze majac geforce 6800 i procka np. P4 2.8
> GHz i P4 1.8 GHz wydajnosc w 3d bedzie taka sama :P

zdaje sie że nie umiesz wyciągać wniosków z tego co piszę. Proc musi być na
tyle silny aby udźwignąć AI i fizykę gry i żeby zdołał wysłać dane do GPU.
Dalszy wzrost taktowania proca już nie bedzie miał znaczenia. Dajmy na to
odpalamy FarCry na P4 2.6 GHz silną kartą typu GF 6800GT. Taki procek
spokojnie poradzi sobie z AI, fizyką gry i wysyłaniem danych do karty.
Jeżeli wymienimy proca na P4 3.2 GHz, to wzrost wydajności bedzie minimalny
(1FPS), bo to i tak karta zajmuje sie generowaniem obrazu, a CPU zarówno
ten słabszy jak i szybszy poradzą sobie ze swoją robota bez problemu. W
grach o bardzo skomplikowanej (zaawansowanej) fizyce i bardzo wysokiej AI
taka zamiana 2.6 na 3.2 Ghz dałaby większy wzrost wydajności, ale takich
gier jest jak na lekarstwo (half-life2 jest takim chlubnym wyjątkiem). W
wększości przypadków zastąpienie silnego proca bardzo silnym nie przyniesie
żadnych korzyści w grach.

-- 
Marynarskie pozdrowienia od boskiego Jolly Rogera :-)
GG: 9542153  mail:nospam_mach82_xl@wp.pl_nospam
[Venice 2.7GHz@1.4V] [2x256 MB Hynix] [K8NF-9] [QVC-100Cu][Nec3520]
[GF 6600 @570/680 + Zalman VF700] [Chieftec 360-202DF] [Samsung 80GB]
Received on Sun Aug 28 00:15:12 2005

To archiwum zostało wygenerowane przez hypermail 2.1.8 : Sun 28 Aug 2005 - 00:51:19 MET DST