Re: GF6600 i Barton 2600+

Autor: Jolly Roger <dsbrak_at_maila.w.pl>
Data: Sat 27 Aug 2005 - 23:24:24 MET DST
Message-ID: <24k7ikrny73p$.r8j4oeioxfov$.dlg@40tude.net>
Content-Type: text/plain; charset="iso-8859-2"

Dnia Sat, 27 Aug 2005 21:15:53 +0100, taki napisał(a):

> Oczywiscie sie zgadzam - komputery przenosne to troszke jednak inny segment
> rynku i tam wydajnosc jest tematem zupelnie drugorzednym.

Co do wydajności w notebookach, to z pewnością ich wydajność nie jest
tematem drugorzędnym. Notebooki wyposażone w porządne karty graficzne mogą
robic za stacje graficzne. Obecnie sporo ludzi sprzedaje swoje stacjonarne
kompy a przestawiają się na notebooka i wymagają od niego aby nie tylko
można było posłuchać muzyki i obejrzeć film, ale żeby również dało się
podgrać w jakąś nową gierkę 3D czy szybko skompilować duży projekt w delphi
- do tego jest potrzebna duża moc.

> Sam uzywam
> starusienkiego Della Inspiron 3700 (P3 550Mhz, 256 ram) i kompletnie nie widze
> powodu zamieniac go na cos innego.... jego wydajnosc jest w zupelnosci
> wystarczajaca do wszystkich zadan.

Wszystko zależy od wymagań posiadacza notebooka - jedno na notebookach
przeglądają internet i słuchają muzyki a inni projektują w 3D studio.

> Swoja droga podobno Pentium M to nic
> innego jak wlasnie P3 tylko, ze nieco stuningowane.

to taki P3 na sterydach - czyli mocno stjuningowany.

> Co w sumie potwierdza
> moja nieco koslawa teze, ze Intel zrobil blad rezygnujac z rozwoju tego rdzenia.

P4 też ma swoje zalety, tak samo jak Pentium M. Trzeba pamiętac, że gdyby
Intel zajmował się dalej P3, i zrobił z niego Pentium M, to aby dzisiaj
dorównac AMD musiałby taktować tego proca z częstotliwością co najmniej 3
GHz - taki procek z pewnością grzałby się potężnie. Pytanie tylko, czy
nawet poprawiając konstrukcję Pentaka M częstotliwość 3 GHz byłaby
osiągalna dla tego proca. Trzeba też zauważyć, że obecnie Pentium M w
niektórych dziedzinach jest słaby mimo ogólnej wysokiej wydajności.

> Czytalem ze Pentium M 1.2 Ghz dorownuje Celeronowi 2,5 Ghz...

Celerony 128 KB L2 są bardzo słabe i w niektórych zastosowaniach Duron 1.4
GHz jest sporo lepszy od celka 2.5 GHz. Pentium M prawie dogania A64 przy
identycznej szybkości taktowania, co pokazuje jak udanymi konstrukcjami sa
Pentium M.

> zastanawiam
> sie gdzie bylby teraz Intel gdyby rozwijal dalej ten rdzen.

trgo się nigdy nie dowiemy. Gdybać to sobie można, ale fakt faktem na razie
w intelu króluje P4.

> Z tego co sie orientuje to najwiekszym czynnikiem determinujacym
> mozliwosci krecenia jest technologia wykonania grubosci sciezek.

powiedzmy, że jest to ważne, ale czy najważniejsze to trudno powiedzieć.
Wiadomo że mniejszy rozmiar technologiczny=mniej wytwarzanego ciepła, co
daje lepszy OC.

> Byc moze
> wiecej osiagneliby gdyby przeskoczyli z P3 na 90 Nm niz konstruujac
> kompletnie nowy procesor P4....

w tamtych czasach proces technologiczny 90nm był niedoścignionym marzeniem.
W sumie intel zakładał, że P4 da się rozpędzic do 10 GHz i wtedy z
pewnością rozbiłby konkurencję. Gdyby plany były bardziej realistyczne, to
byćmoże intel poszedłby bardziej w kierunku rozwoju P3 a nie w kierunku
rozwoju technologii Net Burst w P4 10Gb to bardzo smakowity kąsek i wygląda
zdecydowanie lepiej niż, nawet wdajniejsze, 5 Ghz. Z tego powodu AMD
zaczęło ukrywać swoje procesory pod współczynnikami wydajnośi w stylu
2500+. Większośćludzi nie zna się na sprzecie i gdyby mieli do wyboru
Celerona 2.5 GHz a AMD 1.83 GHz, to z pewnoscią wybraliby celerona bo ma aż
2.5 GHz a AMD tylko 1.83.
 
> tak czy inaczej i tak te mozliwosci 'ogromnych
> czestotliwosci' zaprowadzily na manosce, gdyz znavznie mniejsza firma AMD
> byla w stanie produkowac procki rownie wydajne ale z mniejszym taktowaniem...

tu zdecydowanie należy się pochwała dla AMD za świetne procesory Athlon
XP/64 - naprawdę znakomite produkty (nie wspominając Palomino który grzał
się okropnie)

> co znowu raczej potwierdza moja teze, ze to nie byl skok jakosciowy ale
> raczej skok w bok.

skok jakościowy był, chociażby w postaci Hyper Threading (świetna rzecz),
ale sporo rzeczy intelowi nie wyszło

> Ostatnie zmiany polityki marketingowej w celu ukrycia
> taktowania - oznaczenia kodowe procesorow (czyli w gruncie rzeczy sposob
> na unikniecie otwartej konfrontacji z coraz silniejszym konkurentem) to kolejny
> skok w bok.

nie zapominaj, że to AMD jako pierwsze zastosowało ten trik aby uniknąć
otwartej walki na MHz z intelem. A swoją droga wyszło to AMD na dobre,
tylko wprowadziło to ogromne zamieszanie, bo ratingi podawane przez AMD
miały często niewiele wspólnego z rzeczywistością (np AXP 3200+ z pewnością
nie był tak wydajny jak P4 3200 MHz) a często wprowadzały w błąd (w
przypadku sempronów).
 
> Przekaz jest jasny i klarowny: od teraz dla firmy Intel taktowanie
> nie jest juz tak istotne (co bylo priorytetem przy konstrukcji P4).

po prostu intel chce udowodnić, że jest w stanie podnosić wydajność
procesorów nie podnosząc ich częstotliwości, co im się udaje całkiem
całkiem. Redukcja wytwarzanego ciepła przez ostatnie P4 też zasługuje na
pochwałę.

> Jest to
> po prostu IMHO chwyt marketingowy majacy na celu zmacenie klarownego
> dotychczas rynku i zbicie porownan procesorow na inne poziomy. Jestem

rynek procesorów od dawna nie jest klarowny i przyłożyły się do tego
zarówno AMD jak i intel. Trzeba naprawdę mocno znać się na sprzęcie aby w
tym wszystkim się nie pogubić. W latach 2001-2003 miałem rozbrat ze
sprzętem komputerowym i nadrabianie zaległości zajęło mi prawie pół roku,
co pokazuje jak bardzo się wszystko skoomplikowało w tamtym czasie. Zresztą
na rynku kart graficznych widzimy takie samo zamieszanie - normalny
użytkownik nie ma prawa się w tym wszyskim połapać.

> pewien ze niedlugo sie doczekamy reklamy Intela, ktora bedzie twierdzila, ze
> procesory Intel przyspieszaja Internet (czy bedzie chodzilo o renderowanie
> html czy tez speedowanie pakietow tcp to sie jeszcze okaze ;) ).

a tak nie jest? ;) Kurcze, kupiłem A64 aby przyspieszyć internet a tu
kiszka ;)
 

> Z tym, ze procesory dwurdzeniowe nie sa wcale taka nowoscia....

dla rynku użytkowników indywidualnych jest to nowość

> przeciez
> od bardzo dawna sa systemy dwuprocesorowe i rynek moim zdaniem bardzo
> szybko zabsorbuje nowa technologie - poniewaz jest znana od dawna.

tylko trzeba zauważyć, że systemy dwu (i wiecej) procesorowe były
wykorzystywane przez podmioty korporacyjne, gdzie chociażby gry nie są
ważne. Obecnie programiści muszą się nauczyć jak wykorzystać procesory
dwurdzeniowe chociażby w grach, co pewnie trochę potrwa.

> Tylko ze
> byla niszowa a dopiero teraz trafia pod strzechy.

no właśnie - niewielu programistów miało okazję programować na systemy
wieloprocesorowe i teraz dopiero się musza podszkolic, kiedy
wielordzeniówki trafiy pod strzechy użytkowników domowych.

> Sa ludzie i firmy, ktore
> nie musza nic na ten temat odkrywac - maja opracowane gotowe technologie.

tylko że te technologie wykorzystywane są w oprogramowaniu
specjalistycznym. Ich implementacja w zastosowaniach domowych wcale nie
musi być prosta.

>> kompresja filmów do DivX to nie jest fatamorgana i tutaj P4 jest lepsze od
>> zwykłego A64. Kilka inych zastosowań też się znajdzie.
>
> Nie watpie. Chociaz z drugiej strony kompresja DivX nie jest czynnoscia
> wykonywana masowo. Jakby byla spodziewalbym sie raczej od rynku
> dedykowanych kart wspomagajacych kompresje, albo tez moze karty
> graficzne zajelyby sie tym zadaniem.

kompresja do DivX w moim przypadku jest wykonywana nieczesto, ale są
ludzi, którzy z pewnością się tym zajmują zdecydowanie cześciej ode mnie.

> Zdaje mi sie jednak nieco, ze
> w przypadkach tak specjalistycznych zastosowan wieksze znaczenie
> ma optymalizacja kodu programu kompresujacego i np mozliwosc powstania
> lepszego algorytmu. Nie zman sie na tym to sie nie mieszam ;)

Obecnie programiści produkujący na rynek masowy nie mają czasu na zbytnie
optymalizacje - czas i konkurencja gonią, więc nie można się skupiać na
jednym programie zbyt długo 9szkoda że nie ma wiecej takich ludzi jak
Carmack z ID software). Aplikacje specjalistyczne to już inna para kaloszy.

>> Ale jednostka obliczeniowa ma szybko obliczać, bo takie jest jej
>> zastosowanie. Każda czynność wykonana na kompie to jakieś obliczenia które
>> CPU/GPU musi przeprowadzić (nieważne czy to jest kompresja dźwięku,
>> stworzenie sceny 3D czy przesunięcie ikonki o 5 pikseli dalej).Wydajność to
>> jest priorytet, a pozostałe rzeczy schodzą na dalszy plan.
>
> W tym rzecz. Z drugiej strony, moze to moje myslenie jest nieco mylne...
> tak sie teraz zastanawiam, ze co nam z tej calej mocy procesora skoro
> i tak te super maszyny wiekszosc czasu stoja bezczynne. Czasami jak
> patrze jakie ludzie maja maszyny do 'przegladania www' to mnie krew zalewa
> (np A64 + 512 ram itd), a spokojnie wystarczyloby im P3 900 Mhz + 256 ram.

Wszystko zależy od zastosowań. Mi by P3 nie wystarczył. Potrzebuję duzej
mocy i jeżeli chcę skompilowac duży projekt w delphi, to zdecydowanie wolę
to robić na szybkim A64 niż P3 9chociaz ciągle mi się wydaję, że nawet A64
2.7 Ghz jest zbyt wolny dla delphi i przydałoby się co najmniej 4 GHz)

> Moze to jednak teraz Intel wykonuje znaczny krok do przodu rezygnujac z
> tego 'oficjalnego' wyscigu szybkosci, bo wie ze nie to bedzie najwazniejsze
> w najblizszej przyszlosci.
> Pozyjemy zobaczymy :)

ano się zobaczy co intel i AMD wymyślą. Miejmy nadzieję, że żadnych grzałek
200W nam w przyszłości nie zafundują. Chociaż może jestem zbyt dużym
optymistą :)

> Pozdrowienia,
> taki

pozdr.

-- 
Marynarskie pozdrowienia od boskiego Jolly Rogera :-)
GG: 9542153  mail:nospam_mach82_xl@wp.pl_nospam
[Venice 2.7GHz@1.4V] [2x256 MB Hynix] [K8NF-9] [QVC-100Cu][Nec3520]
[GF 6600 @570/680 + Zalman VF700] [Chieftec 360-202DF] [Samsung 80GB]
Received on Sat Aug 27 23:25:22 2005

To archiwum zostało wygenerowane przez hypermail 2.1.8 : Sat 27 Aug 2005 - 23:51:17 MET DST