Zainteresowalo mnie takze zuzycie pradu poszczegolnych CPU, wartosci sa
podawane dla platformy (calej) testowej:
Haswell (i4770k)
Spoczynek - 56W
Youtube/flash: 96W
Civilization V: 239W
i3770k
Spoczynek - 60W
Youtube/flash: 101W
Civilization V: 250W
FX8320:
Spoczynek: 70W
Youtube/Flash 149W
Civilization V: 290W
Przyjmujac teraz ze komputer bedzie komputerem domowym i srednie zuzycie
wezmy z flash'a w miesiac 24/7:
Moj wzor:
24godziny*31dni = 744 h * 149 = 110856W / 1000 (1kW) = 110,856 * 0,61gr =
67,62 zl za miesiac
i4770k
flash 43,57zl
VM, serwer Minecrafta ;-), obrobka, gry: 108,47zl
i3770k
flash 45,84zl
VM, serwer Minecrafta ;-), obrobka, gry: 113,46
fx8320
flash 67,62
VM, serwer Minecrafta ;-), obrobka, gry: 131,61
Jak latwo zauwazyc: usredniajac wynik to tylko 24zl roznicy! Czyli potrzeba
27 miesiecy by Intel "dogonil" fx8320 i zacza w koncu na siebie zarabiac
oszczedzajac. (Przyjmuje cene fx8320 600zl, i4770k 1250zl)
Analogicznie ma sie sprawa dla CPU w mini serwerze:
i4770: 108,47zl/m-c
fx8320: 131,61/m-c
Roznica 24,14zl Czyli jesli komputer pracuje jako serwer 24/7 pod
maksymalnym obciazeniem to intel "zacznie sie oplacac" dopiero po
27miesiacach od dnia jego zakupu (2 latach i 3miesiacach)
Czy ktos moze potwierdzic moje obliczenia? Posiada ktos mozliwosc
zmierzenia zuzywanego pradu na poszczegolnych platformach?
Jedyne co jest mega istotne to k.graficzna, ilosc ram i CPU
--
Pozdrawiam
T.V.
|