Re: W2K. Rozmieszczenie plików systemowych ?

Autor: B.G <b0ggacUSUN_at_wp.pl>
Data: Fri 03 Apr 2009 - 22:11:13 MET DST
Message-ID: <op.urtuczt7enswjz@doktorek>
Content-Type: text/plain; format=flowed; delsp=yes; charset=utf-8

Dnia 03-04-2009 o 18:57:29 Radosław Sokół <rsokol@magsoft.com.pl>
napisał(a):

> Najlepiej defragmentację w ogóle uznać za mało ważny problem,
> nie marnować czasu na roztrząsanie tego zagadnienia i raz na
> pół roku tylko zrobić pełną defragmentację dysku.

Popieram, dodam jeszcze od siebie parÄ™ groszy.
Aby fragmentacja plików nie stała się problemem, należy utrzymywać wolną
przestrzeń na voluminach - nie "zapychać" ich na (prawie)full.
Z obserwacji wnioskuję, że NTFS jest na tyle mądry, że kiedy wie jaki
jest rozmiar zapisywanego pliku, to stara się zająć klastry które
utworzą ciągły obszar. Kiedy natomiast tego nie wie - to zapisywany plik
może być pofragmentowany, bo nie wiedząc
ile plik zajmie miejsca w finale - zaczyna zapisywać go "byle gdzie".
Na ten drugi przypadek defragmentacja zautomatyzowana albo
ręczna (raz na jakiś czas) jest przydatna. Ale podstawa to wolne miejsce.

Na Viście, od ponad roku nie robię jakiejkolwiek dodatkowej
defragmentacji nad tÄ… samoczynnÄ… z schedulera. Do tego utrzymujÄ™ sporo
(30-50%) wolnego miejsca na voluminie.
Skutek tego jest taki, że posiadam wszystkie pliki w ciągłości. Oczywiście
sÄ…
pliki które przy tworzeniu albo w trakcie modyfikacji ulegają
fragmentacji. Ale kiedy na jakiÅ› czas zostawi siÄ™ je "w spokoju" to defrag
z schedulera sprawę załatwia.

-- 
B.G
Received on Fri Apr 3 22:15:12 2009

To archiwum zosta³o wygenerowane przez hypermail 2.1.8 : Fri 03 Apr 2009 - 22:42:00 MET DST