ACMM-033 <valhalla@interia.pl> wrote:
> Użytkownik "Piotr B. [pb2004]" <p_borkowski@nospamgazeta.pl> napisał w
> wiadomości lei181.k1o.1@pb2004.pl">news:lei181.k1o.1@pb2004.pl...
>> Współczesne Windowsy same ją robią w czasie bezczynności. Poza tym wbrew
>> mitom fragmentacja nie ma zauważalnego wpływu na wydajność. Przytłaczająca
> Przy dyskach SSD to i owszem - odczyt sąsiada, jak i motylka, jest jednako
> szybki. Przy mechanicznych, "podziękują" ci za to np. edytorzy multimediów,
> gdzie mając do wyboru 5 MB/s, a 90MB/s, jasne, co wybiorą.
Nie wiem o jakich plikach multimedialnych piszesz ale zakładając że masz
na myśli h264 mp4 1080p aby fragmentacja była odczuwalna musiałaby być
patologiczna. Współczesne dyski mają średni czas dostępu na poziomie
10ms. Sekundowe spowolnienie sekwencyjnego odczytu wymagałoby średnio
100 dodatkowych fragmentów. Takie spowolnienie o jakim piszesz
wymagałoby sztucznie zrobionej fragmentacji na iście patologiczną skalę.
>> większość operacji wejścia/wyjścia i tak nie jest sekwencyjna oraz
>> odbywa się na plikach, które NTFS wiedział jak ma zapisać minimalizując
>> ich fragmentację.
> Dla luźnego użytku przy sjeście, nie widzę problemu - czy nasz plik będzie
> sczytany w 100, czy 500 ms, to nawet nie zauważymy. Ale jeśli takich
> odczytów zrobi się tysiąc, bo przegrzebujemy jakieś dane, to sory, ale
> czterystosekundowa różnica ma znaczenie i to ogromne.
Kreślisz jakieś teoretyczne sytuacje. Grep 1000 plików o rozmiarze 8-10
MiB nie jest popularną operacją. Do tego 400ms opóźnienia na plik
wymagałoby średnio aby każdy plik miał dodatkowe 40 fragmentów. Sytuacja
w realnym świecie niespotykana. Z ciekawości sprawdziłem jak sytuacja
wygląda na komputerze z miesięcznym cyklem defragmentacji. Na ponad 3k
pofragmentowanych plików ponad 8MiB tylko 71 ma ponad 39 fragmentów.
--
Piotr Borkowski
|