Trybun <CheIli@jachu.ru> wrote:
>>>> Tak, właśnie jest. Fragmentacja to w większości sztuczny problem. Nie
>>>> opłaca się defragmentować plików gdy fragmenty są większe niż ztcp 64
>>>> MiB. Fetysz defragmentowania właśnie potęgują te mapki tzw.
>>>> fragmentacji.
>>>>
>>> A jednak po ręcznej defragmentacji nie sposób nie zauważyć sporego
>>> zwiększenia wydajności.. Pytanie tylko po co w systemach po XP ta
>>> funkcja stała się ekstremalnie nieczytelna dla użytkownika z poziomu
>>> samego systemu?
>> Ech. Nie będę się powtarzał co do tego sporego zwiększenia wydajności:
>> https://groups.google.com/d/msg/pl.comp.os.ms-windows.winnt/tLeXz9sEP20/LbdLTmVuDQAJ
>> i jedynego przypadku odczuwalnego:
>> https://groups.google.com/d/msg/pl.comp.os.ms-windows.winnt/tLeXz9sEP20/OHAVSje-DQAJ
>> czyli sekwencyjnego odczytu patologicznie pofragmentowanych dużych
>> plików, co jest niezwykle rzadką sytuacją. To są właśnie powody dlaczego
>> defragmentacja została ukryta przed użytkownikami.
>>
> Twoje twierdzenia maja się nijak do moich spostrzeżeń w kwestii
> defragmentacji.
Na twoje nieszczęście liczą się mierzalne fakty a nie twoje odczucia.
Więc z mojej strony EOT.
> Zresztą sam Microsoft potwierdza problem zamieszczając w
> swoich systemach narzędzie do defragmentacji..
Według twojej logiki: twórcy systemów plików Linuksa zamieszczają
defragmetatory ergo potwierdzają problem.
--
Piotr Borkowski
|