Użytkownik "artiun" <artiun@spam.wp.pl> napisał w wiadomości
news:55b935fe$1$27516$65785112@news.neostrada.pl...
Mam prosty pomysł na wiele małych plików na HDD - kopiowanie CD/DVD na
HDD,
ale z TARowaniem archiwum,
tak jakbś robił .tgz
Nie, nie ma gzip, samo tarowanie, plik za plikiem, jak na taśmie. Nie traci
się zasobów ni czasu na gzip, a minimalizuje się hopanie głowic po dysku,
jak system zechce zapisywać okraqwki po całej powierzchni.
nastepnie to archiwu
nic to nie zmienia w chodzeniu głowic/ac po talerzach.
Powinno zmienić, jeśli będzie samo tarowanie, bez gzip.
minimum... Ale przyznam, nie wypróbowałem jeszcze.
Tu się zgadzam. Sprawdź, dla swej własnej satysfakcii.
Z pewnością, bo czasem sam korzystam.
Bardzo prosto - TARowanie jest wbudowane od dawien dawna w Total
Commander,
jeszcze za czasów Windows Commandera.
To jest to samo, poszło o nazwę. A tar jest we wszystkich dystrybucjach
ux.
Tak, jest nawet notka na stronie programu, że w 2002 roku M$ "w uprzejmych
słowach zasugerował" można domyslić się co, a Christian nie chciał kopać się
z koniem.
Należy tylko pamiętać o
nieprzekraczaniu 4G wielkości pojedynczego pliku.
tego nie było (no chyba że windowsy :) ).
Być może, że to szklarniowe. Zdarzyło mi się wtarować coś większego i
zaczęły się schody. Co ja się nacudowałem, żeby odzyskać plik, niczym go nie
brało. Jakimś cudem wyłuskałem go ręcznie. Ale najpierw rozkmina literatury
jakie wskaźniki, w jakim formacie (OCT, staaaaroć...), itd., szczęśliwie
sama wartość określająca długość była prawie OK, albo była zupełnie dobra,
albo po prostu modulo 4GB (w OCT, więc doszło przeliczenie, ale to
najmniejszy problem), wtedy wystarczy do wskaźnika dodać 4294967296 i z
wyniku, najpierw znaleźć początek pliku, odmierzyć bajtów ile wynik, obciąć
i już. Tym samym wyciąłem z samego archiwum błędne dane w których zawarł się
na szczęśnie nieuszkodzony zaginiony plik, skleiłem miejsca cięcia i reszta
plików wyszła normalnie roztarowaniem. Byłem zadowolony, "czto mnie
powiezło".
Samo archiwum może być
dowolnie długie, stugigowe bez problemu się tworzą i odczytują. Tylko te
4
giga per plik, wtedy trzeba kombinować, ale i tak mało się spodziewam,
żeby
na penisa taki plik wszedł, chyba, że exFAT będzie. Za to nie ma się
narzutu
na kodowanie.
Tar to zwykłe strumieniowanie, potem szedł gzip :)
NIE! Nie było GZIP! Mógł być, ale w tym momencie było samo TARowanie, gzipa
nawet nie musnąłem! Świadomie! Bo jak robię TGZ, to oczywiście, idzie to
symultanicznie. Ale tym razem świadomie, było tylko TARowanie. Zresztą, TC
ma to rozbite opcjonalnie na samo TARowanie, jak i Tarowanie z Gzipem, dwie
ostatnie opcje archiwizowania (ALT-F5).
Potrzebny był mi plik niespakowany, ale ciągły jak jeden po drugim, nie
sprawdziłem, czy archiwum da się "rozkodować", mając na myśli, że skoro z
ZIPem nie było problemów, 15 giga ZIPa było bezproblemowe dla TC, choć
stanowiło problem nie do przebycia dla XP i chyba nawet pliki powyżej 4GB
chodziły w TC, to TAR miał nie chodzić? A jednak... Więc wolę dla
ostrożności tych 4 giga nie przekraczać w TAR. Aha, inne programy
obsługujące TAR też nie dawały sobie rady z wyjęciem pliku, nie wykluczam
błędu w algorytmie archiwizera w TC. (jeśli format nie pozwala na większy
rozmiar, to IMO archiwer powinien stosownie zapyszczyć, a nic nie
sygnalizował, poprostu zrobił archiwum, które było do dupy).
--
Spamerzy z telefonu: 814605413 222768000 616285002 845383900 224093185
896510439 896126048 222478125 222478457 814605444 717857100 222478205
|