Re: System plików o silnej kompresji

Autor: Piotr Smerda <piotrs00_at_go2hell.pl>
Data: Tue 28 Dec 2010 - 20:41:42 MET
Message-ID: <167jrorbb5o98$.tvqtt6x0l6d6$.dlg@40tude.net>
Content-Type: text/plain; charset="iso-8859-2"

On Tue, 28 Dec 2010 18:44:05 +0000 (UTC), Jacek Kalinski wrote:

> W artykule <1j3dhv0ud31wh.iz6j44ykdlh1.dlg@40tude.net>, Piotr Smerda
> napisa³(a):
>
>>> A my¶la³e¶ o cygwinie?
>>> Gdyby to mia³y byæ pojedyncze pliki kompresowane, wówczas mo¿na by³oby
>>> u¿yæ zgrep.exe (bo tar.gz chyba nie da siê szybko przeszukaæ).
>>> Albo nawet squashfs i zamontowaæ go do katalogu.
>>
>> Dlaczego od razu koby³a w stylu Cygwin? UnxUtis wystarczaj± - jest zcat, s±
>> odmiany grepa ³±cznie z regexpami - a logi mo¿esz kmpresowaæ cyklicznie np
>> poprzez Scheduled tasks.
>> A je¶li ju¿ u¿ywaæ bêdziesz cygwina to mo¿e odpowiednik logrotate by³by
>> dobrym pomys³em?
>
> Pisz±c o cygwinie mia³em na my¶li g³ównie squashfsa.
> "zcat | grep" oczywi¶cie mo¿na stosowaæ (lub w podobnych konfiguracjach).
>
> Jacek

Nie wiem czy nie da³oby siê np u¿yæ lessfs - to testowa implementacja
systemu plików z deduplikacj±, ale chyba w przypadku logów marnie by siê
sprawdzi³ bo trzeba by braæ ma³y chunk i wydajno¶æ by poleg³a ...
Ja bym obstawia³ zestaw: logrotate + zcat/egrep albo logrotate + perl :)

-- 
Pozdrawiam
Piotrek
Received on Tue Dec 28 20:45:02 2010

To archiwum zosta³o wygenerowane przez hypermail 2.1.8 : Tue 28 Dec 2010 - 21:42:00 MET