epsilon$ while read LINE; do echo \>"$LINE"; done < "Osadnik"
>Mo¿e kogo¶ zainteresuje ten temat bo ja póki co nie mam pomys³u jak
>podej¶æ do tematu.
>
>Otó¿ za³ó¿my sobie taka sytuacje:
>- Serwer FTP na maszynie roboczej
>- 20 userów z przypisanymi do nich folderami (nie widz± siebie nawzajem)
>- w tych folderach ka¿dy przechowuje 2GB danych ¼ród³owych + 1GB danych
>w³asnych
>- Ka¿dy dane ¼ród³owe ma zorganizowane w inn± strukturê katalogów.
>
>No i teraz problem: 20 userów po 3GB danych to 60GB danych.
>Przechowywanie takiej ilo¶ci danych jest k³opotliwe i niepotrzebne
>poniewa¿ "kompresuj±c" mo¿na by zmniejszyæ objetosc do 2 GB zrod³owych i
>20GB w³asnych, zysk? 38GB wolne.
>
>My¶la³em o jakim¶ oprogramowaniu które by tworzy³o "kontener" a kontener
>ten mo¿na by podmnotowac jako dysk b±d¼ jako folder. Duplikaty by³y by
>znajdowane i w pewien sposób "linkowane" tylko z jednego faktycznego ¼rod³a.
>
>Nie znalaz³em takiego rozwi±zania a parê osób które powinny co¶ na ten
>temat wiedzieæ mówi± - marzenia!
>
>To jak marzenia, czy ju¿ takie rozwi±zania s±?
Widzisz, to jest z pewnego punktu widzenia proste. Wyszukanie duplikatów
nie powinno byæ a¿ takie trudne, choæ mo¿e byæ czasoch³onne. S± do tego
programy. Ba, mo¿na samemu do¶æ prosto skrypt napisaæ. A potem ju¿ tylko
wyniesienie plików na zewn±trz i symlinkowanie w odpowiednie miejsca.
Ale z pewnego punktu widzenia robi siê zawi³e - a co w momencie edycji
takich plików?
-- d'`'`'`'`'`'`'`'`'`'`'`'`'Yb `b Kruk@epsilon.eu.org d' d' http://epsilon.eu.org/ Yb `b,-,.,-,.,-,.,-,.,-,.,-,.d'Received on Wed Feb 16 09:00:05 2011
To archiwum zosta³o wygenerowane przez hypermail 2.1.8 : Wed 16 Feb 2011 - 09:42:01 MET