Kompresja bez duplikatów

Autor: Osadnik <osadnik.www_at_wp.pl>
Data: Tue 15 Feb 2011 - 23:19:41 MET
Content-Type: text/plain; charset=UTF-8; format=flowed
Message-ID: <4d5afbfe$0$2445$65785112@news.neostrada.pl>

Może kogoś zainteresuje ten temat bo ja póki co nie mam pomysłu jak
podejść do tematu.

Otóż załóżmy sobie taka sytuacje:
- Serwer FTP na maszynie roboczej
- 20 userów z przypisanymi do nich folderami (nie widzą siebie nawzajem)
- w tych folderach każdy przechowuje 2GB danych źródłowych + 1GB danych
własnych
- Każdy dane źródłowe ma zorganizowane w inną strukturę katalogów.

No i teraz problem: 20 userów po 3GB danych to 60GB danych.
Przechowywanie takiej ilości danych jest kłopotliwe i niepotrzebne
ponieważ "kompresując" można by zmniejszyć objetosc do 2 GB zrodłowych i
20GB własnych, zysk? 38GB wolne.

Myślałem o jakimś oprogramowaniu które by tworzyło "kontener" a kontener
ten można by podmnotowac jako dysk bądź jako folder. Duplikaty były by
znajdowane i w pewien sposób "linkowane" tylko z jednego faktycznego źrodła.

Nie znalazłem takiego rozwiązania a parę osób które powinny coś na ten
temat wiedzieć mówią - marzenia!

To jak marzenia, czy już takie rozwiązania są?
Received on Tue Feb 15 23:20:03 2011

To archiwum zosta³o wygenerowane przez hypermail 2.1.8 : Tue 15 Feb 2011 - 23:42:00 MET