WGET nie działa - jaki najlepszy FTP do dużych plików ?

Autor: <waldit_at_gmail.com>
Data: Wed 24 Oct 2007 - 10:01:35 MET DST
Message-ID: <1193212895.568424.219080@e9g2000prf.googlegroups.com>
Content-Type: text/plain; charset="iso-8859-2"

Witam

Muszę codziennie (właściwie co noc) kopiować kilkanaście dużych
(ponad 2 GB) plików z AIXa na serwer Windows 2003.
Badałem ostatnio wiele darmowych klientów FTP i jedynie WGET
sprawiał wrażenie, że może się nadawać.
Niestety o ile podczas testów na małych plikach działał dobrze
to uruchomienie go w warunkach "bojowych" całkowicie zawiodło.
Uruchamiałem taką komendę:
wget -a log -nc "ftp://login:has%b3o@10.xx.xx.xx//backup/*"
W folderze /backup na AIX jest 10 plików po 2 GB każdy.
Efekt działania WGETa jest taki, że kopiuje pierwszy plik
(nawet dosyć szybko) jednak przy 99% zatrzymuje się i robi
przerwę ok. 5 minut po czym zapisuje do loga informacje:
"Zamknięto połączenie sterujące."
Następnie informuje o zapisie pliku i przystępuje do następnego.
I tutaj ciekawostka: zamiast rozpocząć kopiowanie umieszcza
w logu absurdalną informację:
"Nie ma pliku `nazwa_pliku'."
Jest to zupełnie bez sensu ponieważ prawidłowo podaje nazwę
pliku - czyli odczytuje ją z AIXa - po czym stwierdza, że takiego
pliku nie ma !!!
Co ciekawe następny plik jest kopiowany a przy czwartym z kolei
znowu występuje komunikat "Nie ma pliku".
Krótko mówiąc kopiowany jest tylko co drugi plik.

Oczywiste jest, że wobec takich efektów nie można mieć zaufania
do WGETa i firma zdecydowała się zakupić profesjonalnego
klienta FTP.

Czy ktoś mógłby w oparciu o własne doświadczenie polecić jakiś
dobry program tego typu spełniający następujące wymagania:
- szybkie, niezawodne kopiowanie DUŻYCH plików z AIX do WIN
- posiadanie schedulera
- możliwość wznawiania kopiowania w razie problemów
- pomijanie plików wcześniej skopiowanych

Waldi
Received on Wed Oct 24 10:05:09 2007

To archiwum zostało wygenerowane przez hypermail 2.1.8 : Wed 24 Oct 2007 - 10:42:05 MET DST