1634Racine <mnjfmr@j.cbqebml> napisał(a):
jak... jakos :) O to wlasnie pytam. Moze tak, jak wykonuja to programy
typu... jdownloader (?) --> jakos wyczaja na www pliki dla download,
adresow mu nie podano; teraz tylko trzeba sprawic, by nie pobieral pliku
(moze tylko kilka bajtow?, do wyrzucenia za chwile), ale za to by podal
sciezke.
JDownloader jest pod konkretne serwisy, więc może mieć zaszyte ścieżki.
Generalnie nie ma czegoś takiego jak standardowy i niezawodny sposób
wyszukiwania plików i folderów na serwerze. Możesz zrobić cztery rzeczy:
1. Analizować pliki HTMLowe (nie muszą mieć rozszerzenia .html, ważne że
generują HTML, czyli np. .php) oraz inne, np. skrypty, które mogą zawierać
ścieżki.
2. Analizować plik robots.txt (https://www.google.pl/robots.txt), który nie
musi istnieć, a jak istnieje to nie musi zawierać wszystkich ścieżek.
3. Liczyć na szczęście i włączone gdzieniegdzie indeksowanie katalogów, np.
http://wodny.org/special/upc/
4. Zgadywać, korzystając z popularnych nazw takich jak img, backup, temp,
inc
--
Grzegorz Niemirowski
http://www.grzegorz.net/
|