W dniu 2016-12-07 o 00:30, 1634Racine pisze:
Grzegorz Niemirowski w news:o2765s$g88$1@node1.news.atman.pl
1634Racine <mnjfmr@j.cbqebml> napisał(a):
tzn ,ze trzeba najpierw sciagnac cala witryne...?
Nie musisz ściągać wszystkiego, np. grafik czy ZIPów,
wiem, nawet nie chce tego, ale chce poznac ich usytuowanie na serwerze,
polozenie kazdego (powiedzmy...) katalogu, pliku, o ile jest to wszystko
pokonstruowane w klasyczny sposob, faktycznie "na serwerze".
ale jednak musisz przemielić pliki z zawartością HTML oraz skrypty JS. Jak
chcesz to
inaczej zrobić?
jak... jakos :) O to wlasnie pytam. Moze tak, jak wykonuja to programy
typu... jdownloader (?) --> jakos wyczaja na www pliki dla download,
adresow mu nie podano; teraz tylko trzeba sprawic, by nie pobieral pliku
(moze tylko kilka bajtow?, do wyrzucenia za chwile), ale za to by podal
sciezke.
Napisał Ci. Musisz parsować wszystkie pliki, które odwołują się do danej
lokalizacji na serwerze/zdalnie. Nie ma DIR na nie swoim serwerze, bez
uprawnień. Wspomniany HTTrack to zrobi, jednak wykluczenia dotyczące
rozszerzeń nic Ci nie dadzą, nie uzyskasz listy, możliwe, że jest możliwość
wykazania plików, bez ich ściągania - wtedy struktura będzie zawierała pliki
o 0 długości. Jest to obejście, ale musisz wiedzieć jedno, nawet w przypadku
b. danych - dane (tu od strony przeglądarki, ich zawartość) jest Twoja, a
kto to i w jaki sposób zrealizował jest jego i tylko jego sprawą.
Sądzisz, że znając strukturę wejdziesz gdzie chcesz? BO O TO CI CHYBA
CHODZI. Jeśli dobrze zrobiona strona/portal to dostaniesz 404 w surowej
postaci, lub coś w stylu ( odpierdol się, łapki won... :) ), tego pilnuje
serwer http.
--
Artur
|