Re: Potrzrebny edytor tekstu do masowego przetwarzania...

Autor: PureNick <ibozaur_at_CTRL+X@zax.pl>
Data: Fri 27 Mar 2009 - 14:58:59 MET
Message-ID: <mn.db827d931691e697.84011@zax.pl>
Content-Type: text/plain; charset="iso-8859-2"

kolejny zacny uzyszkodnik jenternetu o wdziecznym pseudonimie Dominik &
Co raczyl(a) zaszczycic towarzystwo temi oto slowy:
> PureNick napisał(a):

>> Dziękuję wszystkim za zaangażowanie, ale po raz kolejny przekonałem się
>> że takie kwiatki to nie dla mnie. Oczywiście dziura w niebie
>> się nie zrobi, jeśli na tym polegnę, ale chciałem sobie wyciąć śmieci
>> z plików HTML, które łączę w jeden dłuuuugi plik, żeby z niego masowo
>> pobierać obrazki (serwis Flickr), i w czasie tego łączenia programik
>> okropnie długo się męczy, żeby to wszystko przetworzyć, a potem taka
>> zbiorcza strona bardzo długo otwiera się w przeglądarce.

> Daj jakiś konkretny plik, co wyciąć, gdzie wstawić i co dalej z tym
> zrobić. Może wystarczy po prostu po kolei z plików HTML wycinać
> linki i pobierać zawartość np. wgetem?

A proszę bardzo, z przyjemnością:

1. Oto plik który ściągam przez Firefoksa wtyczką 'DownThemAll!':
http://zax.pl/~ibozaur/temp/flickr_do_bacza__za_duzy.htm

2. Oto plik po wycięciu śmieci:
http://zax.pl/~ibozaur/temp/flickr_do_bacza__dobry.htm
śmieci, czyli około 96% zawartości, które zaczynają się po ciągu:
<!-- ############## COMMENTS -->

Sprawadzałem, że po usunięciu wszystkiego od tej frazy, nawet razem
ze znacznikami </body></html>, strona się otwiera, i - co najważniejsze
- zawiera tylko to czego potrzebuję.

Pozdrawiam

-- 
~~/PP/~~/SF/~~
http://zax.pl/~ibozaur/
Received on Fri Mar 27 15:00:09 2009

To archiwum zostało wygenerowane przez hypermail 2.1.8 : Fri 27 Mar 2009 - 15:42:01 MET