Programa para guardar site

banid0

Power Member
Boas!

Não sei se já existe uma thread sobre este assunto , mas preciso duma resposta "humana" :D

O que eu pretendo é guardar um site e todos os sub-sites a partir dai , inclusive files doc's pdf's etc dos links que vão aparecendo nos html's.

Mas além disso queria que o programa actualize os links que estejam por ex www.sapo.pt/joakim/maria.doc para algo do género ..\joakim\maria.doc na directoria por mim escolhida...ou seja que dê para ter o site COMPLETO e offline...se fosse possível ficaria muito agradecido :D :lol:
 
o wget saca-te os sites todos...quanto a mudar as dirs e nomes, usa ferramentas como o sed e o awk ou um scriptzinho feito por ti...
 
pois realmente encontrei isso...sakei o leech... mas ainda n encontrei as opcoes pa mudar as dirs..

vou tentar esses que disseste mt obrigado :D
 
se pudesses arranjar sites com esses pekenos progs agradecia pk estive a googlar , mas komo sao palavras muito pekenas nao me encontra o que quero
 
Esses progs para sakar sites nem sempre funcam, porque se os admins/webmasters forem inteligentes vetam o acesso a isso com 2 ou 3 linhas de código e uns chmod... :rolleyes:
 
Eu ja usei o Webcopier, mas agora uso o Offline Explorer Pro que é mesmo bom.

Experimenta o segundo, pois faz tudo o que queres de um maneira simpes, mas o grau de dificuldade es tu que defines.

Um abraço.
 
usava o teleport pro, e mudei para o offline explorer pro

recomendo ambos.

o offline explorer tem muito mais opçoes e consegue sacar mesmo quando n tens ficheiros html a linkar.
 
Back
Topo