Você não quer apenas um artigo ou uma imagem individual, quer otodo local na rede Internet. Qual é a maneira mais fácil de sugar tudo isso?
A sessão de perguntas e respostas de hoje nos é oferecida por cortesia do SuperUser, uma subdivisão do Stack Exchange, um agrupamento de sites de perguntas e respostas conduzido pela comunidade.
Imagem disponível como papel de parede no GoodFon.
A questão
O leitor do SuperUser Joe tem um pedido simples:
How can I download all pages from a website?
Any platform is fine.
Cada página, sem exceção. Joe está em uma missão.
A resposta
O colaborador do SuperUser, Axxmasterr, oferece uma recomendação de aplicação:
https://www.httrack.com/
HTTRACK works like a champ for copying the contents of an entire site. This tool can even grab the pieces needed to make a website with active code content work offline. I am amazed at the stuff it can replicate offline.
This program will do all you require of it.
Happy hunting!
Podemos recomendar com entusiasmo o HTTRACK. É um aplicativo maduro que faz o trabalho. E os arquivistas em plataformas não-Windows? Outro colaborador, Jonik, sugere outra ferramenta madura e poderosa:
Wget is a classic command-line tool for this kind of task. It comes with most Unix/Linux systems, and you can get it for Windows too (newer 1.13.4 available here).
You’d do something like:
wget -r --no-parent https://site.com/songs/
Para mais detalhes, veja o Manual do Wget e seus exemplos, ou dê uma olhada nestes:
- https://linuxreviews.org/quicktips/wget/
- https://www.krazyworks.com/?p=591
Tem algo a acrescentar à explicação? Soe fora nos comentários. Quer ler mais respostas de outros usuários do Stack Exchange com experiência em tecnologia? Confira o tópico de discussão completo aqui.