Подскажите пожалуйста.. можно ли выгрузить целый сайт на HHD целиком так, чтобы те файлы, которые непосредственно были бы размещены на самом сайте (не на сторонних обменниках), были тоже сохраненны на HDD ?.. то есть имеем пример.. Содержание сайта распределено на подкаталоги в виде заглавных Букв алфавита (всё поделено на главы)..
» Main «
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« В каждой главе по N-ое количество страниц..
» Middle «
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« А на каждой страничке по 10 Линк-переходов, каждый из которых открывает всякий раз одного и того же типа странички, где можно было бы закачать на компик интересующий файлик..
» Target «
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« По скромным подсчётам таких страниц в общем числе более 2.000 штук, и если на каждой из них по 10 файлов, То скачивать бы эти 20.000 файлов в ручную было бы совсем без какого-либо удовольствия.. Конкретнее, за каждой ссылкой для загрузки прячется архивчек [*.zip] .... И после полного сохранения сайтика на HDD можно было бы просто проиндексировать проводник на это расширение, и грубо говоря выдернуть всё сразу кучей, чем по одному 20.000 раз подряд в ручную (( ....
Подскажите пожалуйста, как это всё можно было бы организовать ?..