day & night

Затруднения с Teleport ultra, не хочит докачивать
Дата обновления: , перейти к новому сообщению
#1
neznayushiy



Опытный юзверь
**

Группа: Пользователи
Сообщений: 85
Регистрация: 25.04.2007
Пользователь №: 382.713


Респектов: 0
----------


Предупреждений:


Всем салам! Вчера прервал качку одного сайта(просто закрыл прогу), А терь не могу докачивать этот проект ...оказывается у моей проги какое то ограничение на сохранение файлов .
Вот что говорится в диалоговом окне когда нажимаю старт :
Sorry! This trial version of Teleport Ultra cannot retrieve more than 500 files in a single project. You must purchase the full version of the program o remove this limitation. No files were read or saved to disk

И ещё как в этой проге можно обновить проект ?

Откликнитесь ...помогите незнающим!) rolleyes.gif
User is offline
Go topGo end

Ответов(10 - 12)
15.07.2007 - 22:18
#11
neznayushiy



Опытный юзверь
**

Группа: Пользователи
Сообщений: 85
Регистрация: 25.04.2007
Пользователь №: 382.713


Респектов: 0
----------


Предупреждений:


А в поле Имя что вписать? А то выдаёт что не верно
User is offline
Go topGo end
14.09.2012 - 19:41
#12
nokeMoH



профи!
*****

Группа: Пользователи
Сообщений: 1.076
Регистрация: 23.08.2008
Пользователь №: 1.040.887


Респектов: 124
-----X----


Предупреждений:


Подскажите пожалуйста.. можно ли выгрузить целый сайт на HHD целиком так, чтобы те файлы, которые непосредственно были бы размещены на самом сайте (не на сторонних обменниках), были тоже сохраненны на HDD ?.. то есть имеем пример.. Содержание сайта распределено на подкаталоги в виде заглавных Букв алфавита (всё поделено на главы)..

» Main «


В каждой главе по N-ое количество страниц..

» Middle «


А на каждой страничке по 10 Линк-переходов, каждый из которых открывает всякий раз одного и того же типа странички, где можно было бы закачать на компик интересующий файлик..

» Target «


По скромным подсчётам таких страниц в общем числе более 2.000 штук, и если на каждой из них по 10 файлов, То скачивать бы эти 20.000 файлов в ручную было бы совсем без какого-либо удовольствия.. Конкретнее, за каждой ссылкой для загрузки прячется архивчек [*.zip] .... И после полного сохранения сайтика на HDD можно было бы просто проиндексировать проводник на это расширение, и грубо говоря выдернуть всё сразу кучей, чем по одному 20.000 раз подряд в ручную (( ....

Подскажите пожалуйста, как это всё можно было бы организовать ?.. unsure.gif
User is offline
Go topGo end
15.09.2012 - 0:37
#13
HugoBo-SS



тут-та-ту
[SoftoRooMTeaM] Group Icon

Группа: Модераторы
Сообщений: 10.906
Регистрация: 3.04.2008
Из: Russia SPb
Пользователь №: 827.869


Респектов: 4350
-----XXXXX




попробуй Offline Explorer Enterprise
User is offline
Go topGo end

Topic Options
Сейчас: 18.04.2024 - 22:57
Мобильная версия | Lite версия