Я пытаюсь отразить довольно большой сайт (20 000+ страниц) до капитального ремонта. В принципе, мне нужна резервная копия, прежде чем переходить к новой, если мы забыли что-то, что нам нужно (у нас будет около 1000 страниц при запуске). Сайт работает на CMS, из которой я не могу легко извлечь полезные данные, поэтому я пытаюсь сделать копию с помощью wget.
моя проблема в том, что wget, по-видимому, не конвертирует ссылки, несмотря на наличие --convert-links или -k в команда. Я пробовал несколько разных комбинаций флагов, но я не смог получить нужный мне результат. Последняя неудачная попытка была:
nohup wget --mirror -k -l10 -PafscSnapshot --html-extension -R *calendar* -o wget.log http://www.example.org &
Я также включил --backup-converted и --convert-links вместо-k (не то, чтобы это имело значение). Я сделал это с и без-P и-l, опять же, не то, что они должны иметь значение.
результаты в файлах, которые по-прежнему имеют ссылки, как:
http://www.example.org/ht/d/sp/i/17770