Как вы указываете wget рекурсивно сканировать веб-сайт и загружать только определенные типы изображений?
Я попытался использовать это для обхода сайта и загрузки только изображений Jpeg:
wget --no-parent --wait=10 --limit-rate=100K --recursive --accept=jpg,jpeg --no-directories http://somedomain/images/page1.html
Впрочем, даже если страница1.html содержит сотни ссылок на подстраницы, которые сами имеют прямые ссылки на изображения, wget сообщает такие вещи, как " удаление подзаголовка13.HTML-код так как он должен быть отклонен", и не загружает все картинки, так как никто напрямую связаны с стартовая страница.
Я предполагаю, что это связано с тем, что мой --accept используется как для направления обхода, так и для фильтрации содержимого для загрузки, тогда как я хочу, чтобы он использовался только для прямой загрузки содержимого. Как заставить wget сканировать все ссылки, но загружать только файлы с определенными расширениями, например *.в формате JPEG?
редактировать: также, некоторые страницы динамические и генерируются через CGI скрипт (напр. img.cgi?fo9s0f989wefw90e). Даже если я добавлю cgi в свой список принятия (например, --accept=jpg, jpeg, html, cgi) их все равно всегда отвергают. Есть ли способ обойти это?