Я хочу создать веб-сканер на основе Scrapy, чтобы захватывать изображения новостей с нескольких веб-сайтов новостных порталов. Я хочу, чтобы этот краулер был:
Беги вечно
Означает, что он будет периодически повторно посещать некоторые страницы портала для получения обновлений.
Планируйте приоритеты.
Устанавливайте разные приоритеты для разных типов URL.
Многопоточная выборка
Я прочитал документ Scrapy, но не нашел ничего, связанного с тем, что я перечислил (возможно, я недостаточно осторожен). Кто-нибудь здесь знает, как это сделать? или просто дайте идею / пример об этом. Спасибо!