我需要抓取和提取数据的网址很长,为此我想使用scrapy。

假设我有一个扭曲的反应堆设置,我正在创建蜘蛛

runner = CrawlerRunner(scrapy_settings)
d = runner.crawl(spider_cls)


有没有一种方法可以将URL发送给Spider,以便对其进行处理?

最佳答案

crawl() method可以采用其他参数:

d = runner.crawl(spider_cls, start_urls=["url"])

关于python - 刮刮一页,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/37554029/

10-09 19:08