1.新建一个scrapy项目

scrapy startproject mySpider

2.新建一个爬虫文件

# 使用crawl 模板创建,适用于整站爬取
scrapy genspider -t crawl qsbk 'qiushibaike.com'

# 使用basic模板创建,适用于循环爬取有规律的网址
scrapy genspider -t basic im "imooc.com"

3.启动爬虫

# 无日志启动
scrapy crawl jdsc --nolog

# 有日志启动
scrapy crawl jdsc --nolog
05-04 22:55