一、首次爬取模拟浏览器
在爬虫文件中,添加start_request函数。如:
def start_requests(self):
ua = {"User-Agent": 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.104 Safari/537.36 Core/1.53.2050.400 QQBrowser/9.5.10169.400'}
yield Request("http://www.baidu.com", headers=ua)
需要导入:from scrapy.http import Request
二、自动爬取模拟浏览器
打开settings.py,为USER_AGENT赋值,如:USER_AGENT = 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.104 Safari/537.36 Core/1.53.2050.400 QQBrowser/9.5.10169.400'
如抓取不到目标网站数据,很有可能是这个地方协议没有做配置。
三、注释原起始页
如使用了start_requests方法,需要注释:start_urls = ['http://www.baidu.com/']
四、目标网站的爬虫协议
ROBOTSTXT_OBEY = False
五、数据处理管道启用
Settings配置文件,对ITEM_PIPELINES做配置,一般是:文件夹名.文件名.管道名,