我试图避免硬编码我的蜘蛛。
作为练习,我从Wikipedia抓取文本时,收到的文本带有不必要的数据,例如\n
和[1],[2],...,[5]
。
import scrapy
from scrapy.utils.markup import remove_tags
class Wiki_BD_Spider(scrapy.Spider):
name = 'wiki_black_death'
start_urls = ['https://en.wikipedia.org/wiki/Black_Death']
def parse(self, response):
data = response.xpath('//div[@class = "mw-parser-output"]/p[2]').extract()
for item in data:
yield {
'history': remove_tags(item).replace('\n', '').replace('[1]', '').replace('[2]', '').replace('[3]', '').replace('[4]', '').replace('[5]', '')
}
结果输出是我希望达到的结果,但是,有没有一种更好的方法可以使for循环内的代码更小?
最佳答案
当然,您可以使用re.sub
清除输出,请尝试以下代码:
import scrapy, re
from scrapy.utils.markup import remove_tags
class Wiki_BD_Spider(scrapy.Spider):
name = 'wiki_black_death'
start_urls = ['https://en.wikipedia.org/wiki/Black_Death']
def parse(self, response):
yield {'history': re.sub('\[[0-9]\]','',remove_tags(response.xpath('//div[@class = "mw-parser-output"]/p[2]').extract_first().replace('\n', '')))}
关于python - 有没有办法最小化这种沙哑蜘蛛的长度,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/56524353/