我试图避免硬编码我的蜘蛛。

作为练习,我从Wikipedia抓取文本时,收到的文本带有不必要的数据,例如\n[1],[2],...,[5]

import scrapy
from scrapy.utils.markup import remove_tags


class Wiki_BD_Spider(scrapy.Spider):
    name = 'wiki_black_death'

    start_urls = ['https://en.wikipedia.org/wiki/Black_Death']

    def parse(self, response):
        data = response.xpath('//div[@class = "mw-parser-output"]/p[2]').extract()

        for item in data:
            yield {
                'history': remove_tags(item).replace('\n', '').replace('[1]', '').replace('[2]', '').replace('[3]', '').replace('[4]', '').replace('[5]', '')
            }


结果输出是我希望达到的结果,但是,有没有一种更好的方法可以使for循环内的代码更小?

最佳答案

当然,您可以使用re.sub清除输出,请尝试以下代码:

import scrapy, re
from scrapy.utils.markup import remove_tags


class Wiki_BD_Spider(scrapy.Spider):
    name = 'wiki_black_death'

    start_urls = ['https://en.wikipedia.org/wiki/Black_Death']

    def parse(self, response):
        yield {'history': re.sub('\[[0-9]\]','',remove_tags(response.xpath('//div[@class = "mw-parser-output"]/p[2]').extract_first().replace('\n', '')))}

关于python - 有没有办法最小化这种沙哑蜘蛛的长度,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/56524353/

10-12 17:35