ElasticSearch 2 (26) - 语言处理系列之打字或拼写错误

摘要

我们喜欢在对结构化数据(如:日期和价格)做查询时,结果只返回那些能精确匹配的文档。但是,好的全文搜索不应该有这样的限制。相反,我们可以扩大范围,包括更多可能匹配的词语,使用相关度评分将更匹配的文档放置在结果集的顶部。

事实上,只做精确匹配的全文搜索很有可能会让用户失望,难道我们不希望搜索 “quick brown fox” 可以匹配到包含 “fast brown foxes” 的文档,“Johnny Walker” 可以匹配 “Johnnie Walker”,“Arnold Shcwarzenneger” 可以匹配 “Arnold Schwarzenegger”?

如果文档确实精确包含用户的搜索条件,那么它们应该出现在结果集的顶部,而弱匹配可以置于结果列表的稍后地方。如果没有精确的匹配,至少我们可以为用户提供潜在匹配的可能,它们甚至可能是用户搜索的初衷!

我们已经在 规则化标记(Normalizing Tokens) 介绍了处理变音词的匹配方式,在 缩减单词至词根形式(Reducing Words to Their Root Form) 中介绍了词语的词干提取方式,在 同义词(Synonyms) 中介绍了同义词的处理方式,但是所有这些方法都以单词是正确拼写这个条件为前提,或者说每个词的拼写方式只有一种。

模糊匹配允许在查询时匹配拼写错误的词,语音标记过滤器可以在索引时用来语音匹配。

版本

elasticsearch版本: elasticsearch-2.x

内容

模糊逻辑(Fuzziness)

模糊匹配将两个模糊相似的词作为同一词语处理,首先,我们须要定义什么是模糊性。

在 1965 年,Vladimir Levenshtein 开发了 Levenshtein 距离算法,它可以计算从一个单词变成另外一个单词时,单个字符改变的总次数。它提出了三种类型的单字符修改方式:

  • 将一个字符替换成为另外一个:f ox → b ox
  • 插入新的字符:sic → sic k
  • 删除字符:b l ack → back

Frederick Damerau 后来对这些操作进行了扩展,新增了一种方式:

  • 交换两个相邻字符的位置:st ar → ts ar

例如,将单词 bieber 转换成 beaver 需要以下步骤:

  1. b 替换成 v : bie b er → bie v er
  2. i 替换成 a : b i ever → b a ever
  3. 交换 ae 的位置: b ae ver → b ea ver

这三步用 Damerau-Levenshtein 法表示的距离是 3 。

显然,bieberbeaver 有很长一段距离,它们相距太远而不能被认为是简单的拼写错误。Damerau 观察到 80% 的人为拼写错误的距离是 1 。换句话说,有 80% 的拼写错误可以通过单次字符修改得到原始的字符串。

Elasticsearch 支持一个最大的编辑距离是 2 ,可以通过参数 fuzziness 来指定。

当然,单次修改的影响还取决于被修改字符串的长度。单词 hat 经两次修改可以变成 mad ,所以允许长度为 3 的字符串修改两次有点过度。参数 fuzziness 可以被设置成 AUTO ,代表以下三中最大编辑距离:

  • 0 对于长度为 1 或 2 的字符串
  • 1 对于长度为 3、4 或 5 的字符串
  • 2 对于长度大于 5 的字符串

当然,可能会发现 2 步修改仍然过度,返回的结果看上去并不相关。当最大 fuzziness 值为 1 时,我们可能会得到更好的搜索结果和更好的性能。

模糊查询(Fuzzy Query)

fuzzy 查询和使用 term 查询的 fuzzy 特性是等价的。通常我们很少会自己直接使用它,但是理解它的工作方式有助于我们在高层 match 查询中利用模糊的特性。

为了理解它是如何工作的,我们先新建索引一些文档:

	POST /my_index/my_type/_bulk
{ "index": { "_id": 1 }}
{ "text": "Surprise me!"}
{ "index": { "_id": 2 }}
{ "text": "That was surprising."}
{ "index": { "_id": 3 }}
{ "text": "I wasn't surprised."}

现在我们就可以运行 fuzzy 查询搜索 surprize

	GET /my_index/my_type/_search
{
"query": {
"fuzzy": {
"text": "surprize"
}
}
}

fuzzy 查询是一个词项级别的查询,所以它没有做任何分析的工作。它接收单个词项,并且根据指定的模糊逻辑在字典中查找匹配的所有词项。默认的 fuzziness 值是 AUTO

在我们的例子中,surprize 距离 2 以内的词有 surprisesurprised,所以文档 1 和 3 是匹配的。我们可以通过以下查询将匹配结果缩小至 surprise

	GET /my_index/my_type/_search
{
"query": {
"fuzzy": {
"text": {
"value": "surprize",
"fuzziness": 1
}
}
}
}

提升性能(Improving Performance)

fuzzy 查询接受原始词项并为其构建一个 Levenshtein 自动机(automaton) ,这个结构有如一个图,它能表示与原始字符串相距指定编辑距离值以内的所有可能字符串。

模糊查询随后使用这个自动机逐步高效的在字典中匹配所有词项,一旦收集到字典里所有的匹配词项,它便能计算出所有与之匹配的文档。

当然,由于索引里存储的数据类型不同,一个编辑距离为 2 可以与大量词匹配,性能也会非常差。以下两个参数可以用来限制对性能的不良影响:

  • prefix_length

    设置字符串不会被“模糊化”的起始长度。多数拼写错误出现在词语的末尾处,而不是开始处。比如,当 prefix_length 的值为 3 时,我们可以大大减少需要匹配词项的数目。

  • max_expansions

    如果模糊查询扩展到三或四个选项的时候,这些新选项可能还是有意义的,但当它生成 1,000 个选项时,它们实际上毫无意义。用 max_expansions 来限制生成选项的总数,模糊查询会搜集匹配的词项,直到找不出更多匹配或词项数目达到 max_expansions 数值的限制。

模糊匹配查询(Fuzzy match Query)

match 查询自带支持模糊匹配的功能:

	GET /my_index/my_type/_search
{
"query": {
"match": {
"text": {
"query": "SURPRIZE ME!",
"fuzziness": "AUTO",
"operator": "and"
}
}
}
}

查询字符串首先经过分析,然后生成词项 [surprize, me],最后每个词项用指定的 fuzziness(模糊逻辑) 进行模糊化处理。

类似地,multi_match 查询也支持模糊逻辑,但它只支持两种类型 best_fieldsmost_fields

	GET /my_index/my_type/_search
{
"query": {
"multi_match": {
"fields": [ "text", "title" ],
"query": "SURPRIZE ME!",
"fuzziness": "AUTO"
}
}
}

matchmulti_match 查询都能支持 prefix_lengthmax_expansions 参数。

模糊度的评分(Scoring Fuzziness)

用户喜欢模糊查询,他们以为这些查询总会奇妙的找到正确的拼写结果。不幸的是,事实却无法激动人心。

假设我们有 1,000 个文档包含词语 “Schwarzenegger”,其中只有 1 个文档里有错误拼写 “Schwarzeneger”,根据 TF/IDF 的理论,这个错误拼写比正确拼写更具相关性,因为它在文档里出现的次数要少得多!

换句话说,如果我们同等对待模糊匹配和其他匹配,那么我们就会更偏向错误拼写而不是正确拼写,这会使用户感到抓狂的。

默认情况下,match 查询给所有模糊匹配的分数总是 1 。这足以使潜在的匹配出现在结果的末尾,而不用影响到非模糊查询的相关度评分计算。

语音匹配(Phonetic Matching)

最后,令人绝望的是,试图匹配那些听上去相似的词,这些词的拼写甚至是不同的。

现存一些算法可以将词语转换成语音形式表示。Soundex 算法是它们的始祖,其他所有类似算法都是 Soundex 的改进或定制形式,例如 MetaphoneDouble Metaphone (它对语音匹配扩展到其他语言而不只是英语),Caverphone 算法可以匹配新西兰姓名,Beider-Morse 算法以 Soundex 算法为基础,但它能更好的匹配德语和依地语姓名,Kölner Phonetik 对德语词支持更好。

我们从上面一串算法中要学到的是语音算法都相当粗糙,太依赖于它们针对设计的语言,这些语言可以是英语,也可以是德语,这限制了它们的可用性。不过,如果与其他技术相结合,为了处理某种问题,语音匹配也可以是个有用的工具。

首先,我们需要从下面网址安装语音分析插件 ,为集群每个节点都安装,然后重启每个节点。

安装后,我们可以创建一个自定义分析器,尝试使用其中一个语音标记过滤器:

	PUT /my_index
{
"settings": {
"analysis": {
"filter": {
"dbl_metaphone": { #1
"type": "phonetic",
"encoder": "double_metaphone"
}
},
"analyzer": {
"dbl_metaphone": {
"tokenizer": "standard",
"filter": "dbl_metaphone" #2
}
}
}
}
}

#1 首先,配置自定义 phonetic 语音标记过滤器以及 double_metaphone 编码器。

#2 然后在自定义分析器中使用自定义的标记过滤器。

现在使用 analyze API 对其测试:

	GET /my_index/_analyze?analyzer=dbl_metaphone
Smith Smythe

SmithSmythe 在同一位置各生成两个标记:SM0XMT。分析 JohnJonJohnnie 会都生成两个标记 JNAN,但 Jonathon 会生成标记 JN0NANTN

语音分析器和其他分析器的使用方式类似,首先为字段设置映射,然后在对数据建立索引:

	PUT /my_index/_mapping/my_type
{
"properties": {
"name": {
"type": "string",
"fields": {
"phonetic": { #1
"type": "string",
"analyzer": "dbl_metaphone"
}
}
}
}
} PUT /my_index/my_type/1
{
"name": "John Smith"
} PUT /my_index/my_type/2
{
"name": "Jonnie Smythe"
}

#1 name.phonetic 字段使用自定义的 dbl_metaphone 分析器。

match 查询来搜索:

	GET /my_index/my_type/_search
{
"query": {
"match": {
"name.phonetic": {
"query": "Jahnnie Smeeth",
"operator": "and"
}
}
}
}

这个查询同时返回两个文档,这样表明语音查询是有多粗糙。使用语音算法进行评分通常也没有多大意义。使用语音算法的目的不在于提高精度,而在于提高召回,扩大撒网范围从而获得任何可能匹配的文档。

通常将语音算法的结果作为其他算法或计算机的输入信息,要比直接将结果给人使用要靠谱得多。

参考

elastic.co: Typoes and Mispelings

05-11 11:19