Python中的高性能模糊字符串比较,使用Levenshtein或difflib

我正在进行临床信息规范化(拼写检查),其中我检查每个给定的单词对900,000字的医学词典.我更关注时间复杂度/性能.

我想做模糊字符串比较,但我不确定使用哪个库.

选项1:

import Levenshtein
Levenshtein.ratio('hello world', 'hello')

Result: 0.625

选项2:

import difflib
difflib.SequenceMatcher(None, 'hello world', 'hello').ratio()

Result: 0.625

在这个例子中,两者给出相同的答案.在这种情况下,你认为两者都表现相似吗?

解决方法:

如果您对Levenshtein和Difflib相似性的快速视觉比较感兴趣,我计算了约230万本书籍:

import codecs, difflib, Levenshtein, distance

with codecs.open("titles.tsv","r","utf-8") as f:
    title_list = f.read().split("\n")[:-1]

    for row in title_list:

        sr      = row.lower().split("\t")

        diffl   = difflib.SequenceMatcher(None, sr[3], sr[4]).ratio()
        lev     = Levenshtein.ratio(sr[3], sr[4]) 
        sor     = 1 - distance.sorensen(sr[3], sr[4])
        jac     = 1 - distance.jaccard(sr[3], sr[4])

        print diffl, lev, sor, jac

然后我用R绘制结果:

严格来说,我也比较了Difflib,Levenshtein,Sørensen和Jaccard相似度值:

library(ggplot2)
require(GGally)

difflib <- read.table("similarity_measures.txt", sep = " ")
colnames(difflib) <- c("difflib", "levenshtein", "sorensen", "jaccard")

ggpairs(difflib)

结果:

Difflib / Levenshtein的相似性确实非常有趣.

2018年编辑:如果你正在努力识别相似的字符串,你也可以查看minhashing – 这是一个great overview here.Minhashing在线性时间内找到大文本集合中的相似性是惊人的.我的实验室整理了一个应用程序,使用minhashing检测并可视化文本重用:https://github.com/YaleDHLab/intertext

上一篇:具有自定义匹配功能的Python序列匹配器


下一篇:python – 如何使用difflib.SequenceMatcher获取多个匹配项?