我目前正在使用 spaCy 来确定两个字符串之间的语义相似性。它运行良好,只需要几行代码,所有的跑腿工作都在幕后完成:
>>> import spacy
>>> nlp = spacy.load('en')
>>> nlp('string').similarity(nlp('another string'))
0.796
但是它需要~600mb 的模块数据。由于我在 Heroku 上托管,这远远超过了可用的 slug 大小。我正在寻找其他托管替代方案,但还有其他框架可以使用吗?我不需要 spacy 的“工业实力”,但其他框架似乎效果不佳/实现速度不快。
最佳答案
这是最近于 2017 年 3 月 20 日推出的 50 MB 模型:
您在网页中有更多详细信息
https://spacy.io/docs/usage/models
关于python - 适用于 Python 的轻量级 NLP 框架,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/42824528/