拼写改正系列
NLP 中文拼写检测实现思路
NLP 中文拼写检测改正算法整理
NLP 英文拼写算法,如果提拔 100W 倍的性能?
NLP 中文拼写检测改正 Paper
java 实现中英文拼写检查和错误改正?可我只会写 CRUD 啊!
一个提拔英文单词拼写检测性能 1000 倍的算法?
单词拼写改正-03-leetcode edit-distance 72.力扣编辑间隔
NLP 开源项目
nlp-hanzi-similar 汉字相似度
word-checker 中英文拼写检测
pinyin 汉字转拼音
opencc4j 繁简体转换
sensitive-word 敏感词
前言
大家好,我是老马。
下面的内容是一些其他小伙伴开源的比较优秀的实现和文章解释。
个人感受
这里的贝叶斯感觉实际实现起来特别简单,就是找到对应拼写错误的单词。
然后计算对应的 2 以内的编辑间隔的单词,计算出现的概率,举行排序返回即可。
和我的实现逻辑是一样的,不同的是我已经提前处置惩罚好了词典的频率。
不外感觉还是有 n-gram 的优化,可以更加正确。
好比前面输入一个单词,背面存在错误的,那么前面的一个应该是已经存在的概率,然后推导背面的,用 2-gram 之类的方式。
贝叶斯公式
什么是贝叶斯公式?
来看来自维基百科的定义:
贝叶斯定理
贝叶斯定来由英国数学家贝叶斯 ( Thomas Bayes 1702-1761 ) 发展,用来形貌两个条件概率之间的关系,好比 P(A|B) 和 P(B|A)。
按照定理 6 的乘法法则,P(A∩B)=P(A)·P(B|A)=P(B)·P(A|B),可以立刻导出贝叶斯定理:- P(A|B) = P(A)·P(B|A) / P(B)
复制代码 如上公式也可变形为- P(B|A) = P(A)·P(A|) / P(A)
复制代码 拼写错误的定义
拼写纠错(Spelling Correction),又称拼写检查(Spelling Checker),往往被用于字处置惩罚软件、输入法和搜索引擎中。
拼写纠错一般可以拆分成两个子使命:
拼写错误检测Spelling Error Detection:按照错误类型不同,分为Non-word Errors和Real-word
Errors。前者指那些拼写错误后的词本身就不合法,如错误的将"giraffe”写成"graffe”;后者指那些拼写错误后的词仍然是合法的情况,如将"there”错误拼写为"three”(形近),将"peace”错误拼写为"piece”(同音),将"two”错误拼写为"too”(同音)。
拼写纠错Spelling Error Correction:自动纠错,如把"hte”自动校正为"the”,大概给出一个最可能的拼写建议,乃至一个拼写建议列表。
二、Non-word拼写错误
拼写错误检测Spelling error detection:任何不被词典所包含的word均被当作拼写错误(spelling error),识别正确率依靠词典的规模和质量。
拼写纠错Spelling error correction:查找词典中与error最近似的word,常见的方法有:
最短加权编辑间隔(Shortest weighted edit distance)和最高噪音通道概率(Highest noisy channel probability)。
三、Real-word拼写错误
拼写错误检测Spelling error detection:每个word都作为拼写成员(spelling error candidate)。
拼写纠错Spelling error correction:从发音和拼写等角度,查找与word最近似的words聚集作为拼写建议,常见的方法有最高噪音通道概率(Highest noisy channel probability)和分类(Classifier)。
四、基于噪声信道模型(Noisy Channel Model)的拼写纠错
Noisy Channel Model 即噪声信道模型,或称信源信道模型,这是一个普适性的模型,被用于语音识别、拼写纠错、机器翻译、中文分词、词性标注、音字转换等浩繁应用领域。
其形式很简单,如下图所示:
噪声信道试图通过带噪声的输出信号规复输入信号,形式化定义为:
应用于拼写纠错使命的流程如下:
noisy word(即splling error)被看作original word通过noisy channel转换得到,如今已知noisy word(用x表现)如何求得最大可能的original word(用w表现),公式如下:
P(w)为先验概率,P(x|w)为转移概率,二者可以基于训练语料库建立语言模型和转移矩阵(又称error model,channel model)得到。
五、拼写检查器
第一步,以一个比较大的文本文件big.txt作为样本,分析每个单词出现的概率作为语言模型(Language Model)和词典。
big.txt的所在是:http://norvig.com/big.txt
第二步,如果用户输入的单词不在词典中,则产生编辑间隔(Edit Distance)为2的所有可能单词。
所谓编辑间隔为1就是对用户输入的单词举行删除1个字符、添加1个字符、交换相邻字符、替换1个字符产生的所有单词。
而编辑间隔为2就是对这些单词再举行一次上述所有变换,因此最后产生的单词集会很大。
可以与词典作差集,只保留词典中存在的单词。
1)插入一个字符(Insertion)
2)删除一个字符(Deletion)
3)替代一个字符(Substitution)
4)转义一个字符(Transposition)
第三步,假设变乱c是我们推测用户可能想要输入的单词,而变乱w是用户实际输入的错误单词,根据贝叶斯公式可知:- P(c|w) = P(w|c) * P(c)/ P(w)
复制代码 这里的P(w)对于每个单词都是一样的,可以忽略。
而 P(w|c) 是误差模型(Error Model),是用户想要输入w却输入c的概率,这是需要大量样本数据和究竟依据来得到的,为了简单起见也忽略掉。
因此,我们可以找出编辑间隔为2的单词集中P(c)概率最大的几个来提示用户。
据统计,80%的拼写错误编辑间隔为1,几乎所有的拼写错误编辑间隔小于等于2,基于此,可以减少大量不须要的计算。
通过计算最小编辑间隔获取拼写建议候选集(candidate w),此时,我们希望选择概率最大的w作为终极的拼写建议,基于噪声信道模型头脑,需要进一步计算 P(w) 和 P(x|w)。
通过对语料库计数、平滑等处置惩罚可以很容易建立语言模型,即可得到P(w)。
核心实现
https://github.com/hlk-1135/Dictionary
[code]public class SpellChecker { private static final char[] alphabets = "abcdefghijklmnopqrstuvwxyz".toCharArray(); public void start() throws IOException { //1.构建语言模型 String path = "E:\\big.txt"; Map languModel = buildLanguageModel(path); Set dictionary = languModel.keySet(); while((input = reader.readLine()) != null) { input = input.trim().toLowerCase(); if("bye".equals(input)) break; if(dictionary.contains(input)) continue; long startTime = System.currentTimeMillis(); //3.在编辑间隔内设置一个单词集,并删除字典中不存在的单词 Set wordsInEditDistance = buildEditDistance1Set(languModel, input); wordsInEditDistance.retainAll(dictionary); if(wordsInEditDistance.isEmpty()) { wordsInEditDistance = buildEditDistance2Set(languModel, input); wordsInEditDistance.retainAll(dictionary); if (wordsInEditDistance.isEmpty()) { System.out.println("Failed to check this word!"); continue; } } // 4.计算以是可能的概率 List guessWords = guessRightWord(languModel, wordsInEditDistance); System.out.printf("Do you want to input %s and Cost time: %.10f second(s)\n", guessWords.toString(), (System.currentTimeMillis() - startTime) / 1000D); } } /** * 读取语料库big.txt,构建模型 * @param path * @return * @throws IOException */ private Map buildLanguageModel(String path) throws IOException { Map languModel = new HashMap(); BufferedReader reader = new BufferedReader(new FileReader(path)); //去掉文档中除字母外的所有符号 Pattern pattern = Pattern.compile("[a-zA-Z]+"); String line; int totalCount = 0; while ((line = reader.readLine()) != null) { String[] words = line.split(" "); for(String word : words) { if(pattern.matcher(word).matches()) { word = word.toLowerCase(); Double wordCount = languModel.get(word); if(wordCount == null) { languModel.put(word, 1D); } else { languModel.put(word, wordCount+1D); } totalCount++; } } } reader.close(); for(Entry entry : languModel.entrySet()) entry.setValue(entry.getValue() / totalCount); return languModel; } /** * 编辑间隔为1的单词聚集 * @param languModel * @param input * @return */ private Set buildEditDistance1Set(Map languModel,String input) { Set wordsInEditDistance = new HashSet(); char[] characters = input.toCharArray(); // 删除:删除一个字母的情况,delete letter for(int i=0;i |