java HashMap实现中文分词器 应用:敏感词过滤实现
今天下午部門內(nèi)部技術分享是分詞器算法。這次的主講是大名鼎鼎的Ansj分詞器的作者-孫健。
作者簡介:
Ansj分詞器作者
elasticsearch-sql(elasticsearch的sql插件)作者,支持sql查詢
nlp-lang自然語言工具包發(fā)起人
NLPCN(自然語言處理組織)發(fā)起人
等等…
網(wǎng)站:http://www.nlpcn.org/
GIT地址:https://github.com/NLPchina
具體作者詳情請百度、Google
大神首先對中文分詞的概念進行詳細的解釋,并對比了傳統(tǒng)分詞和自然語言分詞的區(qū)別和優(yōu)略勢。然后又講到目前中文分詞在應用過程中遇到的一些困難,其中就包括中文歧義的識別(包含交叉歧義、組合歧義、真歧義)、人名識別、地名識別和機構名識別。在這幾種難題中,又以機構名識別最為困難(機構名稱各種簡稱如:北京大學(北大)、騰訊(鵝場)等)。召回率和準確率的關系,正向匹配、逆向匹配等等。生動的講解了分詞的原理和難度所在。
但是講到怎么實現(xiàn)的時候,大家都是一臉懵逼的,各種算法(Trie Tree、雙數(shù)組trie樹、CRF模型等)。聽完就什么都不記得了,呵呵。
不過講到最后的時候給我們分享了下HashMap的一種簡單實現(xiàn)分詞器的思路,意外的收獲。下面通過代碼說明(五分鐘搞定_)。
HashMap簡單實現(xiàn)的分詞器
}
輸出結果:
中國
北京
中關村
海淀
注意:
如果不跳過已經(jīng)匹配的詞會出現(xiàn)"北京劇院" 拆分成 [北京]、[京劇]、[劇院] 三個詞,
如果跳過匹配過的詞就會拆分成 [北京]、[劇院]。
分詞原理:
從詞典中找出最長詞的長度,這里為maxSize=3,按照maxSize的長度從文本的第一位(i=0)截取要抽取的文本【中國人】,然后去Map中查找是否有對應的值,如果沒有減去一個長度截取(maxSize-1)【中國】,去Map中查找,找到則停止當前查找,接著從匹配當前詞后面的字(i=2)【人民共】開始繼續(xù)上述的步驟開始查找。
代碼執(zhí)行的流程如下:
第一次循環(huán)(i=0):
中國人 -> 無命中(map中沒找到) (j=0)
中國 -> map命中 (j=1) 【注釋:命中后i+2(當前詞)的長度。所以i=2】
第二次循環(huán)(i=2):
人民共 -> 無命中 (j=0)
人民 -> 無命中 (j=1)
人 -> 無命中 (j=2)
第三次循環(huán)(i=3):
民共和 -> 無命中 (j=0)
民共 -> 無命中 (j=1)
民 -> 無命中 (j=2)
…依次類推,找出文本中所有匹配詞典中的詞
很簡單的代碼就說明了分詞器的原理(只是最簡單、能命中詞而以)。
應用場景
敏感詞、文字過濾是一個網(wǎng)站必不可少的功能,可以使用這么簡單的幾行代碼實現(xiàn)網(wǎng)站的敏感詞過濾功能,自己這么簡單幾行代碼就能實現(xiàn)是不是很棒。
轉載來源:
作者:jijs
鏈接:https://www.jianshu.com/p/62f4a5596278
來源:簡書
簡書著作權歸作者所有,任何形式的轉載都請聯(lián)系作者獲得授權并注明出處。
總結
以上是生活随笔為你收集整理的java HashMap实现中文分词器 应用:敏感词过滤实现的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: spring中aop事务
- 下一篇: A*算法启发式搜索