基于MM的分詞算法,有興趣者可以把程序中沒有完成的部分繼續(xù)。
資源簡介:基于MM的分詞算法,有興趣者可以把程序中沒有完成的部分繼續(xù)。
上傳時間: 2017-01-23
上傳用戶:xc216
資源簡介:1.基于luncene倒排索引格式的高性能索引數(shù)據(jù)訪問接口。 2. 實現(xiàn)若干中文分詞的的分詞算法。
上傳時間: 2013-12-29
上傳用戶:ruixue198909
資源簡介:利用最大匹配法進(jìn)行漢語句子的分詞 最大匹配算法是最常用的分詞算法,簡單實用正確率可達(dá)到80%以上
上傳時間: 2013-12-02
上傳用戶:徐孺
資源簡介:這是一個基于Java的分詞、N-gram統(tǒng)計、分段 、分句等功能的程序,支持多種語言
上傳時間: 2013-12-20
上傳用戶:金宜
資源簡介:用c++寫的分詞算法,簡單,實用,詳情看里面的幫助文件!
上傳時間: 2015-05-14
上傳用戶:rishian
資源簡介:基于luecen的分詞包,包含很多特性使用起來簡單方便
上傳時間: 2013-12-23
上傳用戶:xymbian
資源簡介:一段關(guān)于中文信息分類的分詞算法,他實現(xiàn)了信息過濾中的分詞,為信息過濾的分類打下基礎(chǔ)
上傳時間: 2013-12-26
上傳用戶:zhaoq123
資源簡介:改進(jìn)SEP_LEACH協(xié)議代碼-無線傳感器網(wǎng)絡(luò)基于能量的分簇算法源碼
上傳時間: 2016-12-10
上傳用戶:xzt
資源簡介:基于詞典的分詞工具,用與對文本文件的分詞
上傳時間: 2017-03-15
上傳用戶:wpwpwlxwlx
資源簡介:用C寫的簡單的分詞算法,請查看具體代碼.
上傳時間: 2013-12-26
上傳用戶:saharawalker
資源簡介:基于統(tǒng)計的分詞,采用隱馬爾可夫模型,并有實驗報告
上傳時間: 2014-01-21
上傳用戶:watch100
資源簡介:貝葉斯網(wǎng)絡(luò)概率中文分詞算法,基于概率的分詞算法
上傳時間: 2017-09-26
上傳用戶:manlian
資源簡介:vc++實現(xiàn)的基于字典的中文分詞算法,基于貝耶斯網(wǎng)絡(luò)的概率中文分詞算法,以及文本相似程度比較的算法。
上傳時間: 2014-01-19
上傳用戶:星仔
資源簡介:基于詞典的最大分詞算法 達(dá)到很好的分詞準(zhǔn)確率
上傳時間: 2016-06-04
上傳用戶:Breathe0125
資源簡介:KTDictSeg 簡介: KTDictSeg 是由KaiToo搜索開發(fā)的一款基于字典的簡單中英文分詞算法 * 主要功能: 中英文分詞,未登錄詞識別,多元歧義自動識別,全角字符識別能力 * 主要性能指標(biāo): * 分詞準(zhǔn)確度:90%以上(有待專家的權(quán)威評測) * 處理速度: 600KBytes/s
上傳時間: 2016-10-14
上傳用戶:klin3139
資源簡介:由KaiToo搜索開發(fā)的一款基于字典的簡單中英文分詞算法
上傳時間: 2014-01-14
上傳用戶:2525775
資源簡介:基于知識分詞算法的病案全文檢索系統(tǒng), 碩士論文.
上傳時間: 2013-12-19
上傳用戶:牧羊人8920
資源簡介:基于逆向最大匹配算法的分詞及基于HMM模型的詞性標(biāo)注系統(tǒng),包括了未登錄詞的識別、數(shù)據(jù)庫的添加等內(nèi)容。(需要手動修改數(shù)據(jù)庫的路徑才可以運行)
上傳時間: 2017-06-24
上傳用戶:從此走出陰霾
資源簡介:含有多個分詞算法。畢業(yè)設(shè)計的時候獲得的,希望對大家在漢字處理中能用的到。 ICTCLAS算法,中科院,對名字識別能力很強。VC開發(fā)。 CSharp分詞,向前匹配加向后最大匹配,C#開發(fā),容易擴(kuò)展。 小叮咚分詞,由后向前最大匹配,C#開發(fā)。 xerdoc分詞,基于IC...
上傳時間: 2013-12-16
上傳用戶:古谷仁美
資源簡介:最大概率分詞法,這種分詞算法能夠較好的解決漢語分詞中的歧義問題,但分詞效率比最大匹配分詞算法要低
上傳時間: 2015-03-17
上傳用戶:569342831
資源簡介:此程序解決的問題:較好的, 并適應(yīng)短字符串的中文分詞算法.根據(jù)詞庫 發(fā)現(xiàn)以換行符分隔的眾多標(biāo)題中的 top N 關(guān)鍵字并以此更新詞庫.是一個分類分詞算法
上傳時間: 2014-12-20
上傳用戶:lxm
資源簡介:基于最大概率的分詞,首先讀入.mdb數(shù)據(jù)庫(字典與其統(tǒng)計詞頻),然后讀入你要分詞的.txt
上傳時間: 2014-08-31
上傳用戶:xinzhch
資源簡介:一套分詞算法. 也是我的畢業(yè)設(shè)計的原型. 該分詞算法,使分詞速度達(dá)到2~8萬/秒.而且沒有使用線程.如果使用線程,速度可達(dá)幾十萬每秒以上
上傳時間: 2014-01-07
上傳用戶:haoxiyizhong
資源簡介:關(guān)于中文分詞算法基本研究的介紹,綜合的介紹了中文自動分詞的原理及一般算法。
上傳時間: 2014-01-27
上傳用戶:日光微瀾
資源簡介:一個用java語言編寫的中文文本分詞算法
上傳時間: 2013-12-06
上傳用戶:zsjinju
資源簡介:基于java語言的分詞系統(tǒng),可以標(biāo)注詞性、詞頻等信息,可用于二次開發(fā)
上傳時間: 2016-05-13
上傳用戶:mikesering
資源簡介:基于中科院計算所的ICTCLAS系統(tǒng)開發(fā)的分詞工具,只有一個類,上手最快,功能強大
上傳時間: 2014-01-13
上傳用戶:koulian
資源簡介:好用的中文分詞算法 好不容易才搞到的 好用的中文分詞算法
上傳時間: 2016-05-26
上傳用戶:Zxcvbnm
資源簡介:簡單的漢語分詞算法,由于本人水平有限,因此功能不是很完全,但能實現(xiàn)一些簡單分詞,請高手繼續(xù)補充。
上傳時間: 2013-12-16
上傳用戶:firstbyte
資源簡介:基于正向最大匹配法的分詞。采用hash表技術(shù)將一段連續(xù)的話用所給詞庫進(jìn)行分詞輸出。
上傳時間: 2016-06-08
上傳用戶:zhengjian