vc++實現(xiàn)的基于字典的中文分詞算法,基于貝耶斯網絡的概率中文分詞算法,以及文本相似程度比較的算法。
資源簡介:vc++實現(xiàn)的基于字典的中文分詞算法,基于貝耶斯網絡的概率中文分詞算法,以及文本相似程度比較的算法。
上傳時間: 2014-01-19
上傳用戶:星仔
資源簡介:對Lcuene的良好的封裝,提供了中文分詞字典 功能強大
上傳時間: 2013-12-05
上傳用戶:hfmm633
資源簡介:一個簡單有效的中文分詞算法,包含正向最大匹配算法,java實現(xiàn)。
上傳時間: 2013-12-25
上傳用戶:GHF
資源簡介:此程序解決的問題:較好的, 并適應短字符串的中文分詞算法.根據(jù)詞庫 發(fā)現(xiàn)以換行符分隔的眾多標題中的 top N 關鍵字并以此更新詞庫.是一個分類分詞算法
上傳時間: 2014-12-20
上傳用戶:lxm
資源簡介:關于中文分詞算法基本研究的介紹,綜合的介紹了中文自動分詞的原理及一般算法。
上傳時間: 2014-01-27
上傳用戶:日光微瀾
資源簡介:好用的中文分詞算法 好不容易才搞到的 好用的中文分詞算法
上傳時間: 2016-05-26
上傳用戶:Zxcvbnm
資源簡介:中文分詞算法,效率很高,使用詞典樹裝搜索進行單詞切割,并提供擴充詞庫的函數(shù)!
上傳時間: 2017-03-10
上傳用戶:xauthu
資源簡介:貝葉斯網絡概率中文分詞算法,基于概率的分詞算法
上傳時間: 2017-09-26
上傳用戶:manlian
資源簡介:中文分詞算法。Perl語言編寫。wordlist.txt為詞庫。
上傳時間: 2013-12-23
上傳用戶:小碼農lz
資源簡介:基于中科院的ICTCLAS實現(xiàn)中文分詞系統(tǒng) 開發(fā)工具是JAVA.經測試,效果很好.
上傳時間: 2015-06-12
上傳用戶:stvnash
資源簡介:1.基于luncene倒排索引格式的高性能索引數(shù)據(jù)訪問接口。 2. 實現(xiàn)若干中文分詞的的分詞算法。
上傳時間: 2013-12-29
上傳用戶:ruixue198909
資源簡介:基于中科院的ICTCLAS實現(xiàn)中文分詞系統(tǒng) 開發(fā)工具是JAVA.經測試,效果很好
上傳時間: 2014-01-25
上傳用戶:zxc23456789
資源簡介:一個基于VB.NET開發(fā)的中文分詞及關鍵詞提取系統(tǒng),采用雙向最大匹配、詞頻統(tǒng)計、快速排序等算法實現(xiàn)。
上傳時間: 2017-06-24
上傳用戶:cylnpy
資源簡介:這是一個基于字典的壓縮和解壓縮算法,其中包含壓縮和解壓縮的源碼,是用vc實現(xiàn)的。其中還有測試的結果和過程
上傳時間: 2015-03-24
上傳用戶:15736969615
資源簡介:一個中文分詞的實現(xiàn)及演示程序,可用與中文和英文詞組的分割.
上傳時間: 2015-04-18
上傳用戶:as275944189
資源簡介:Delphi實現(xiàn)的簡單中文分詞,不知道大家有沒有發(fā)個上來。QQ:313433524 我很菜,有誰愿意教我 感激不盡。
上傳時間: 2014-01-02
上傳用戶:dianxin61
資源簡介:一個比較好用的中文分詞模塊,是車東等人開發(fā)的,比較有名,java語言實現(xiàn)
上傳時間: 2015-04-20
上傳用戶:bruce5996
資源簡介:java樹型字典的建立,是中文分詞 檢索的基礎
上傳時間: 2015-08-03
上傳用戶:hxy200501
資源簡介:又vc++實現(xiàn)的基于TWAIN的掃描儀圖像輸入處理軟件
上傳時間: 2015-08-27
上傳用戶:海陸空653
資源簡介:中文分詞的基本實現(xiàn)功能,帶有界面的處理,實現(xiàn)文件內容的分詞,可以計算算法處理時間
上傳時間: 2014-01-02
上傳用戶:hn891122
資源簡介:基于詞典和最大匹配算法的的中文分詞組件,達到很好的分詞準確率
上傳時間: 2015-11-03
上傳用戶:yuzsu
資源簡介:基于java的中文分詞系統(tǒng),直接更改擴展名為jar即可。暫無源碼提供
上傳時間: 2016-01-06
上傳用戶:sammi
資源簡介:中文分詞,中科院分詞的改裝版。使用java調用dll來實現(xiàn)的。
上傳時間: 2014-01-02
上傳用戶:change0329
資源簡介:基于最短路徑的中文分詞,自己寫的,不足之處僅供參考。
上傳時間: 2016-02-24
上傳用戶:yd19890720
資源簡介:基于ictclas的中文分詞系統(tǒng)在Eclipse3.3中的使用例子
上傳時間: 2016-05-10
上傳用戶:ghostparker
資源簡介:基于最大匹配算法的的中文分詞組件,達到很好的分詞準確率
上傳時間: 2014-01-19
上傳用戶:JasonC
資源簡介:基于詞庫的中文分詞組件,可以直接用于Lucene的索引建立。以及中文搜索。
上傳時間: 2016-08-22
上傳用戶:llandlu
資源簡介:Web挖掘技術在搜索引擎中的應用與實現(xiàn) 介紹了PageRange , 結構挖掘器 , 頁面分析器,中文分詞等技術
上傳時間: 2016-09-21
上傳用戶:wweqas
資源簡介:KTDictSeg 簡介: KTDictSeg 是由KaiToo搜索開發(fā)的一款基于字典的簡單中英文分詞算法 * 主要功能: 中英文分詞,未登錄詞識別,多元歧義自動識別,全角字符識別能力 * 主要性能指標: * 分詞準確度:90%以上(有待專家的權威評測) * 處理速度: 600KBytes/s
上傳時間: 2016-10-14
上傳用戶:klin3139
資源簡介:由KaiToo搜索開發(fā)的一款基于字典的簡單中英文分詞算法
上傳時間: 2014-01-14
上傳用戶:2525775