用纯C语言开发了一个中文分词系统,速度大约1万字/1秒,大小100K(免费+开源+86万词库+操作示意图+测试用例)
用纯C语言开发了一个中文分词系统,速度大约1万字/1秒,大小100K(免费+开源+86万词库+操作示意图+测试用例)
高速下载地址1: http://tieba.cangzhuo.com/tieba-%25B2%25D8%25D7%25BE-kz-217ac780f66411dd800065ed000065ed.html
用法很简单,比如:你把中文分词系统解压后保存到D:\那你直接在 dos 窗口下输入:
d:\cfenci.exe
然后回车就可以了! 启动无需任何参数。
目前系统在进行了大规模分词测试后的大致性能指标如下:
1000字以内的文章完全切分,用时间不超过 10毫秒!
5000字以内的文章完全切分,用时间不超过 500毫秒!
10000字以内的文章完全切分,用时间不超过 1秒!
本版本是简易版,分词准确率为 91.8%,系统稳定性为99.99%,中文分词系统符合工业化的标准!
目前支持中英文混合切分词,各种全角,半角标点符号的过滤!
系统自带词库含有 86万多个中文词汇!
支持词汇的动态添加,新增词汇持久化保存!
有需要提供动态链接库(dll)版本或Linux版本的,可以跟我联络!
注1:词库文件是 cangzhuo.dat 请与分词程序 cfenci.exe 保存在同一目录下,另不得更改文件名,否则系统将无法加载词库!
注2:测试用例文件是 测试内容.txt 仅供参考,无任何其他作用!
注3:藏拙简易分词系统在遇到换行符的时候自动进行切分!所以在输入含有回车换行符的时候就认为输入完毕,开始切分!
我打算等有 200人回复说好的时候就开源!大家要是喜欢就回复哈!
[解决办法]
[解决办法]
藏拙简易版中文分词系统已经升级更新
中文分词系统此次升级增加了反向切分功能,目的是为了保证切分更准确,更科学!
此次升级进一步提高了简易版中文分词系统的分词的准确率!
最新版本目前的下载地址是:
http://tieba.cangzhuo.com/fenci.rar
稍后(2009年2月11日)将更新高速下载!
高速下载地址:
http://www.800ebay.com/fenci.rar
另补充说明:输出顺序没乱,只是排了个序而已!
[解决办法]
额, 很好,lz不错。