加载中
一种利用ngram模型来消除歧义的中文分词方法

一种利用ngram模型来消除歧义的中文分词方法

中文分词算法 之 基于词典的全切分算法

中文分词算法 之 基于词典的全切分算法

word v1.3 发布,Java 分布式中文分词组件

word v1.3 发布,Java 分布式中文分词组件

word分词器、ansj分词器、mmseg4j分词器、ik-analyzer分词器分词效果评估

word分词在千万字级(2837 4490字)超大规模人工标注语料库中分词完美率为:55.352688%。测试结果表明,bigram消歧效果良好,完美率提升10%。

Java分布式中文分词组件word分词v1.2发布

Java分布式中文分词组件word分词v1.2发布

我的ITEYE和OSCHINA博客的异同(截止2015年5月17日)

我的ITEYE和OSCHINA博客的异同

2015/04/03 05:17
340
基于word分词提供的文本相似度算法来实现通用的网页相似度检测

基于word分词提供的文本相似度算法来实现通用的网页相似度检测

2000个软件开发领域的高频特殊词及精选例句(五)

2000个软件开发领域的高频特殊词及精选例句

2015/03/20 23:31
122
2000个软件开发领域的高频特殊词及精选例句(二)

2000个软件开发领域的高频特殊词及精选例句

2015/03/19 22:23
802

没有更多内容

加载失败,请刷新页面

没有更多内容

返回顶部
顶部