加载中
中文分词算法 之 基于词典的全切分算法

中文分词算法 之 基于词典的全切分算法

中文分词算法 之 基于词典的正向最小匹配算法

正向最小匹配算法,和正向最大匹配算法相得益彰,一个强调细粒度,一个强调粗粒度

中文分词算法 之 基于词典的逆向最小匹配算法

逆向最小匹配算法,和逆向最大匹配算法相得益彰,一个强调细粒度,一个强调粗粒度

中文分词算法 之 基于词典的逆向最大匹配算法

实验表明:对于汉语来说,逆向最大匹配算法比(正向)最大匹配算法更有效。在大规模文本分析中,如何提高分词算法的性能呢?

中文分词算法 之 基于词典的正向最大匹配算法

基于词典的正向最大匹配算法,算法会根据词典文件自动调整最大长度,分词的好坏完全取决于词典。随着词典越来越大,算法的时空复杂性怎么权衡呢?

最频繁访问驻留缓存算法

在搜索系统中,如何缓存搜索最频繁的1000个搜索结果?自定制的精准短文本搜索服务项目代码 本文利用了ConcurrentHashMap和AtomicLong实现了线程安全且支持高并发的最频繁访问驻留缓存算法,除...

2016/07/18 16:06
1.2K
一种通用的网页相似度检测算法

如果我们需要在海量的结构未知的网页库中找到和指定的网页相似度比较高的一些网页,我们该怎么办呢?本文提出的“一种通用的网页相似度检测算法”就是专门解决这个问题。

中文分词算法 之 词典机制性能优化与测试

中文分词的速度能有多快?120万字符/秒。词典机制的优化很重要,且看慢慢道来......

一种使用随机抽样梯度下降算法来预估词汇量的方法

一种使用随机抽样梯度下降算法来预估词汇量的方法

LRU (Least Recently Used) 算法的Java实现

LRU (Least Recently Used) 算法的Java实现

LRU
2015/07/15 21:58
1.6K
基于word分词提供的文本相似度算法来实现通用的网页相似度检测

基于word分词提供的文本相似度算法来实现通用的网页相似度检测

Java分布式中文分词组件word分词v1.2发布

Java分布式中文分词组件word分词v1.2发布

Java开源项目cws_evaluation:中文分词器分词效果评估

想知道最常用的9大Java中文分词是哪些吗? 想凑凑热闹看看分词效果大PK吗?

一种利用ngram模型来消除歧义的中文分词方法

一种利用ngram模型来消除歧义的中文分词方法

我的ITEYE和OSCHINA博客的异同(截止2015年5月17日)

我的ITEYE和OSCHINA博客的异同

2015/04/03 05:17
805
搜索引擎的分片(shard)和副本(replica)机制

搜索引擎通过分片(shard)和副本(replica)实现了高性能、高伸缩和高可用。

基于Nutch+Hadoop+Hbase+ElasticSearch的网络爬虫及搜索引擎

网络爬虫架构在Nutch+Hadoop之上,是一个典型的分布式离线批量处理架构,有非常优异的吞吐量和抓取性能并提供了大量的配置定制选项。由于网络爬虫只负责网络资源的抓取,所以,需要一个分布式...

没有更多内容

加载失败,请刷新页面

返回顶部
顶部