1646371 tyoui 1578956781
13
拆分词语
7122 ysc 1578914462
13
Java开源项目cws_evaluation:中文分词器分词效果评估。本站是cws_evaluation在Github的镜像站点,仅做备份使用。
Java
接近7年前
11
基于中文基础词库,并结合自定义词库进行分词的系统。 词库将持续进行更新,但2023年起语义理解为新研究方向。
PHP
接近2年前
9957 fang 1578914675
10
简易分词软件
C
3年多前
971 zacker330 1578913918
9
Chinese analysis plugin which using IK analysis for Elasticsearch
Java
暂未更新
109849 strwei 1578917934
8
sphinx结合结巴分词,在 https://github.com/frankee/sphinx-jieba 基础上解决了安装出错问题
C++
6年多前
812591 tenlee 1578933525
7
可能是东半球hao用的elasticsearch(es)中文分词器插件
Java
11个月前
143034 yanyiwu 1578919348
6
"结巴"中文分词的Node.js版本
暂未更新
7122 ysc 1578914462
6
通过web服务器对word分词的资源进行集中统一管理。本站是word_web在Github的镜像站点,仅做备份使用。
Java
接近7年前
12 mirrors 1578989292
6
首先感谢jieba分词原作者fxsjy,没有他的无私贡献,我们也不会结识到结巴 分词,更不会有现在的java版本
Java
3年多前
12 mirrors 1578989292
5
Prose 是一款用于Go 语言的文本处理库(主要是英文),支持 okenization(标记化)、part-of-speech tagging(词性标注)、named-entit
4859 wolferhua 1578914289
5
PHPAnalysis分词程序使用居于unicode的词库,使用反向匹配模式分词,理论上兼容编码更广泛,并且对utf-8编码尤为方便。 由于PHPAnalysis是无组件的系统,因此速度会比有组件的稍慢,不过在大量分词中,由于边分词边完成词库载入,因此内容越多,反而会觉得速度越快,这是正常现象,PHPAnalysis的词库是用一种类似哈希(Hash)的数据结构进行存储的,因此对于比较短的字符串分词,只需要占极小的资源,比那种一次性载入所有词条的实际性要高得多,并且词库容量大小不会影响分词执行的速度。
145212 gitclebeg 1620614744
5
自然语言分词模块,为中文语料批量分词,会继承各种分词工具
Java
接近9年前
4
新词发现、分词、情感倾向性分析
4
缅甸语分词工具。A Rule-based Syllable Segmentation of Myanmar Text
Python
暂未更新

搜索帮助