Jcseg是基于mmseg算法的一个轻量级开源中文分词器,同时集成了关键字提取,关键短语提取,关键句子提取和文章自动摘要等功能,并且提供了最新版本的lucene, solr, elasticsearch的分词接口, Jcseg自带了一个 jcseg.properties文件用于快速配置而得到适合不同场合的分词应用,例如:最大匹配词长,是否开启中文人名识别,是否追加拼音,是否追加同义词等! PS:压缩包中含有jcseg-core-1.9.7.jar、jcseg-analyzer-1.9.7.jar、jcseg-1.9.7-javadoc.jar、Jcseg-开发帮助文档.pdf。
2024-03-30 13:08:52 804KB jcseg 中文分词
1
因部分用户通过github下载ik分词器网速不是特别友好,特使用csdn共享文件功能。 感谢CSDN资源下载功能。
2024-03-30 11:59:22 4.3MB ik分词器 7.4.2
1
sphinx中文分词 xdict_1.1.tar.gz
2024-03-01 10:26:39 1.78MB xdict
1
一个基于又又C++的中文分词原代码,写得比较复杂,里面一些注释,不过比较少,总的看还是比较简单的,可以供需要的人参考一下!(注:版权归原作者所有)
2024-02-22 20:18:19 90KB 代码
1
ICTCLAS分词的实现案例,完整的使用java代码实现,可以直接导入工程运行。
2024-01-25 07:05:23 4.48MB ICTCLAS,分词,实现
1
安装说明: 1. 复制search 目录到网站根目录,请不要修改此文件夹的名称 2. 初次安装, 访问: 域名/search/baseline.php 例如:你的域名是www.ahuoo.com, 那么请访问 www.ahuoo.com/search/baseline.php 3. 修改代码 1.先备份网站根目录的search.php,然后用插件里面的替换掉 2.在模版中找到商品搜索页中的商品名称显示语句,有些模版在library/search_goods_list.lbi文件中,如果没有search_goods_list.lbi文件那就在search.dwt文件中。 语句如: {$goods.goods_name} 将其中的{$goods.goods_name}改为{$goods.new_goods_name} 3. 在admin\goods.php文件中找到如下代码: sys_msg($is_insert ? $_LANG['add_goods_ok'] : $_LANG['edit_goods_ok'], 0, $link); 在此代码上一行前添加如下代码: require_once ('../search/delta.php'); //ahuoo 4. 在admin\category.php文件中找到如下代码: sys_msg($_LANG['catedit_succed'], 0, $link); 在此代码上一行前添加如下代码: require_once ('../search/delta.php'); //ahuoo 4. 如果需要添加自定义关键词可访问: 域名/search/add_word.php 一般情况下是不需要的。 插件原理: Ecshop默认情况下搜索是根据数据库按搜索的字符串去匹配,不能自动根据需要去自动分词。 例如:你搜索“李宁安踏” 标题里面必须要有“李宁安踏”才能出来, 如果某个商品标题只有“李宁”是不会出来的,这样对于普通的用户是不友好的。 本插件提供的功能: 1.提供一种强大的分词搜索,用户可以不用空格某几个分词,随便打一个句子就可以搜索出对应的结果 2.可以自定义分词。 3.搜索结果自动按照相关度排序,相关度越相关,越排在最前面。 插件为试用版,如果正式使用可以联系作者购买,当前只索引了商品的标题和分类信息,如果需要索引商品详情可以定制化开发,shopex也会有对应的版本。 插件作者 :阿虎 QQ:1976468723 演示地址: 前台:http://ahuoo.com/ec/search.php?encode=YTo0OntzOjg6ImNhdGVnb3J5IjtzOjE6IjAiO3M6ODoia2V5d29yZHMiO3M6MTI6IuiBlOmAmuS4ieaYnyI7czoxMDoiaW1hZ2VGaWVsZCI7czowOiIiO3M6MTg6InNlYXJjaF9lbmNvZGVfdGltZSI7aToxNDQ5MDYxNTAzO30= 后台: http://ahuoo.com/ec/admin 用户名/密码:test/test123
2024-01-20 11:45:51 67KB ecshop
1
庖丁解牛中文分词,速度不错,词库也很全面,非常不错!
2024-01-15 14:26:38 5.83MB 中文分词 lucene
1
中文分词是中文搜索引擎的基础,主要应用在信息检索、信息挖掘、中外文对译、中文校对、自动聚类、自动分类等很多方面. 这个是我参照VC的例子修改的C#版本。
2023-12-24 05:10:17 6.96MB 海量分词 C#接口
1
自己做的一个中文分词,可以用在MONO下。根据IKAnalyzer Java版本移植到C#。采用了Powercollection类库。
2023-12-10 05:01:43 1.92MB 中文分词 LUCENE
1
是一个基于php的中文分词库,很好用的一个中文分词词库,不需要任何的插件支持,直接引入就可以使用。
2023-12-06 09:04:01 10.16MB 中文分词
1