中文分词之9577组同义词

标签: word | 发表时间:2015-04-30 13:15 | 作者:
出处:http://my.oschina.net/apdplat

这9577组同义词出自 Java分布式中文分词组件 - word分词,这里列出50组同义词,更多同义词请看 这里

一一 逐一
一下子 一会儿
一丝不动 纹丝不动
一举成名 一鸣惊人
一乾二净 六根清净
一人得道 鸡犬升天
一再 几回再三
一古脑儿 一股脑儿
一叶知秋 尝鼎一脔
一名 一位
一呼百应 一呼百诺
一呼百诺 前呼后拥
一命呜呼 与世长辞
一唱一和 遥相呼应
一块儿 一起
一壁 一面
一声不响 一言不发
一孔之见 一知半解
一定 必然
一尘不染 一乾二净
一帆风顺 风平浪静
一往无前 勇往直前
一往直前 百折不回
一律 一概
一得之愚 一孔之见
一意孤行 独行其是
一成不变 原封不动
一扫而光 一网打尽
一扫而空 一网打尽
一拥而上 蜂拥而上
一掷千金 挥金如土
一无可取 一无是处
一无所取 一无是处
一无所得 一无所获
一日三餐 每日三餐
一日千里 进步神速
一时哄动 哄传一时
一晚上 一夜
一枕黄粱 南柯一梦
一样平常 一般 日常
一槌定音 一锤定音
一模一样 如出一辙
一泻千里 一落千丈
一清二楚 一览无余
一生 平生
一目十行 目下十行
一直 一向
一矢之地 弹丸之地
一石二鸟 一举两得
一穷二白 一贫如洗


相关 [中文分词 同义词] 推荐:

中文分词之9577组同义词

- - 杨尚川的个人页面
这9577组同义词出自 Java分布式中文分词组件 - word分词,这里列出50组同义词,更多同义词请看 这里.

Jcseg java中文分词器

- - 企业架构 - ITeye博客
Jcseg[dʒɛ'​ke'sɛ]完整版本(源码, 词库, 帮助文档, 词库管理工具, jar文件)下载:  http://sourceforge.net/projects/jcseg . jcseg是使用Java开发的一个开源中文分词器,使用流行的mmseg算法实现,并且提供了最高版本的lucene, solr, elasticsearch(New)的分词接口..

细说中文分词

- - 标点符
完整的中文自然语言处理过程一般包括以下五种中文处理核心技术:分词、词性标注、命名实体识别、依存句法分析、语义分析. 其中,分词是中文自然语言处理的基础, 搜素引擎、文本挖掘、机器翻译、关键词提取、 自动摘要生成等等技术都会用到中文分词,包括最近在学习的 聊天机器人、 文本相似性等. 可以说分词是自然语言大厦的地基,下面就让我们从它开始谈起.

同义词反馈机制

- - IT技术博客大学习
标签:   反馈   同义词.     由于搜索算法本身的局限性,对于用户的语义、意图等理解不够,而基于用户行为的点击调权,作为对传统搜索算法的补充,在搜索中扮演着重要的作用. 尽管用户行为已经被证明在搜索中的效果,但是一直只是停留在query-url层面,或者ngram-url层面[1],没有深入反馈到检索算法中的基础策略,比如:同义词、紧密度、省略等,这些策略影响了url与query之间的关系.

oracle同义词与dblink

- - 数据库 - ITeye博客
           Oracle同义词(synonyms).         从字面上理解就是别名的意思,和视图的功能类似,就是一种映射关系. 这种映射关系体现在同个数据库中通过表别名进行访问,也体现在访问远程数据库中某张表,这时候就需要创建dblink.         同义词创建权限       .

漫话中文分词算法

- dumin - Matrix67: My Blog
    记得第一次了解中文分词算法是在 Google 黑板报 上看到的,当初看到那个算法时我彻底被震撼住了,想不到一个看似不可能完成的任务竟然有如此神奇巧妙的算法. 最近在詹卫东老师的《中文信息处理导论》课上再次学到中文分词算法,才知道这并不是中文分词算法研究的全部,前前后后还有很多故事可讲. 在没有建立统计语言模型时,人们还在语言学的角度对自动分词进行研究,期间诞生了很多有意思的理论.

再说中文分词技术

- - 标点符
众所周知,英文是以词为单位的,词和词之间是靠空格隔开,而中文是以字为单位,句子中所有的字连起来才能描述一个意思. 例如,英文句子I am a student,用中文则为:“我是一个学生”. 计算机可以很简单通过空格知道student是一个单词,但是不能很容易明白“学”、“生”两个字合起来才表示一个词.

中文分词算法代码大全

- - 鲁塔弗的博客
做中文搜索,关键词提取,文档分类都离不开中文分词,能用的代码包有如下. 单字切分 sphinx只要把min_word_len设置为1,并配置charset_table,默认就是单字切分,lucene用StandardAnalyzer. CJKAnalyzer lucene自带,两两分词,就是把 ABCD 分成 AB,BC,CD 3段.

java中文分词组件-word分词

- - 研发管理 - ITeye博客
关键字:java中文分词组件-word分词. word分词器主页 :https://github.com/ysc/word. word分词是一个Java实现的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义. 能准确识别英文、数字,以及日期、时间等数量词,能识别人名、地名、组织机构名等未登录词.

ElasticSearch中文分词ik安装

- - ITeye博客
下载编译好的安装包,解压缩就可以直接使用. 自己编译的版本在安装插件时可能会出现一些问题. 上面这一步很简单,没有出现任何问题就通过了,然而在安装ik时走了很多弯路,为防止今后出现类似情况将此次安装过程中出现的问题记录下来. 从elasticsearch-rtf中下载的elasticsearch-analysis-ik-1.2.6.jar直接拷贝到.