NLPCC2016-WordSeg-微博 NLPCC 2016微博分词评估项目 ##任务说明 单词是自然语言理解的基本单元。 但是,中文句子由连续的汉字组成,没有自然的分隔符。 因此,中文分词已成为中文自然语言处理的首要任务,它可以识别句子中单词的顺序并标记单词之间的边界。 与流行的二手新闻数据集不同,我们使用了来自新浪微博的更多非正式文章。 培训和测试数据包含来自各个主题的微博,例如金融,体育,娱乐等。 每个参与者都可以提交三个运行:封闭式运行,半开放式运行和开放式运行。 在封闭的轨道上,参与者只能使用在提供的培训数据中找到的信息。 排除了诸如从外部获得的字数,部分语音信息或姓名列表之类的信息。 在半公开赛道中,除了提供的训练数据之外,参与者还可以使用从提供的背景数据中提取的信息。 排除了诸如从外部获得的字数,部分语音信息或姓名列表之类的信息。 在公开赛道上,参与者可以使用应该
1
质量检查系统 实施质量检查体系。 这是NLPCC-ICCPOL共享任务“开放域问题解答”的代码。 任务包括两部分: kbqa和dbqa ,前者是在给定知识库的情况下实施QA系统,而后者则需要从问题的给定文档中选择句子作为答案。 对于dbqa任务,我们使用LSTM层对问题进行编码,并使用另一个LSTM层对答案进行编码,然后计算这两个向量之间的角度。 如果答案和问题成对,我们希望这两个向量方向相同,否则让它们彼此垂直。 最后,对于新的一对问答,请根据其隐藏表示的角度对它们进行分类。 我们将Keras与Theano后端一起使用来运行LSTM。 对于kbqa任务,我们使用基准程序来识别语料库中的所有提及,然后使用一些手工制定的规则来识别给定问题中的实体。 此后,我们使用mention2id.py查找当前提及的所有可能的ID。 最后,计算当前问题与所有可能的ID以及这些ID的属性之间的相似度,
2022-02-28 12:48:42 3.58MB 系统开源
1
NLPCC2014,任务2,基于深度学习的情感分析中文任务,训练语料正负各5000条,测试语料正负各1250条。
2021-12-14 00:49:44 1.12MB NLPCC 情感分析
1
这是我们团队(Zlbnlp)用于NLPCC 2018共享任务2语法错误纠正的代码。 用法 先决条件 python3.6 pytorch0.2.0(使用以下命令从源代码安装) export CMAKE_PREFIX_PATH= " $( dirname $( which conda ) ) /../ " # [anaconda root directory] conda install numpy pyyaml mkl mkl-include setuptools cmake cffi typing conda install -c mingfeima mkldnn conda install -c pytorch magma-cuda80 git clone https://github.com/pytorch/pytorch.git cd pytorch git reset --ha
2021-11-29 21:22:40 2.46MB Python
1
第六届CCF自然语言处理和中文计算会议(NLPCC 2017)
2021-10-12 10:56:09 57.59MB 数据集
1
自动摘要数据集
2021-08-17 09:13:54 138.97MB 数据集
1
NLPCC2014task1和task2数据集资源NLPCC2014task1和task2数据集资源NLPCC2014task1和task2数据集资源NLPCC2014task1和task2数据集资源NLPCC2014task1和task2数据集资源NLPCC2014task1和task2数据集资源NLPCC2014task1和task2数据集资源NLPCC2014task1和task2数据集资源NLPCC2014task1和task2数据集资源NLPCC2014task1和task2数据集资源NLPCC2014task1和task2数据集资源NLPCC2014task1和task2数据集资源
2021-08-14 10:53:43 13.75MB nlpcc 2014 任务1 任务2
1
Task 7 - Open Domain Question Answering In this year’s NLPCC open domain QA share task, we focus on KNOWLEDGE and propose three sub-tasks, including (a) knowledge-based question answering (KBQA), (b) knowledge-based question generation (KBQG), and (c) knowledge-based question understanding (KBQU). The task of KBQA is to answer natural language questions based on a given knowledge base. The task of KBQG is to generate natural language questions based on given knowledge base triples. The task of KBQU is to transform natural language questions into their corresponding logical forms. The first two sub-tasks are in Chinese, while the last sub-task is in English.
2021-05-10 14:48:05 694.91MB KG
1
训练数据在这里https://download.csdn.net/download/guotong1988/10313309
2021-05-10 14:25:07 76KB NLP
1
包含15年Natural Language Processing and Chinese Computing所有论文
2021-05-09 20:20:22 39.37MB NLP Deep Learnin LSTM
1