chatbot_simbert 检索类型的微信聊天机器人/问答系统,通过API异步通信,实现在微信上交互,可以查询天气、重复问句识别等情况;本项目包括模型和工程化部署一体化。用到SimBert等模型。 描述 各位可以根据自己的需求部署或修改: 问答库如果是任务型的,就是一个任务型聊天机器人,如果闲聊的问答库,那就是闲聊型聊天机器人; 后续也可以添加意图,用来用意图识别的匹配;也可以添加个知识图谱的API... 总之可以添加的模块很多,扩展性非常强大。 品尝方式(使用说明) 准备: 环境准备:安装requirement中的依赖包 下载模型,并放置在code/1.retrieve_match/3.simbert_match/config路径下: simbert模型: 启动: 1、 启动code/2.API_serve/KG_service.py 2、 启动code/3.wx_project/c
2024-04-07 10:07:55 1.23MB Python
1
BERT+BiLSTM+CRF是一种用于命名实体识别(Named Entity Recognition, NER)的深度学习模型。其中,BERT(Bidirectional Encoder Representations from Transformers)是一种预训练的语言模型,用于捕捉上下文信息;BiLSTM(双向长短时记忆网络)用于处理序列数据;CRF(条件随机场)用于解决标签偏置问题,提高模型的预测准确性。 在训练过程中,需要将输入数据转换为适当的格式,并使用适当的损失函数和优化器进行训练。在推理阶段,可以使用训练好的模型对新的文本进行命名实体识别。
2024-03-08 14:14:58 1.03MB pytorch pytorch 自然语言处理 bert
1
人工智能深度学习,语音克隆项目 Bert-vits2项目,目前效果最完美的开源TTS项目 版本号:2.3 文件包括,模型本体G_6000.pth 配置文件config.json 天童爱丽丝语音模型,语言:日语,训练步数:6000 语气韵律完美,抑扬顿挫,语笑嫣然,自然流畅,适合作为小说阅读、口播、口替等功能领域。 请勿用于非法用途,也不得用作商业领域。
2024-01-18 16:52:56 576.78MB 深度学习 bert
1
twitter_sentiment_bert_scikit Twitter美国航空数据集情感分析(情感分析),使用Bert句子编码作为特征,实现了SVM,XGBoost,RandomForest(随机森林)等多个分类算法,从而进行了交叉验证。 数据来自 预安装 我们在Python 3环境中运行该项目,建议您使用Anaconda 3通过以下脚本安装所需的软件包。 当然,您可以使用pip进行安装。 conda create -n tweet_sentiment -c anaconda python=3.7 numpy scikit-learn xgboost pandas tensorflo
1
SoftMaskedBert Soft-Masked Bert 复现论文:
2023-10-13 17:34:36 9KB Python
1
基于bert的韵律预训练模型,用于中文语音生成,生成自然韵律的声音,听起来效果更加自然流畅
2023-10-08 09:46:00 362.87MB bert 韵律 语音合成
1
详细介绍文章地址: https://blog.csdn.net/c851666395/article/details/127703876
2023-09-27 15:08:08 377.36MB nlp
1
是一个情感分类的项目,前面是对emotion数据集的处理和分析,以及将整个数据集分词以及处理成模型的输入形式。 主要是通过加载一个文本分类的预训练模型,然后在数据集上面进emotion数据集上面的fine-tuning。然后对训练好的模型进行效果的分析,包括F1,Precision和Recall等。 fine-tune transformers distilbert-base-uncased - distilbert 是对 bert 的 distill 而来 - 模型结构更为简单, - bert-base-uncased 参数量:109482240 - distilbert-base-uncased 参数量:66362880 - trainer默认自动开启 torch 的多gpu模式, - `per_device_train_batch_size`: 这里是设置每个gpu上的样本数量, - 一般来说,多gpu模式希望多个gpu的性能尽量接近,否则最终多gpu的速度由最慢的gpu决定, - 比如快gpu 跑一个batch需要5秒。
2023-07-10 16:26:26 658KB bert Transformer fine-tuning LLM
1
在Pyrotch上实现情感分类模型,包含一个BERT 模型和一个分类器(MLP),两者间有一个dropout层。BERT模型实现了预训练参数加载功能,预训练的参数使用HuggingFace的bert_base_uncased模型。同时在代码中实现了基于预训练BERT模型的下游情感分类任务的fine_tune,包含了训练集上的训练、测试集上测试评估性能等内容。 情感分类的大致过程为:首先,将一个句子中的每个单词对应的词向量输入BERT,得到句子的向量表征。然后将句向量经过dropout层再输入分类器,最后输出二元分类预测。
2023-05-15 21:48:36 14KB 自然语言处理 pytorch bert finetune
1