一个开源、高性能的聊天机器人框架,支持语音合成、多模态和可扩展的函数调用插件系统。适合要开发私人聊天机器人的创业项目来作为基础框架起步。 支持一键免费部署您的私人 ChatGPT/LLM Web 应用程序,支持 docker镜像,一键部署,1分钟内完成,无需任何复杂的配置。支持具有视觉识别功能的 OpenAI 最新gpt-4-vision模型, 可以感知视觉的多模态智能。支持文本转语音 (TTS) 和语音转文本 (STT) 技术,使我们的应用程序能够将文本消息转换为清晰的语音输出, 允许用户与对话代理进行交互,就像他们在与真人交谈一样。支持插件模式的拓展,目前已经有一些比较成熟的应用插件在这个平台上。
2024-03-23 01:47:07 1.74MB docker
1
是一个情感分类的项目,前面是对emotion数据集的处理和分析,以及将整个数据集分词以及处理成模型的输入形式。 主要是通过加载一个文本分类的预训练模型,然后在数据集上面进emotion数据集上面的fine-tuning。然后对训练好的模型进行效果的分析,包括F1,Precision和Recall等。 fine-tune transformers distilbert-base-uncased - distilbert 是对 bert 的 distill 而来 - 模型结构更为简单, - bert-base-uncased 参数量:109482240 - distilbert-base-uncased 参数量:66362880 - trainer默认自动开启 torch 的多gpu模式, - `per_device_train_batch_size`: 这里是设置每个gpu上的样本数量, - 一般来说,多gpu模式希望多个gpu的性能尽量接近,否则最终多gpu的速度由最慢的gpu决定, - 比如快gpu 跑一个batch需要5秒。
2023-07-10 16:26:26 658KB bert Transformer fine-tuning LLM
1