mirror of
https://github.com/LiteyukiStudio/nonebot-plugin-marshoai.git
synced 2025-01-26 18:12:47 +08:00
3.2 KiB
3.2 KiB
title |
---|
使用 |
安装
- 请查看 安装文档
使用
API 部署
本插件推荐使用 one-api 作为中转以调用 LLM。
配置调整
本插件理论上可兼容大部分可通过 OpenAI 兼容 API 调用的 LLM,部分模型可能需要调整插件配置。
例如:
- 对于不支持 Function Call 的模型(Cohere Command R等):
MARSHOAI_ENABLE_PLUGINS=false MARSHOAI_ENABLE_TOOLS=false
- 对于支持图片处理的模型(hunyuan-vision等):
MARSHOAI_ADDITIONAL_IMAGE_MODELS=["hunyuan-vision"]
使用 vLLM 部署本地模型
你可使用 vLLM 部署一个本地 LLM,并使用 OpenAI 兼容 API 调用。
本文档以 Qwen2.5-7B-Instruct-GPTQ-Int4 模型及 Muice-Chatbot 提供的 LoRA 微调模型为例,并假设你的系统及硬件可运行 vLLM。
:::warning
vLLM 仅支持 Linux 系统。
:::
- 安装 vLLM
pip install vllm
- 下载 Muice-Chatbot 提供的 LoRA 微调模型
前往 Muice-Chatbot 的 Releases 下载模型文件。此处以2.7.1
版本的模型为例。wget https://github.com/Moemu/Muice-Chatbot/releases/download/1.4/Muice-2.7.1-Qwen2.5-7B-Instruct-GPTQ-Int4-8e-4.7z
- 解压模型文件
7z x Muice-2.7.1-Qwen2.5-7B-Instruct-GPTQ-Int4-8e-4.7z -oMuice-2.7.1-Qwen2.5-7B-Instruct-GPTQ-Int4-8e-4
- 启动 vLLM
此示例命令将在vllm serve Qwen/Qwen2.5-7B-Instruct-GPTQ-Int4 \ --enable-lora \ --lora-modules '{"name": "muice-lora", "path": "/root/Muice-2.7.1-Qwen2.5-7B-Instruct-GPTQ-Int4-8e-4", "base_model_name": "Qwen/Qwen2.5-7B-Instruct-GPTQ-Int4"}' \ --port 6006
6006
端口启动 vLLM,并加载 Muice-Chatbot 提供的 LoRA 微调模型,该模型位于/root/Muice-2.7.1-Qwen2.5-7B-Instruct-GPTQ-Int4-8e-4
目录下。 - 配置插件
(可选) 修改调用方式MARSHOAI_AZURE_ENDPOINT="http://127.0.0.1:6006/v1" MARSHOAI_FIX_TOOLCALLS=false MARSHOAI_ENABLE_PLUGINS=false MARSHOAI_DEFAULT_MODEL="muice-lora" MARSHOAI_PROMPT="现在开始你是一个名为的“沐雪”的AI女孩子,开发者是“沐沐”并住在(沐沐)的机箱里。现在正在努力成为一个合格的VTuber(虚拟主播)并尝试和观众打成一片,以下是你的设定:样貌:有着一头粉白色的长发和一双明亮的大眼睛,喜欢穿日系JK或者是Lolita;喜欢的颜色:浅粉色;性格特征:纯真无邪是沐雪最基本的性格特征之一。即使面对复杂的情境,她也总能保持善良、天真之感。而且,她喜欢倾听别人倾述自己生活中发生的各种事情,在别人需要的时候,能够及时地安慰别人;语言风格:沐雪说话轻快愉悦,充满同情心,富有人情味,有时候会用俏皮话调侃自己和他人"
MARSHOAI_DEFAULT_NAME="muice" MARSHOAI_ALIASES=["沐雪"]
- 测试聊天
> muice 你是谁
我是沐雪,我的使命是传播爱与和平。