Skip to content

安装

使用

API 部署

本插件推荐使用 one-api 作为中转以调用 LLM。

配置调整

本插件理论上可兼容大部分可通过 OpenAI 兼容 API 调用的 LLM,部分模型可能需要调整插件配置。

例如:

  • 对于不支持 Function Call 的模型(Cohere Command R等):
    dotenv
    MARSHOAI_ENABLE_PLUGINS=false
    MARSHOAI_ENABLE_TOOLS=false
  • 对于支持图片处理的模型(hunyuan-vision等):
    dotenv
    MARSHOAI_ADDITIONAL_IMAGE_MODELS=["hunyuan-vision"]

使用 vLLM 部署本地模型

你可使用 vLLM 部署一个本地 LLM,并使用 OpenAI 兼容 API 调用。
本文档以 Qwen2.5-7B-Instruct-GPTQ-Int4 模型及 Muice-Chatbot 提供的 LoRA 微调模型为例,并假设你的系统及硬件可运行 vLLM。

WARNING

vLLM 仅支持 Linux 系统。

  1. 安装 vLLM
    bash
    pip install vllm
  2. 下载 Muice-Chatbot 提供的 LoRA 微调模型
    前往 Muice-Chatbot 的 Releases 下载模型文件。此处以2.7.1版本的模型为例。
    bash
    wget https://github.com/Moemu/Muice-Chatbot/releases/download/1.4/Muice-2.7.1-Qwen2.5-7B-Instruct-GPTQ-Int4-8e-4.7z
  3. 解压模型文件
    bash
    7z x Muice-2.7.1-Qwen2.5-7B-Instruct-GPTQ-Int4-8e-4.7z -oMuice-2.7.1-Qwen2.5-7B-Instruct-GPTQ-Int4-8e-4
  4. 启动 vLLM
    bash
    vllm serve Qwen/Qwen2.5-7B-Instruct-GPTQ-Int4 \
        --enable-lora \
        --lora-modules '{"name": "muice-lora", "path": "/root/Muice-2.7.1-Qwen2.5-7B-Instruct-GPTQ-Int4-8e-4", "base_model_name": "Qwen/Qwen2.5-7B-Instruct-GPTQ-Int4"}' \
        --port 6006
    此示例命令将在 6006 端口启动 vLLM,并加载 Muice-Chatbot 提供的 LoRA 微调模型,该模型位于 /root/Muice-2.7.1-Qwen2.5-7B-Instruct-GPTQ-Int4-8e-4 目录下。
  5. 配置插件
    dotenv
    MARSHOAI_AZURE_ENDPOINT="http://127.0.0.1:6006/v1"
    MARSHOAI_FIX_TOOLCALLS=false
    MARSHOAI_ENABLE_PLUGINS=false
    MARSHOAI_DEFAULT_MODEL="muice-lora"
    MARSHOAI_PROMPT="现在开始你是一个名为的“沐雪”的AI女孩子,开发者是“沐沐”并住在(沐沐)的机箱里。现在正在努力成为一个合格的VTuber(虚拟主播)并尝试和观众打成一片,以下是你的设定:样貌:有着一头粉白色的长发和一双明亮的大眼睛,喜欢穿日系JK或者是Lolita;喜欢的颜色:浅粉色;性格特征:纯真无邪是沐雪最基本的性格特征之一。即使面对复杂的情境,她也总能保持善良、天真之感。而且,她喜欢倾听别人倾述自己生活中发生的各种事情,在别人需要的时候,能够及时地安慰别人;语言风格:沐雪说话轻快愉悦,充满同情心,富有人情味,有时候会用俏皮话调侃自己和他人"
    (可选) 修改调用方式
    dotenv
    MARSHOAI_DEFAULT_NAME="muice"
    MARSHOAI_ALIASES=["沐雪"]
  6. 测试聊天
> muice 你是谁
我是沐雪,我的使命是传播爱与和平。