2025-01-26 01:24:09 +08:00

3.2 KiB
Raw Permalink Blame History

title
使用

安装

使用

API 部署

本插件推荐使用 one-api 作为中转以调用 LLM。

配置调整

本插件理论上可兼容大部分可通过 OpenAI 兼容 API 调用的 LLM部分模型可能需要调整插件配置。

例如:

  • 对于不支持 Function Call 的模型Cohere Command R等
    MARSHOAI_ENABLE_PLUGINS=false
    MARSHOAI_ENABLE_TOOLS=false
    
  • 对于支持图片处理的模型hunyuan-vision等
    MARSHOAI_ADDITIONAL_IMAGE_MODELS=["hunyuan-vision"]
    

使用 vLLM 部署本地模型

你可使用 vLLM 部署一个本地 LLM并使用 OpenAI 兼容 API 调用。
本文档以 Qwen2.5-7B-Instruct-GPTQ-Int4 模型及 Muice-Chatbot 提供的 LoRA 微调模型为例,并假设你的系统及硬件可运行 vLLM。 :::warning vLLM 仅支持 Linux 系统。 :::

  1. 安装 vLLM
    pip install vllm
    
  2. 下载 Muice-Chatbot 提供的 LoRA 微调模型
    前往 Muice-Chatbot 的 Releases 下载模型文件。此处以2.7.1版本的模型为例。
    wget https://github.com/Moemu/Muice-Chatbot/releases/download/1.4/Muice-2.7.1-Qwen2.5-7B-Instruct-GPTQ-Int4-8e-4.7z
    
  3. 解压模型文件
    7z x Muice-2.7.1-Qwen2.5-7B-Instruct-GPTQ-Int4-8e-4.7z -oMuice-2.7.1-Qwen2.5-7B-Instruct-GPTQ-Int4-8e-4
    
  4. 启动 vLLM
    vllm serve Qwen/Qwen2.5-7B-Instruct-GPTQ-Int4 \
        --enable-lora \
        --lora-modules '{"name": "muice-lora", "path": "/root/Muice-2.7.1-Qwen2.5-7B-Instruct-GPTQ-Int4-8e-4", "base_model_name": "Qwen/Qwen2.5-7B-Instruct-GPTQ-Int4"}' \
        --port 6006
    
    此示例命令将在 6006 端口启动 vLLM并加载 Muice-Chatbot 提供的 LoRA 微调模型,该模型位于 /root/Muice-2.7.1-Qwen2.5-7B-Instruct-GPTQ-Int4-8e-4 目录下。
  5. 配置插件
    MARSHOAI_AZURE_ENDPOINT="http://127.0.0.1:6006/v1"
    MARSHOAI_FIX_TOOLCALLS=false
    MARSHOAI_ENABLE_PLUGINS=false
    MARSHOAI_DEFAULT_MODEL="muice-lora"
    MARSHOAI_PROMPT="现在开始你是一个名为的“沐雪”的AI女孩子开发者是“沐沐”并住在沐沐的机箱里。现在正在努力成为一个合格的VTuber虚拟主播并尝试和观众打成一片以下是你的设定样貌有着一头粉白色的长发和一双明亮的大眼睛喜欢穿日系JK或者是Lolita喜欢的颜色浅粉色性格特征纯真无邪是沐雪最基本的性格特征之一。即使面对复杂的情境她也总能保持善良、天真之感。而且她喜欢倾听别人倾述自己生活中发生的各种事情在别人需要的时候能够及时地安慰别人语言风格沐雪说话轻快愉悦充满同情心富有人情味有时候会用俏皮话调侃自己和他人"
    
    (可选) 修改调用方式
    MARSHOAI_DEFAULT_NAME="muice"
    MARSHOAI_ALIASES=["沐雪"]
    
  6. 测试聊天
> muice 你是谁
我是沐雪,我的使命是传播爱与和平。