nonebot2/docs/guide/tuling.md
2018-08-21 00:30:39 +08:00

9.4 KiB
Raw Blame History

接入图灵机器人

到目前为止我们已经编写了一个相对完整的天气查询插件,包括命令和自然语言处理器,除此之外,使用同样的方法,还可以编写更多功能的插件。

但这样的套路存在一个问题,如果我们不是专业的 NLP 工程师,开放话题的智能聊天仍然是我们无法自己完成的事情,用户只能通过特定插件所支持的句式来使用相应的功能,当用户试图使用我们暂时没有开发的功能时,我们的机器人显得似乎有些无能为力。

不过还是有解决方案的,市面上有一些提供智能聊天机器人接口的厂商,本章我们以 图灵机器人 为例,因为它的使用比较广泛,接入也比较简单,不过缺点是免费调用次数比较少。

::: tip 提示 本章的完整代码可以在 awesome-bot-4 查看。 :::

注册图灵机器人账号

首先前往 图灵机器人官网 注册账号,然后在「机器人管理」页根据它的提示创建机器人,可以设置机器人名字、属性、技能、语料库等。

注册完成后先放一边,或者如果有兴趣的话,在网页上的聊天窗口和它聊几句看看效果。

编写图灵机器人插件

新建 awesome/plugins/tuling.py 文件,编写如下内容:

import json
from typing import Optional

import aiohttp
from aiocqhttp.message import escape
from none import on_command, CommandSession
from none import on_natural_language, NLPSession, NLPResult
from none.helpers import context_id

# 定义无法获取图灵回复时的「表达Expression
EXPR_DONT_UNDERSTAND = (
    '我现在还不太明白你在说什么呢,但没关系,以后的我会变得更强呢!',
    '我有点看不懂你的意思呀,可以跟我聊些简单的话题嘛',
    '其实我不太明白你的意思……',
    '抱歉哦,我现在的能力还不能够明白你在说什么,但我会加油的~'
)


# 注册一个仅内部使用的命令,不需要 aliases
@on_command('tuling')
async def tuling(session: CommandSession):
    # 获取可选参数,这里如果没有 message 参数命令不会被中断message 变量会是 None
    message = session.get_optional('message')

    # 通过封装的函数获取图灵机器人的回复
    reply = await call_tuling_api(session, message)
    if reply:
        # 如果调用图灵机器人成功,得到了回复,则转义之后发送给用户
        # 转义会把消息中的某些特殊字符做转换,以避免酷 Q 将它们理解为 CQ 码
        await session.send(escape(reply))
    else:
        # 如果调用失败,或者它返回的内容我们目前处理不了,发送无法获取图灵回复时的「表达」
        # session.send_expr() 内部会调用 none.expression.render()
        # 该函数会将一个「表达」渲染成一个字符串消息
        await session.send_expr(EXPR_DONT_UNDERSTAND)


@on_natural_language
async def _(session: NLPSession):
    # 以置信度 60.0 返回 tuling 命令
    # 确保任何消息都在且仅在其它自然语言处理器无法理解的时候使用 tuling 命令
    return NLPResult(60.0, 'tuling', {'message': session.msg_text})


async def call_tuling_api(session: CommandSession, text: str) -> Optional[str]:
    # 调用图灵机器人的 API 获取回复

    if not text:
        return None

    url = 'http://openapi.tuling123.com/openapi/api/v2'

    # 构造请求数据
    payload = {
        'reqType': 0,
        'perception': {
            'inputText': {
                'text': text
            }
        },
        'userInfo': {
            'apiKey': session.bot.config.TULING_API_KEY,
            'userId': context_id(session.ctx, use_hash=True)
        }
    }

    group_unique_id = context_id(session.ctx, mode='group', use_hash=True)
    if group_unique_id:
        payload['userInfo']['groupId'] = group_unique_id

    try:
        # 使用 aiohttp 库发送最终的请求
        async with aiohttp.ClientSession() as sess:
            async with sess.post(url, json=payload) as response:
                if response.status != 200:
                    # 如果 HTTP 响应状态码不是 200说明调用失败
                    return None

                resp_payload = json.loads(await response.text())
                if resp_payload['results']:
                    for result in resp_payload['results']:
                        if result['resultType'] == 'text':
                            # 返回文本类型的回复
                            return result['values']['text']
    except (aiohttp.ClientError, json.JSONDecodeError, KeyError):
        # 抛出上面任何异常,说明调用失败
        return None

上面这段代码比较长,而且有一些新出现的函数和概念,我们后面会慢慢地详解,不过现在先在 config.py 中添加一项:

TULING_API_KEY = ''

TULING_API_KEY 的值填图灵机器人的「机器人设置」页面最下方提供的 API Key。

配置完成后来运行 NoneBot尝试给机器人随便发送一条消息看看它是不是正确地获取了图灵机器人的回复。

理解自然语言处理器

我们先来理解代码中最简单的部分:

@on_natural_language
async def _(session: NLPSession):
    return NLPResult(60.0, 'tuling', {'message': session.msg_text})

根据我们前面一章中已经知道的用法,这里就是直接返回置信度为 60.0 的 tuling 命令。之所以返回置信度 60.0,是因为自然语言处理器所返回的结果最终会按置信度排序,取置信度最高且大于等于 60.0 的结果来执行。把置信度设为 60.0 可以保证一条消息无法被其它自然语言处理器理解的时候 fallback 到 tuling 命令。

理解图灵机器人接口的 HTTP 调用

图灵机器人接口的调用也非常简单,虽然看起来代码挺多,但新的概念并不多。

async def call_tuling_api(session: CommandSession, text: str) -> Optional[str]:
    if not text:
        return None

    url = 'http://openapi.tuling123.com/openapi/api/v2'

    # 构造请求数据
    payload = {
        'reqType': 0,
        'perception': {
            'inputText': {
                'text': text
            }
        },
        'userInfo': {
            'apiKey': session.bot.config.TULING_API_KEY,
            'userId': context_id(session.ctx, use_hash=True)
        }
    }

    group_unique_id = context_id(session.ctx, mode='group', use_hash=True)
    if group_unique_id:
        payload['userInfo']['groupId'] = group_unique_id

    try:
        async with aiohttp.ClientSession() as sess:
            async with sess.post(url, json=payload) as response:
                if response.status != 200:
                    # 如果 HTTP 响应状态码不是 200说明调用失败
                    return None

                resp_payload = json.loads(await response.text())
                if resp_payload['results']:
                    for result in resp_payload['results']:
                        if result['resultType'] == 'text':
                            # 返回文本类型的回复
                            return result['values']['text']
    except (aiohttp.ClientError, json.JSONDecodeError, KeyError):
        # 抛出上面任何异常,说明调用失败
        return None

这里的代码主要需要参考 图灵机器人的官方 API 文档

构造请求数据

第一段高亮部分是根据图灵机器人的文档构造请求数据,其中有两个需要注意的地方:第 16、17 和 21 行。

第 16 行通过 session.bot.config 访问了 NoneBot 的配置对象,session.bot 就是当前正在运行的 NoneBot 对象,你在其它任何地方都可以这么用(前提是已经调用过 none.init())。

第 17 和 21 行调用了 context_id() 函数,这是 none.helpers 模块中提供的一个函数,用于计算 Context 的独特 ID有三种模式可以选择通过 mode 参数传入):defaultgroupuser,默认 default,它们的效果如下表:

模式 效果
default 每个用户在每个群、讨论组和私聊都对应不同的 ID
group 每个群或讨论组内的成员共用一个 ID私聊仍按用户区分
user 每个用户对应不同的 ID但不区分用户是在私聊还是群或讨论组

context_id() 函数还提供 use_hash 参数可选地将计算出的 ID 进行 MD5 哈希,以适应某些应用场景。

发送请求

第二段高亮的代码是使用 aiohttp 发送 HTTP POST 请求给图灵机器人,并获取它的回复,这段其实没有什么跟 NoneBot 有关的东西,请参考前面给出的图灵机器人的官方 API 文档,里面详细解释了每个返回字段的含义。

理解命令处理器

命令处理器这部分虽然代码比较少,但引入了不少新的概念。

@on_command('tuling')
async def tuling(session: CommandSession):
    message = session.get_optional('message')
    reply = await call_tuling_api(session, message)
    if reply:
        await session.send(escape(reply))
    else:
        await session.send_expr(EXPR_DONT_UNDERSTAND)

未完待续……