五分钟创建一个 Serverless ChatGPT GitHub App

原创
2023/03/29 19:34
阅读数 2.2K

自从 OpenAI 在2023年3月发布了 ChatGPT 的官方 API插件系统以来,许多开发者和创业者都兴致勃勃地想办法将其整合到自己的业务中。

本文讨论的 serverless 函数相当于 ChatGPT 插件。 它们由 Web 事件触发,可以检索实时信息以输入 ChatGPT,使用动态提示词问询 ChatGPT,然后通过外向的 Web 服务调用执行实际操作。

但是,想要集成 ChatGPT,仍然困难重重:

  • OpenAI为 ChatGPT 提供了一个简单的无状态 API。开发者需要在应用程序管理的缓存或数据库中跟踪每个对话的历史和上下文。开发者还需要管理和保护 API 密钥。这里有很多与应用程序业务逻辑无关的 boilerplate 代码。
  • ChatGPT API 应用程序的“自然”用户界面是 thread 聊天。但在传统的网络或应用程序框架中创建“聊天界面”是非常困难的。实际上,最常用的聊天界面已经存在于诸如 Slack、Discord 乃至论坛(例如 GitHub Discussions)这样的消息应用中。我们需要一种简单的方法将 ChatGPT 的 API 响应连接到现有的消息服务中。
  • ChatGPT 插件编程起来比较复杂,在很重的虚拟机中部署成本高昂。

本文将展示如何用 serverless 函数创建一个完整的 ChatGPT 应用程序。它是个 GitHub 机器人。 与 ChatGPT 插件一样,该机器人使 ChatGPT 能够实时读取和写入互联网。

有了这个机器人, GitHub 用户就能在 GitHub Issues 中与 ChatGPT 进行对话。 可以通过提新的 issue 或在已有的 issue 的下面发表评论,来和 ChatGPT 聊天。 换句话说,这个项目使用 GitHub Issues 的 thread 消息 UI 作为它聊天的 UI。

图1. 用 ChatGPT 学习Rust编程。

查看示例: https://github.com/second-state/chat-with-chatgpt/issues/31

该机器人是用 Rust 编写的 serverless 函数。只需 fork 该 example 模版,将你的 fork 部署到 flows.network 上,并配置你的 GitHub repo 和 OpenAI 密钥。 只需 5 分钟,就能拥有一个功能齐全的 GitHub 机器人。无需设置 Web 服务器、为 GitHub API 设置 Webhook、或设置缓存/数据库服务器。

Fork 模板 Repo

首先,从GitHub fork 该模版repo

src/lib.rs 文件包含 bot 应用 (也称为 flow 函数)。run() 函数在启动时就被调用。它从 GitHub repo owner/repo 监听 issue_commentissues事件。 这些事件会出现在 repo 中创建新 issue 或新 issue 评论时。

#[no_mangle]
#[tokio::main(flavor = "current_thread")]
pub async fn run() {
    // Setup variables for
    //   login: GitHub account for the bot (typically just your personal account)
    //   owner: GitHub org (or user) to install the bot
    //   repo:  GitHub repo to install the bot
    //   openai_key_name: Name for your OpenAI API key
    // All the values can be set in the source code or as env vars
    
    listen_to_event(&login, &owner, &repo, vec!["issue_comment", "issues"], |payload| {
        handler(&login, &owner, &repo, &openai_key_name, payload)
    })
    .await;
}

handler() 函数处理 listen_to_event() 接收到的事件。 如果事件是 issue 中的新评论,则机器人会调用 OpenAI 的 ChatGPT API 将评论文本添加到由 issue.number 标识的现有对话中。 它收到来自 ChatGPT 的响应,并添加到 issue 的评论。

此处的 flow 函数自动并透明地管理本地存储中与 ChatGPT API 的对话历史记录。 OpenAI API 密钥也存储在本地存储中,因而可以通过 openai_key_name 中的字符串名称来识别密钥,而不必将密钥放在源代码中。

EventPayload::IssueCommentEvent(e) => {
    if e.comment.user.r#type != "Bot" {
        if let Some(b) = e.comment.body {
            if let Some(r) = chat_completion (
                    openai_key_name,
                    &format!("issue#{}", e.issue.number),
                    &b,
                    &ChatOptions::default(),
            ) {
                if let Err(e) = issues.create_comment(e.issue.number, r.choice).await {
                    write_error_log!(e.to_string());
                }
            }
        }
    }
}

如果事件是一个新的 issue,flow 函数创建一个新的对话,由 issue.number识别,并向 ChatGPT 请求响应。

EventPayload::IssuesEvent(e) => {
if e.action == IssuesEventAction::Closed {
return;
}
let title = e.issue.title;
let body = e.issue.body.unwrap_or("".to_string());
let q = title + "\n" + &body;
if let Some(r) = chat_completion (
            openai_key_name,
&format!("issue#{}", e.issue.number),
&q,
&ChatOptions::default(),
) {
if let Err(e) = issues.create_comment(e.issue.number, r.choice).await {
write_error_log!(e.to_string());
}
}
}

如何部署 Serverless Flow 函数

可以看到,flow 函数代码调用 SDK API 来执行复杂的操作。 例如

  • listen_to_event() 函数通过 GitHub API 注册一个 webhook URL,从而 handler() 函数会在 GitHub 发生特定事件时被调用。
  • The chat_completion() 函数使用命名的 API 密钥和指定对话的历史(上下文)调用 ChatGPT API。 API 密钥和对话历史记录存储在 Redis 缓存中。

Webhook 服务器和 Redis 缓存都是 SDK 依赖的外部服务。 这意味着 flow 函数必须在提供此类外部服务的托管 host 环境中运行。 Flows.network 是 flow 函数 SDK 的 PaaS(平台即服务)host。

为了在 flows.network 上部署 flow 函数,只需将其源代码导入 PaaS。

首先,从你的 GitHub 账号登录 flows.network。 导入你刚刚 fork 的包含 flow 函数源代码的 GitHub repo,并选择 “ Advanced”。

请注意,不是选要部署机器人的 GitHub repo;而是选择你 fork 的 flow函数源代码的 repo chatgpt-github-app

点击 Advanced 来查看更多设置。

设置环境变量以将 flow 函数指向 OpenAI API 密钥名称 (openai_name_key) 和 GitHub repo (login, ownerrepo)。

此处的 GitHub ownerrepo 变量指向你要部署机器人的 GitHub repo,而不是 flow 函数源代码的 repo。 login变量是机器人的 GitHub 账号。 它通常只是您的个人 GitHub 账号。 login 账号必须有权访问上述 owner/repo。

图 3. 为要部署机器人的 GitHub repo 设置环境变量,以及 OpenAI API 密钥名称。

Flows.network 将 fetch 源代码并使用标准的 cargo 工具链将 Rust 源代码构建为 Wasm 字节码。 然后在 WasmEdge Runtime 中运行 Wasm flow 函数。

如何将 Flow 函数连接到 GitHub 和 OpenAI

虽然 flow 函数需要连接到 OpenAI 和 GitHub API,但源代码没有写死的 API 密钥、访问令牌或 OAUTH 逻辑。 flow 函数 SDK 使开发者可以轻松、安全地与外部 SaaS API 服务进行交互。

Flows.network 发现 flow 函数要求连接到 OpenAI 和 GitHub API。flows 平台为开发者提供了 UI 工作流,让开发者能够:

  • 登录 GitHub,授权访问事件,并将 flow 函数注册为用于接收这些事件的 webhook。
  • 将 OpenAI API 密钥与名称 openai_key_name相关联。

图 4. flow 函数所需的外部服务

外部 SaaS API 成功连接并得到授权后,flow 函数 dashboard 上的紫色 “Connected”变成灰色。 flow 函数现在将接收 listen_to_event() 的事件。 它还将获得对 Redis 的透明访问以获取指定的 OpenAI API 密钥和缓存的对话上下文,从而支持 chat_completion() SDK 函数。

下一步

flows.network 支持连接各种 SaaS 的不同机器人,GitHub 机器人只是其中之一。通过将 flow 函数连接到 Slack 频道,就可以将 ChatGPT 加到你的群聊天。 下面是一个基于 Slack 的 ChatGPT 机器人的示例。你可以参加代码 Repo 里的 readme 文件,自己部署这个函数。

代码链接:https://github.com/flows-network/collaborative-chat

图 5. Slack ChatGPT 机器人

另一个例子是让 ChatGPT 在 Slack 频道中回答法律问题。 flow 函数里面可以规定好 prompt ——说明 ChatGPT 需要充当法律顾问回答法律咨询。你可以参加代码 Repo 里的 readme 文件,自己部署这个函数。

代码链接:https://github.com/flows-network/robo-lawyer

图 6. 基于 ChatGPT 的 Slack 律师机器人

除了 GitHub 和 Slack,还有许多 SaaS 产品可以通过其 API 集成到 flows.network 中。除了 Rust 支持,JavaScript 的支持也在路上了。

展开阅读全文
加载中
点击引领话题📣 发布并加入讨论🔥
0 评论
1 收藏
0
分享
返回顶部
顶部