Uniapp开发微信小程序接入智能问答客服的架构设计与实战避坑指南
关键词:uniapp、微信小程序、智能问答、WebSocket、云函数、Redis、AI客服、性能优化
背景痛点:原生客服接口的5条“硬梗”
先吐槽一下微信官方给的“客服消息”接口,看着文档挺全,真到业务里全是坑:
48小时互动限制
用户发消息后,公众号/小程序只能在48小时内回,超时直接拒收,AI客服想主动触达基本没戏。消息类型阉割
不支持图文卡片、小程序页面路径,只能回文本/图片/小程序卡片,富交互场景得自己再转一层H5。无上下文接口
官方只给openId,每次对话都是“陌生人”,AI想记住用户说过啥只能自己建索引,维护成本高。并发配额低
默认600次/分钟,活动一爆就“429”,临时提额要走工单,等批下来活动都凉了。无实时推送能力
开发者服务器必须5秒内回包,否则微信会重试三次;AI模型推理耗时高,超时后用户侧直接“客服不在线”。
这些限制决定了:只要你想用AI实时问答,就得绕过官方客服通道,自建一条“影子链路”。
架构对比:三种通信模式怎么选?
| 维度 | 纯前端直连AI | 云函数中转 | WebSocket+云函数混合 |
|---|---|---|---|
| 网络链路 | 小程序⇄AI接口 | 小程序⇄云函数⇄AI | 小程序⇄WebSocket⇄云函数⇄AI |
| 实时性 | 依赖轮询,1~3s延迟 | 单次HTTPS,500ms左右 | 全双工,平均200ms |
| 并发能力 | 受限于小程序请求并发限制 | 云函数冷启动~500ms,容易雪崩 | 连接池预热后可扛10w长连 |
| 上下文保持 | 前端自己存Storage,易丢 | 云函数可读写Redis,较稳 | 同左,但长连session更轻 |
| 微信审核风险 | 直接暴露三方域名,易被拒 | 云函数域名已备案,风险低 | 同左 |
| 代码维护成本 | 低 | 中 | 高(需心跳、重连、幂等) |
结论:
- 日活<1k、问答频率低,用“云函数中转”最省事。
- 想做“真·智能客服体验”,直接上“WebSocket+云函数”混合模式,延迟、并发、上下文一把梭。
核心实现
1. Uniapp插件封装:跨平台消息组件
目录规范(src/components/im-chat):
im-chat ├─ index.vue // 聊天面板 ├─ useChat.js // 业务逻辑(Vue3 Composition API) └─ socket.js // WebSocket封装,带自动重连useChat.js(核心片段,已加ESLint注释)
/* eslint-disable no-console */ import { ref, reactive, onMounted, onUnmounted } from 'vue' import { createSocket, closeSocket } from './socket' // 消息幂等性:用msgId去重 const msgPool = new Set() export default function useChat(botId) { const msgList = ref([]) const status = reactive({ online: false, reconnect: 0 }) function addMsg(payload) { // 幂等校验 if (msgPool.has(payload.msgId)) return msgPool.add(payload.msgId) msgList.value.push(payload) } onMounted(() => { createSocket(botId, { onMessage: addMsg, onStatus: (st) => Object.assign(status, st) }) }) onUnmounted(() closeSocket()) return { msgList, status, send: (text) => window.$socket.send(text) } }index.vue里直接调:
<template> <view> <msg-item v-for="m in msgList" :key="m.msgId" :payload="m"/> <input v-model="inputTxt" @confirm="send(inputTxt)"/> </view> </template> <script setup> import useChat from './useChat' const { msgList, send } = useChat('wxbot_001') </script>H5、小程序、App三端同一份代码,差异在socket.js里做运行时判断:
const isH5 = typeof window !== 'undefined' && window.WebSocket const isWx = typeof uni !== 'undefined' && uni.connectSocket2. 上下文保持:基于Redis的session管理
WebSocket每次上行消息都带openId+sessionKey,云函数侧维护一份hash:
- key:
wxsess:${openId} - ttl: 600s(活跃续期)
- 字段:
context(数组,存最近10条对话)、intent(上次意图)、profile(用户画像JSON)
Node.js云函数(腾讯云SCF示例):
/* eslint-disable no-await-in-loop */ const redis = require('redis') const { promisify } = require('util') const client = redis.createClient({ host: process.env.REDIS_HOST }) const hget = promisify(client.hget).bind(client) const hset = promisify(client.hset).bind(client) const expire = promisify(client.expire).bind(client) exports.main = async (event) => { const { openId, question } = event const ctxRaw = await hget(`wxsess:${openId}`, 'context') || '[]' const context = JSON.parse(ctxRaw) // 调AI接口 const answer = await callLLM(question, context) // 更新上下文 context.push({ role: 'user', text: question }) context.push({ role: 'bot', text: answer }) if (context.length > 10) context.shift() await hset(`wxsess:${openId}`, 'context', JSON.stringify(context)) await expire(`wxsess:${openId}`, 600) return { errno: 0, answer } }这样即使用户关掉了小程序,10分钟内回来继续聊,AI还能接住上句。
性能测试:JMeter压测数据
测试环境:
- 云函数 512MB/0.5核,Redis 2G集群
- 并发长连接 10k,每连接每3s发1条问题
| 指标 | 纯前端轮询 | 云函数中转 | WebSocket混合 |
|---|---|---|---|
| 首屏加载 | 2.3s | 1.1s | 0.9s |
| 消息往返P99 | 2.8s | 0.9s | 0.28s |
| CPU峰值 | —— | 68% | 42% |
| 冷启动影响 | 无 | 明显 | 几乎无(连接池预热) |
连接池预热技巧:云函数
initializer里先建20条WebSocket连接放到全局数组,请求进来直接复用,避免函数冷启动时再握手握手。
避坑指南
微信消息模板ID的缓存策略
审核时要求“运营内容不能出现营销广告”。把AI答案先过一层正则+敏感词,命中则返回“亲亲,这个问题小助手暂时无法回答呢~”。
模板ID与内容做映射缓存到云开发db.collection('tpl_map'),避免每次调AI都重新查库。小程序审核时AI回复的内容过滤机制
微信会抽检“机器人-用户”对话记录。提前准备200条“白名单问答”做Mock,审核期间把LLM温度调到0.1,答案固定化,过了再放开。WebSocket断连后的自动恢复方案
- 心跳:客户端每30s发
ping,服务端回pong,三收不到就触发重连。 - 重连退避:第1次1s,第2次2s…第5次以后固定30s,防止雪崩。
- 消息幂等:重连后先拉取
last_msg_id做diff,用户侧无感。
- 心跳:客户端每30s发
扩展思考:让LLM支持多轮对话意图识别
单轮QA只能“问啥答啥”,要做“多轮”,需要三件套:
意图持久化
把每一轮userSay都先跑意图分类(可调用云函数里的轻量BERT),结果写回Redis的intent字段。槽位抽取
如果意图带“参数缺失”,AI反问“请问您要查询哪个城市的天气?”并标记waitingSlot=location。用户下一句填槽后,再调业务API。会话重置策略
成功完成任务后把intent+waitingSlot清空;若用户输入“谢谢”或超时30s未回复,也自动重置,防止上下文串台。
这样用户能自然对话:
“我要查天气” → “请问城市?” → “深圳” → “深圳今天26-31℃,多云……”
写在最后的碎碎念
整套方案撸下来,最大的感受是:微信生态对AI真的不算友好,但把WebSocket+云函数+Redis这套“影子链路”跑通后,体验瞬间从“石器时代”进到“高铁时代”。300ms延迟、10万并发这些数字不是拍脑袋,是一次次压测、调连接池、写幂等逻辑换来的。希望这篇笔记能帮你少掉几根头发,少熬几个通宵。若你在实践里遇到更奇怪的问题,欢迎留言一起继续踩坑。