背景痛点:移动端集成AI服务的三大挑战
把大模型装进手机,听起来像把大象塞进冰箱,真正动手才发现门缝不够大。过去一年,我在两款日活过百万的 App 里接入了 ChatGPT,踩坑无数,最后把血泪总结成三句话:网络一抖,用户就走;语言一乱,模型就懵;内容一违规,老板就慌。
网络抖动导致的超时
4G 到 5G 的切换、地铁进隧道、电梯里秒变 3G,RTT 从 50 ms 飙升到 2 s,官方默认 30 s 超时直接炸锅。用户看到的是「AI 没反应」,其实是 TCP 队头阻塞把后续请求全堵死。多语言上下文管理
中文用户突然插一句「How about tomorrow?」,模型如果仍用中文语境续写,会输出「明天见」这种不伦不类的回答。移动端内存有限,不能把 4 k token 的全量历史一直带着跑,需要动态裁剪。合规性审查
欧盟 GDPR、国内应用商店「AI 生成内容安全」条款,都要求「先生成后过滤」。如果等全文返回再扫描,延迟 +200 ms;如果前置过滤,又要保证不误杀正常提问。两端都要兼顾,工程量大到怀疑人生。
技术选型:gRPC 还是 HTTP?官方 SDK 还是自造轮子?
先说结论:
- 双端最终都用 HTTP/2 + 自封装 RestClient
- gRPC 只在内部压测环境留了个后门,供后续 WebSocket 差分更新做 A/B
对比数据在 300 ms RTT、丢包 2 % 的 4G 网络下取得:
| 方案 | 首包时间 | 链路握手 | 包体体积 | 接入人日 |
|---|---|---|---|---|
| gRPC 官方 SDK | 1.28 s | 多路复用 | 二进制,省 30 % | 5 d(证书双端对齐耗 2 d) |
| HTTP/1.1 官方 | 1.55 s | 三次握手 | 明文 JSON | 1 d |
| HTTP/2 自封装 | 1.12 s | 多路复用 | 压缩 JSON | 2 d |
官方 SDK 的好处是「一键 pod/gradle 依赖」,但体积 +18 MB,且把线程模型定死,与我们既有图片上传线程池打架。自封装只多写 400 行代码,却能把连接池、重试、缓存全部捏在自己手里,长期维护更轻。
核心实现:双端最小可运行代码
Android:OkHttp 多路复用 + TLS1.3
val okClient = OkHttpClient.Builder() .connectionSpecs(listOf(ConnectionSpec.MODERN_TLS)) // 强制 TLS1.3 .protocols(listOf(Protocol.HTTP_2, Protocol.HTTP_1_1)) // 优先 h2 .connectionPool(ConnectionPool( maxIdleConnections = 5, // 经压测,5 条足以承载 30 QPS keepAliveDuration = 30, TimeUnit.SECONDS )) .pingInterval(10, TimeUnit.SECONDS) // 防止 NAT 超时 .addInterceptor(RetryInterceptor(maxRetry = 3)) .build()关键参数解释
maxIdleConnections=5:在 4 核 8 G 测试机下,并发 30 路请求,CPU 占用 42 %,再往上加收益递减。pingInterval=10 s:移动网络 NAT 超时普遍 30–60 s,10 s 心跳既保活又省电。
iOS:URLSession 请求重试 + JWT 鉴权
private let retryConfig = URLSessionConfiguration( httpMaximumConnectionsPerHost: 5, timeoutIntervalForRequest: 20, waitsForConnectivity: true ) func chatGPT(query: String) async throws -> String { var request = URLRequest(url: URL(string: "https://api.openai.com/v1/chat/completions")!) request.httpMethod = "POST" request.setValue("Bearer \(makeJWT())", forHTTPHeaderField: "Authorization") request.httpBody = try JSONEncoder.encode(ChatBody(model: "gpt-3.5-turbo", messages: [ChatMessage(role: "user", content: query)])) return try await withRetry(times: 3)session.data(for: request)}JWT 生成函数(精简版)
private func makeJWT() -> String { let header = #"{\"alg\":\"HS256\",\"typ\":\"JWT\"}"# let payload = #"{"iss":"\(teamID)","iat":\((Date().timeIntervalSince1970))}"# return "\(header.base64).\(payload.base64).\(hmacSign(header+payload))" }性能优化:让 40 % 提速可量化
- Flutter FFI 压缩 Prompt
把 1 k 字旅游攻略压成 350 字,首包时间从 1.8 s 降到 1.1 s。Dart 端调用 C 的 LZ4,压缩/解压各 3 ms,用户无感。
// dart import 'dart:ffi'; typedef CompressFunc = Pointer<Uint8> Function(Pointer<Uint8>, Int32); final compressLib = DynamicLibrary.open('libcompress.so'); final compress = compressLib.lookupFunction<CompressFunc, CompressFunc>('lz4_compress'); void sendPrompt(String raw) { final ptr = compress(raw.toNativeUtf8().cast<Uint8>(), raw.length); final compressed = ptr.asTypedList(lz4Size(ptr)); api.post(compressed); }- Redis 分层缓存
- TTL 层:用户级 15 min,防止上下文无限膨胀
- LRU 层:全局 100 MB,兜底淘汰 30 天前冷门对话
命中率 68 %,平均减少 420 ms 的 LLM 调用。
避坑指南:限流与合规
指数退避
收到 429 响应后,第一次等 1 s,第二次 2 s,第三次 4 s…上限 60 s,随机抖动 ±20 %,避免群集「雷群」。GDPR 敏感词过滤
正则示例(已上线 Google Play 审核通过)
val piiRegex = """\b(?:\d{4}[\s-]?\d{4}[\s-]?\d{4}[\s-]?\d{4})\b""".toRegex() val filtered = piiRegex.replace(userInput, "[CARD]")注意:只过滤,不记录原始文本,日志里也要脱敏,否则罚款 4 % 营收不是玩笑。
延伸思考:弱网环境下如何保持对话连贯?
HTTP/2 再多路复用,也扛不住隧道里 10 % 丢包。我们内部正在跑 WebSocket + 差分更新的小流量实验:
- 把每次对话拆成「语义帧」,帧带序号
- 客户端缓存最新 5 帧,服务器推送增量 diff
- 断网重连后,客户端发送本地最大序号,服务器只补 diff
初步结果:在 500 ms RTT、20 % 丢包场景下,对话恢复时间从 8 s 降到 1.4 s。方案还在迭代,欢迎一起脑洞。
如果你也想把「实时语音对话」能力装进自己的 App,却苦于没有后端、不会调声码器,可以看看我上周刚跑通的从0打造个人豆包实时通话AI动手实验。它把 ASR→LLM→TTS 整条链路封装成 Web 模板,本地起 Docker 就能跑,安卓/iOS 直接用 WebView 嵌套,也可把音频桥接到原生层。我照着实操一遍,从开仓库到手机出声总共 38 分钟,小白也能顺利体验。祝你开发顺利,早日上线自己的 AI 通话助手。