news 2026/4/22 8:34:41

【分布式】分布式核心组件——分布式链路追踪:Trace/Span、OpenTelemetry规范、SkyWalking/Zipkin 核心原理

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
【分布式】分布式核心组件——分布式链路追踪:Trace/Span、OpenTelemetry规范、SkyWalking/Zipkin 核心原理

文章目录

  • 分布式链路追踪知识体系
    • 一、核心基础与理论根基
      • 1.1 核心背景与解决的核心痛点
      • 1.2 理论鼻祖:Google Dapper 核心设计
      • 1.3 核心元模型:Trace 与 Span 全解析
        • 1.3.1 Trace(追踪)
        • 1.3.2 Span(跨度)
      • 1.4 核心能力:上下文传播与调用关系构建
    • 二、统一规范:OpenTelemetry(OTel)
      • 2.1 OTel 定位与发展历程
      • 2.2 OTel 核心设计理念
      • 2.3 OTel 核心架构与组件体系
        • 2.3.1 规范层:API与语义约定
        • 2.3.2 实现层:SDK
        • 2.3.3 中转层:OTel Collector
        • 2.3.4 传输层:OTLP协议
      • 2.4 OTel 链路追踪核心流转流程
    • 三、SkyWalking/Zipkin 核心原理
      • 3.1 Zipkin 核心原理与架构
        • 3.1.1 产品定位与生态
        • 3.1.2 核心架构与四大组件
        • 3.1.3 核心数据模型与追踪原理
        • 3.1.4 数据流转全流程
      • 3.2 Apache SkyWalking 核心原理与架构
        • 3.2.1 产品定位与生态
        • 3.2.2 分层核心架构
        • 3.2.3 核心创新数据模型
        • 3.2.4 核心分析与计算原理
        • 3.2.5 数据流转全流程
      • 3.3 SkyWalking vs Zipkin 核心能力对比
    • 四、企业级落地核心要点
      • 4.1 埋点策略与规范
      • 4.2 采样策略选型与优化
      • 4.3 性能损耗控制
      • 4.4 可观测性数据联动
      • 4.5 问题定位与根因分析最佳实践
    • 五、总结与发展趋势
      • 核心知识体系闭环
      • 行业发展趋势

分布式链路追踪知识体系

本文构建了分布式链路追踪从理论根基→核心模型→统一规范→主流实现→落地实践的完整知识体系,全方位覆盖Trace/Span核心概念、OpenTelemetry行业标准、SkyWalking/Zipkin两大主流实现的核心原理。


一、核心基础与理论根基

1.1 核心背景与解决的核心痛点

分布式链路追踪是微服务、云原生架构下可观测性体系的核心支柱,解决分布式系统的三大核心痛点:

  1. 故障定位难:单次请求跨数十个服务/中间件,无法快速定位异常节点与根因
  2. 性能瓶颈分析难:无法精准量化全链路各环节的耗时占比,定位慢调用节点
  3. 架构梳理难:无法自动还原服务间的依赖关系、调用拓扑,掌握系统真实运行状态

1.2 理论鼻祖:Google Dapper 核心设计

2010年Google发布的《Dapper, a Large-Scale Distributed Systems Tracing Infrastructure》奠定了分布式链路追踪的理论基础,核心设计原则至今仍是行业通用标准:

  • 低侵入性:对业务代码无侵入,应用透明化接入
  • 低性能损耗:采集逻辑对应用的性能影响可忽略,生产环境可常态化开启
  • 全链路追踪:支持跨进程、跨服务、跨集群的请求全生命周期追踪
  • 规模化支持:支持超大规模分布式集群的部署与数据处理

1.3 核心元模型:Trace 与 Span 全解析

Trace和Span是链路追踪的最小核心单元,所有规范与实现均基于该模型扩展。

1.3.1 Trace(追踪)
  • 定义:一次分布式用户请求的完整生命周期,是整个调用链路的顶级容器,全局唯一
  • 核心标识TraceID,全局唯一的16/32位字符串,贯穿请求的全链路,所有关联的Span均绑定同一个TraceID
  • 核心能力:通过TraceID可串联起跨服务、跨进程的所有操作,还原完整的调用路径
1.3.2 Span(跨度)
  • 定义:Trace的最小执行单元,代表一次具体的操作行为(如HTTP请求、RPC调用、DB查询、本地方法执行、MQ消息收发)
  • 核心标识
    • SpanID:单个Span的唯一标识,单Trace内唯一
    • ParentSpanID:父Span的ID,用于构建树形的调用层级关系,根Span的ParentSpanID为空
  • 核心属性
    属性作用
    操作名(Operation Name)标识Span的操作类型,如HTTP GET /api/userMySQL Query
    起止时间戳记录操作的开始/结束时间,计算执行耗时(Duration)
    状态码(Status)标识操作的执行结果(成功/失败/异常)
    属性/标签(Attributes/Tags)键值对形式的元数据,描述操作的上下文,如HTTP的URL、状态码、DB的SQL语句、服务名、实例IP
    事件/日志(Events/Logs)带时间戳的关键事件记录,如异常堆栈、业务关键节点日志
    引用关系(References)定义Span间的依赖关系,核心分为两种:
    1.ChildOf:父Span依赖子Span的执行结果,如同步RPC调用
    2.FollowsFrom:父Span不依赖子Span的执行结果,如异步回调、MQ消息发送

1.4 核心能力:上下文传播与调用关系构建

上下文传播是分布式链路追踪的核心技术难点,是实现跨服务链路串联的基础。

  • 核心定义:将Trace上下文(TraceID、SpanID、采样标记等)在跨进程、跨服务、跨线程、跨协议的调用中进行传递,确保全链路的Span可被正确串联
  • 传播载体:HTTP请求头、gRPC Metadata、MQ消息属性、RPC协议扩展字段
  • 主流传播协议
    1. W3C Trace Context:全球统一标准,定义了traceparenttracestate两个标准请求头,解决了多厂商协议不兼容的问题
    2. B3协议:Zipkin/Jaeger早期推广的协议,通过X-B3-TraceIdX-B3-SpanId等请求头传播
    3. SkyWalking sw8协议:SkyWalking原生传播协议,适配国内复杂的微服务场景

二、统一规范:OpenTelemetry(OTel)

2.1 OTel 定位与发展历程

  • 官方定位:CNCF孵化的可观测性统一标准与工具链,合并了之前的OpenTracing和OpenCensus两大规范,成为分布式链路追踪、指标、日志三大可观测性信号的全球事实标准
  • 核心价值:解决了早期链路追踪厂商SDK碎片化、协议不兼容、厂商锁定的问题,实现了“一次埋点,多处导出”,应用开发者无需修改代码即可切换后端可观测性平台
  • 关键说明:OTel仅定义标准、提供数据采集/处理/转发能力,不提供后端存储与可视化UI,需对接SkyWalking、Zipkin、Jaeger等后端系统

2.2 OTel 核心设计理念

  1. 厂商无关:API与SDK解耦,业务代码仅依赖标准API,不绑定任何后端实现
  2. 全信号统一:实现Trace、Metrics、Logs三大信号的无缝关联与统一语义
  3. 多语言全覆盖:提供Java、Go、Python、JS等所有主流语言的SDK与自动埋点能力
  4. 高扩展性:全组件可插拔,支持自定义处理器、导出器、采样器
  5. 兼容性强:兼容所有主流的旧协议与开源系统,支持平滑迁移

2.3 OTel 核心架构与组件体系

OTel采用分层架构,分为4个核心层级,完整覆盖数据生成到转发的全流程:

2.3.1 规范层:API与语义约定
  • OTel API:标准接口定义,仅描述数据生成的操作规范,无具体实现,业务代码仅需对接API,彻底解决厂商锁定
  • 语义约定(Semantic Conventions):统一了不同操作的属性命名规范(如HTTP、DB、RPC、MQ的属性名),确保不同SDK、不同后端的数据格式完全一致,是数据标准化的核心
2.3.2 实现层:SDK

OTel SDK是API的官方实现,负责数据的生成、处理、导出,核心模块包括:

  • Tracer Provider:Tracer的工厂类,管理全局配置
  • Processor:Span处理器,支持批量处理、过滤、采样、数据 enrichment,可自定义扩展
  • Sampler:采样器,实现客户端采样逻辑,支持固定采样率、概率采样、规则采样等
  • Exporter:导出器,负责将处理后的数据发送到Collector或后端系统,原生支持OTLP、Zipkin、Jaeger等协议
2.3.3 中转层:OTel Collector

OTel Collector是独立的代理/服务,是OTel生态的核心中间件,负责全量可观测性数据的接收、处理、转换、导出,采用Pipeline流水线架构:

  1. Receiver(接收器):接收数据,支持OTLP、Zipkin、Jaeger、Prometheus等几乎所有主流协议
  2. Processor(处理器):数据处理核心,支持过滤、采样、批量聚合、格式转换、数据脱敏、标签增强等
  3. Exporter(导出器):将处理后的数据导出到后端存储/分析系统,支持所有主流可观测性平台
  • 部署模式
    • Agent模式:边车部署,与应用同主机/同Pod,负责就近采集应用数据,降低应用性能损耗
    • Gateway模式:集中式集群部署,统一接收全集群的Agent数据,做集中处理与统一导出,降低后端系统的接入压力
2.3.4 传输层:OTLP协议
  • OTLP(OpenTelemetry Protocol):OTel原生的标准传输协议,基于gRPC/HTTP实现,针对可观测性数据做了极致优化,具备低延迟、高压缩比、高吞吐量的特点,是目前行业推荐的传输协议
  • 兼容支持Zipkin、Jaeger等旧协议,保障存量系统的平滑迁移

2.4 OTel 链路追踪核心流转流程

  1. 应用启动时加载OTel SDK,初始化Tracer Provider、Processor、Exporter、Sampler
  2. 请求进入应用时,SDK自动检测请求头中的Trace上下文,无上下文则创建根Trace与根Span,有上下文则继承并创建子Span
  3. 业务执行过程中,SDK自动为框架/中间件调用创建对应Span,填充属性、事件、状态
  4. 跨服务调用时,SDK自动将Trace上下文注入到请求头中,完成跨服务传播
  5. Span执行完成后,进入Processor处理,经过采样、批量聚合后,通过Exporter发送到OTel Collector
  6. Collector接收数据后,经过Processor处理,按配置导出到SkyWalking/Zipkin等后端系统
  7. 后端系统完成数据的存储、索引、分析,提供可视化查询与故障定位能力

三、SkyWalking/Zipkin 核心原理

3.1 Zipkin 核心原理与架构

3.1.1 产品定位与生态

Zipkin是Twitter基于Dapper论文开源的轻量级分布式链路追踪系统,是Dapper最早的工业级开源实现,聚焦链路追踪核心能力,具备部署简单、接入门槛低、生态成熟的特点,是中小规模场景的首选。

3.1.2 核心架构与四大组件

Zipkin采用经典的四组件架构,职责清晰,极简设计:

  1. Reporter(报告器):部署在应用端,负责Span数据的采集、编码、批量上报,官方提供Java SDK(Brave),支持HTTP、gRPC、Kafka、RabbitMQ多种传输方式
  2. Collector(收集器):服务端核心入口,负责接收客户端上报的Span数据,完成数据验证、格式转换、索引构建,转发到存储层
  3. Storage(存储层):可插拔的持久化组件,默认使用内存存储(仅测试用),生产环境主流适配Elasticsearch,同时支持Cassandra、MySQL
  4. Query Service & Web UI:查询服务提供REST API,负责从存储层读取链路数据;UI提供可视化能力,支持TraceID精准查询、链路详情展示、服务依赖拓扑、耗时排序、异常筛选等核心功能
3.1.3 核心数据模型与追踪原理
  • 数据模型:严格遵循Dapper的Trace/Span模型,核心扩展了四大核心事件(Annotation),是Zipkin计算耗时的核心:
    事件标识全称定义核心作用
    CSClient Send客户端发送请求标记客户端调用的开始时间
    SRServer Receive服务端接收请求标记服务端处理的开始时间
    SSServer Send服务端发送响应标记服务端处理的结束时间
    CRClient Receive客户端接收响应标记客户端调用的结束时间
    • 服务端处理耗时 = SS - SR
    • 网络传输耗时 = (SR - CS) + (CR - SS)
  • 上下文传播:原生支持B3协议,同时兼容W3C Trace Context标准
  • 采样机制:支持客户端概率采样、服务端采样,默认采样率100%,生产环境可根据流量调整采样率,降低性能损耗
3.1.4 数据流转全流程
  1. 应用通过Brave SDK生成Span,记录四大核心事件与元数据
  2. Reporter批量将Span数据通过指定协议上报到Zipkin Collector
  3. Collector接收数据,完成处理后写入存储层
  4. 用户通过Web UI发起查询请求,Query Service从存储层读取对应数据
  5. UI渲染链路树形结构、耗时分布、服务拓扑,完成故障定位与性能分析

3.2 Apache SkyWalking 核心原理与架构

3.2.1 产品定位与生态

SkyWalking是Apache顶级项目,国产开源的全栈企业级可观测性APM平台,针对微服务、云原生、服务网格架构深度优化,不仅覆盖分布式链路追踪,还集成了指标监控、日志分析、服务网格监控、告警、性能剖析等全能力,是国内企业级大规模分布式系统的首选方案。

3.2.2 分层核心架构

SkyWalking采用分层解耦的云原生架构,分为四大核心层,能力覆盖数据采集到可视化的全流程:

  1. 探针层(Agent):部署在应用端的采集组件,核心特点是无侵入埋点
    • 多语言支持:覆盖Java、Go、Python、.NET、NodeJS等主流语言
    • 自动埋点:Java端基于Java Agent字节码增强技术,无需修改业务代码,即可实现主流框架、中间件、数据库的全量自动埋点
    • 采集能力:不仅采集链路Trace/Span数据,还同步采集JVM/主机指标、服务黄金指标、日志数据,实现多信号统一采集
  2. 平台后端(OAP Server):SkyWalking的核心大脑,负责数据的接收、处理、聚合、分析、存储、查询,核心模块包括:
    • Receiver模块:多协议接入,原生支持SkyWalking私有协议、OTLP、Zipkin、Jaeger协议,完美兼容OpenTelemetry
    • 分析引擎:核心计算模块,分为流式实时分析(链路数据解析、拓扑实时计算、指标实时聚合)和批量离线分析(天级历史数据聚合、报表统计),基于LMAX Disruptor高性能队列实现低延迟处理
    • 存储适配层:可插拔的存储插件,生产环境首选Elasticsearch,同时支持MySQL、TiDB、InfluxDB,以及SkyWalking自研的BanyanDB(专为可观测性数据优化的原生存储)
    • Query & GraphQL模块:统一查询入口,基于GraphQL提供标准化查询API,支撑UI与第三方系统调用
    • 告警引擎:支持自定义阈值告警、动态基线告警,覆盖链路、指标、日志多维度,支持钉钉、企业微信、邮件等多种通知渠道
  3. 存储层:持久化全量可观测性数据,包括链路数据、指标数据、拓扑数据、日志数据、告警数据、性能剖析数据
  4. 可视化层(UI):企业级可视化控制台,提供链路追踪详情、全局服务拓扑、服务/实例/接口仪表盘、日志查询、性能剖析、告警配置、权限管理等全功能界面,深度贴合国内用户的使用习惯
3.2.3 核心创新数据模型

SkyWalking在Dapper基础模型上做了企业级扩展,解决了复杂分布式场景的链路追踪痛点:

  1. Segment核心扩展
    • 定义:一次请求在单个服务实例内的完整调用链,是单服务内Span的容器,每个Segment有唯一的SegmentID
    • 核心价值:解决了单服务内多线程、异步调用、线程池场景的链路串联问题,避免链路断裂
  2. Span类型标准化分类
    Span类型定义适用场景
    EntrySpan入口Span,标记服务的请求入口服务接收到的HTTP/RPC请求、MQ消息消费
    ExitSpan出口Span,标记服务的对外调用调用下游服务、DB查询、Redis操作、MQ消息发送
    LocalSpan本地Span,标记服务内的本地操作业务本地方法执行、本地缓存操作
    • 核心价值:通过Span类型可自动识别服务的上下游调用关系,无需手动配置即可实时生成服务依赖拓扑
  3. 上下文传播增强:原生支持W3C Trace Context、sw8私有协议,兼容B3协议,深度优化了跨线程池、异步调用、事务消息、网关透传等复杂场景的上下文传递,大幅降低链路断裂概率
3.2.4 核心分析与计算原理
  1. 拓扑自动生成原理:OAP实时分析链路数据的EntrySpan与ExitSpan,通过服务名、实例IP、端点信息自动识别服务间的调用关系,实时构建全局服务依赖拓扑,支持上下游链路溯源
  2. 指标聚合原理:基于链路数据实时聚合服务、实例、接口的RED黄金指标(吞吐量Rate、错误率Error、耗时Duration),以及主机/容器/运行时的USE指标(使用率Utilization、饱和度Saturation、错误率Error),无需额外部署监控组件
  3. 采样机制:比Zipkin更丰富的企业级采样能力,支持:
    • 客户端前置采样、服务端后置采样
    • 条件采样:错误链路、慢调用链路全量采集,正常链路概率采样
    • 尾采样(Tail-based Sampling):基于全链路最终结果决定是否采样,彻底解决异常链路漏采问题
  4. 全信号联动原理:实现了Trace、Metrics、Logs的三位一体无缝关联,通过TraceID/SpanID可直接从指标异常下钻到对应链路,从链路详情直接查看对应请求的全量日志,实现故障的一站式根因定位
3.2.5 数据流转全流程
  1. 应用启动时加载SkyWalking Agent,自动完成字节码增强,无侵入植入埋点逻辑
  2. 请求进入应用时,Agent创建Trace上下文与Segment,生成对应类型的Span,填充属性、事件、耗时
  3. 跨服务调用时,Agent自动将Trace上下文注入到请求头,完成跨服务传播
  4. 请求完成后,Agent将Segment与Span数据批量加密上报到OAP Server
  5. OAP Receiver接收数据,交由分析引擎完成解析、聚合、拓扑计算、指标统计
  6. 处理后的数据写入存储层持久化
  7. 用户通过UI发起查询,GraphQL接口从存储层读取数据,渲染链路详情、拓扑、仪表盘,完成故障定位与性能分析

3.3 SkyWalking vs Zipkin 核心能力对比

对比维度ZipkinSkyWalking
产品定位轻量级分布式链路追踪工具全栈企业级可观测性APM平台
核心能力聚焦链路追踪核心能力链路追踪+指标监控+日志分析+告警+性能剖析+服务网格监控
数据模型基础Trace/Span模型,CS/SR/SS/CR四事件扩展Segment模型,Entry/Exit/Local三类Span,适配复杂场景
埋点方式需手动引入SDK,部分场景需手动埋点无侵入自动埋点,字节码增强,零业务代码修改
部署复杂度极简部署,单节点即可启动支持单机部署,生产环境需OAP集群+存储集群,部署复杂度中等
性能与规模适合中小规模集群,单实例支撑万级TPS支持超大规模集群,水平扩展能力强,可支撑上万服务实例接入
采样能力基础概率采样、客户端采样全场景采样能力,支持条件采样、尾采样、错误链路全采
可观测性覆盖仅链路追踪Trace+Metrics+Logs三位一体全信号覆盖
企业级能力基础可视化,无原生告警、权限管理原生支持多租户、权限管理、全维度告警、性能剖析、离线报表
国内生态适配适配主流开源组件,国内组件适配较少深度适配Dubbo、RocketMQ、Nacos、Sentinel等国内主流组件
适用场景中小项目、轻量级链路追踪需求、快速验证场景中大型企业、大规模微服务集群、企业级全栈可观测性需求

四、企业级落地核心要点

4.1 埋点策略与规范

  1. 自动埋点优先:优先使用OTel/SkyWalking的自动埋点能力,最大化降低业务侵入,减少开发成本
  2. 手动埋点补充:针对核心业务场景、关键业务节点,补充自定义手动埋点,完善业务维度的追踪能力
  3. 标准化规范:严格遵循OTel语义约定,统一属性命名、操作名规范,避免数据碎片化,保障后续分析的通用性

4.2 采样策略选型与优化

  1. 生产环境禁用100%采样:高流量场景下100%采样会带来巨大的性能损耗与存储压力,需根据业务流量合理设置采样率
  2. 优先使用条件采样:错误链路、慢调用链路全量采集,正常链路按流量设置概率采样,平衡数据完整性与资源成本
  3. 核心场景尾采样:对支付、交易等核心链路采用尾采样,确保异常链路100%被采集,避免故障发生时无数据可查
  4. 采样策略分级:按服务重要性、流量等级设置分级采样策略,核心服务高采样率,非核心服务低采样率

4.3 性能损耗控制

  1. 客户端优化:Agent端采用批量上报、压缩传输,减少网络IO;异步化采集逻辑,避免阻塞业务线程;控制单请求的Span数量,避免过度埋点
  2. 服务端优化:OAP/Collector集群水平扩展,按功能模块拆分部署;针对高流量场景做流控与削峰;存储层冷热数据分离,历史数据归档降冷
  3. 资源隔离:采集、传输、处理组件与业务系统资源隔离,避免可观测性系统影响业务稳定性

4.4 可观测性数据联动

  1. 实现三位一体关联:通过TraceID/SpanID打通链路、指标、日志数据,实现从监控告警→指标异常→链路详情→业务日志的一站式下钻,大幅提升故障定位效率
  2. 业务维度关联:在Span中注入用户ID、订单号、业务流水号等业务标识,实现从业务异常到技术链路的反向溯源

4.5 问题定位与根因分析最佳实践

  1. 先宏观后微观:先通过服务拓扑、黄金指标定位异常服务,再通过链路详情定位异常接口与Span,最后通过日志/事件定位根因
  2. 建立异常链路规则:针对慢调用、异常状态码、业务错误等场景建立自动筛选规则,快速收敛异常链路
  3. 全链路耗时分析:通过链路的Span耗时占比,快速定位性能瓶颈节点,针对性优化

五、总结与发展趋势

核心知识体系闭环

分布式链路追踪的完整知识体系形成了理论根基(Dapper)→ 核心元模型(Trace/Span)→ 行业统一规范(OpenTelemetry)→ 工业级实现(Zipkin/SkyWalking)→ 企业级落地实践的完整闭环,是微服务架构下可观测性体系的核心支柱。

行业发展趋势

  1. OpenTelemetry全面普及:OTel将彻底成为可观测性的事实标准,所有主流厂商与开源系统都将全面兼容OTel,实现采集层的全面统一
  2. 可观测性数据深度融合:链路追踪将与指标、日志、eBPF、Profile等数据深度融合,实现从业务到技术、从应用到底层基础设施的全栈可观测性
  3. 智能化根因分析:基于链路数据与AI大模型,实现故障的自动根因定位、性能瓶颈自动识别、异常智能预警,降低运维门槛
  4. 云原生深度适配:针对K8s、服务网格、Serverless等云原生架构,实现无侵入、零配置的全链路追踪,覆盖云原生全场景
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/22 8:21:22

深度解析VMware Unlocker:突破macOS虚拟化限制的完整技术指南

深度解析VMware Unlocker:突破macOS虚拟化限制的完整技术指南 【免费下载链接】unlocker VMware Workstation macOS 项目地址: https://gitcode.com/gh_mirrors/unloc/unlocker 在跨平台开发与测试日益重要的今天,许多开发者面临着一个共同的挑战…

作者头像 李华
网站建设 2026/4/22 8:20:45

终极百度网盘直连解析工具:如何绕过限速实现全速下载的完整指南

终极百度网盘直连解析工具:如何绕过限速实现全速下载的完整指南 【免费下载链接】baidu-wangpan-parse 获取百度网盘分享文件的下载地址 项目地址: https://gitcode.com/gh_mirrors/ba/baidu-wangpan-parse 在当今云存储时代,百度网盘已成为国内用…

作者头像 李华
网站建设 2026/4/22 8:02:19

55项炉石传说增强功能:HsMod终极配置与优化指南

55项炉石传说增强功能:HsMod终极配置与优化指南 【免费下载链接】HsMod Hearthstone Modification Based on BepInEx 项目地址: https://gitcode.com/GitHub_Trending/hs/HsMod HsMod是一款基于BepInEx框架开发的开源炉石传说游戏增强插件,为玩家…

作者头像 李华
网站建设 2026/4/22 8:02:19

【Overlay网络】VXLAN的二层MAC学习及BUM报文转发

一、Overlay介绍 如图1-1所示,Overlay网络是将已有的物理网络(Underlay网络)作为基础,在其上建立叠加的逻辑网络,实现网络资源的虚拟化。 图1-1 Overlay网络概念图 Overlay网络是建立在已有物理网络上的虚拟网络,具有独立的控制和转发平面,对于连接到Overlay的终端设备…

作者头像 李华
网站建设 2026/4/22 8:00:53

Page Assist:在浏览器中部署私有AI助手的完整技术指南

Page Assist:在浏览器中部署私有AI助手的完整技术指南 【免费下载链接】page-assist Use your locally running AI models to assist you in your web browsing 项目地址: https://gitcode.com/GitHub_Trending/pa/page-assist 你是否厌倦了将敏感数据发送到…

作者头像 李华