news 2026/5/7 20:39:58

报文发送机制和模式

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
报文发送机制和模式

ComFilter

每个信号里面都有一个ComFilter,只是看你用或不用,是拿来给发送信号进行滤波的。

里面有个配置ComFilterAlgorithm是滤波方法,跟其他的ComFilterMask/ComFilterMax/ComFilterMin/ComFilterOffset/ComFilterPeriod/ComFilterX配合使用。

滤波方法有八种:

None或者Always:不进行滤波,信号滤波结果就是Ture

Never:信号滤波结果为False

MaskedNewDiffersMaskedOld:新的值和旧的值对比,掩码ComFilterMask置起的那几位不全相等时,信号滤波结果为Ture

MaskedNewEqualsX:跟掩码ComFilterMask置起的那几位相与,得到的结果为ComFilterX,信号滤波结果为Ture

MaskedNewDiifersX:跟掩码ComFilterMask置起的那几位相与,得到的结果不为ComFilterX,信号滤波结果为Ture

NewIsOutside:除了ComFilterMin和ComFilterMax之间的范围(开区间),信号滤波结果为Ture

NewIsWithin:ComFilterMin和ComFilterMax之间的范围(闭区间),信号滤波结果为Ture

ComTxMode

ComTxIPdu下面会挂两个容器,ComTxModeFalse和ComTxModeTrue。报文内所有信号的ComFilter的信号滤波结果相或,得到的结果就是报文的滤波结果,滤波结果为False就执行ComTxModeFalse里面的ComTxMode,滤波结果为True就执行ComTxModeTrue里面的ComTxMode。

ComTxMode里面有四种ComTxModeMode发送模式:

NONE不发型:一般配置在ComTxModeFalse里面,报文滤波结果有误就不发送报文。

DIRECT触发型:触发一次发X帧报文

PERIODIC周期型:按照一定的周期发送报文

MIXED混合型:平时按照一定的周期发送报文,触发的时候发送X帧报文

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/1 10:58:56

Langchain-Chatchat如何评估问答质量?自动化评测方法介绍

Langchain-Chatchat 如何评估问答质量?自动化评测方法详解 在企业知识管理日益智能化的今天,越来越多组织开始尝试部署本地化的大模型问答系统,以提升内部信息获取效率。然而一个普遍存在的问题是:我们如何判断 AI 回答得“好不好…

作者头像 李华
网站建设 2026/5/2 14:21:16

构建智慧时代战略操作系统:鸽姆智库(GG3M)的文明级投资蓝图

构建智慧时代战略操作系统:鸽姆智库(GG3M)的文明级投资蓝图摘要: 本报告为董事会与投资委员会呈现鸽姆智库(GG3M)的范式级战略。GG3M旨在构建一个跨周期的“智慧时代战略操作系统”,其核心护城河…

作者头像 李华
网站建设 2026/5/1 17:24:52

从 ABAP Trace 到 PlantUML Sequence Diagram:把运行时调用链画成一张可编辑的真相图

在很多 ABAP 项目里,大家对性能分析并不陌生:慢了就跑 SAT,看 Hit List、Call Hierarchy,再配合 SQLM、ST12、ST05 找证据。问题在于,这些工具很擅长回答一个问题:哪里慢。可当你想回答另一个更偏架构的问题时,它们就不那么顺手了:为什么会形成这样的调用结构、谁在调用…

作者头像 李华
网站建设 2026/5/1 4:52:53

让 SAP CRM Opportunity 的扩展字段在 WebUI 与 SAP Fiori 都能优雅落库

让 CRM Opportunity 的扩展字段在 WebUI 与 Fiori 都能优雅落库:从 AET 到 OData 再到 UI5 ExtensionPoint 的全链路拆解 在 SAP CRM 的世界里,Opportunity 属于典型的“业务人员天天用、客户需求天天变”的对象:今天要加一个Created By,明天要加一个“商机来源渠道”,后…

作者头像 李华
网站建设 2026/5/1 10:38:36

Langchain-Chatchat支持自定义LLM:灵活切换大模型降低Token费用

Langchain-Chatchat支持自定义LLM:灵活切换大模型降低Token费用 在企业智能化转型的浪潮中,知识库问答系统正从“锦上添花”变为“基础设施”。但当团队兴致勃勃接入GPT类API时,往往很快会面临两个现实打击:账单飙升得比预期快&am…

作者头像 李华