模型在数秒内生成安全控制伪代码
新的工具利用大语言模型为某中心网络服务的配置和警报处理创建规则。
会议
CIKM 2024 企业生成式AI与RAG系统研讨会
相关出版物
利用生成式AI增强安全控制生产
某中心网络服务帮助客户维护其云环境安全的方式之一,是通过某中心安全中心。该服务聚合、组织并优先处理来自某中心服务及第三方工具的安全警报。这些警报基于安全控制——即帮助确保服务配置安全并符合最佳实践规则的规则。
传统上,这些安全控制的开发和实施是一个复杂、耗时且劳动密集型的过程。随着云环境变得越来越复杂,对高效、可扩展安全解决方案的需求也与日俱增。
在今年的信息与知识管理国际会议(CIKM)的企业生成式AI与RAG系统研讨会上发表的一篇论文中,描述了一种新的模型。该模型利用先进的人工智能能力,自动化创建安全控制,从而能够更快、更高效、更准确地生成帮助用户保护其云基础设施的规则。
当前挑战
为某中心网络服务开发安全控制,涉及分析服务文档、编写详细规范(通常采用Gherkin格式),并最终开发代码以确保安全配置。平均而言,生产一个安全控制可能需要24天。随着某中心持续扩展其服务组合,此过程的复杂性将会增加,因为每项服务都包含许多必须保护的资源,手动编写和审查控制可能会导致部署延迟。
生成式AI的介入
新模型使用大语言模型来自动生成Gherkin规范。这将所需时间从数天缩短至仅仅数秒。当输入模型服务文档和安全要求的描述时,大语言模型可以输出准备实施的控制规范。
例如,大语言模型可以为基础安全要求(如静态数据加密或日志记录)生成Gherkin规范(称为gherkins)。此过程有助于确保使用某中心服务(如某中心 SageMaker AutoML)的作业得到正确配置以满足安全标准,而无需工程师每次深入查阅文档。
面向安全的领域专业化AI
提示工程是设计精确输入提示的过程,旨在引导语言模型的行为朝向期望的输出。提示工程的目标是确保模型理解任务的上下文和目的,从而产生更准确和相关的响应。
在新模型中,结合了几种提示工程技术,以提高大语言模型的性能并增加其输出的透明度。首先,使用了链式思维推理,将生成gherkins的复杂任务分解为一系列更简单的步骤。在每个步骤中,指示大语言模型创建一个中间结果,该结果用作下一步的输入。
还使用了检索增强生成,允许大语言模型从外部来源检索相关信息。在此案例中,来源是Boto3 API规范,信息是服务和资源的配置(以Boto3语法表达),这些也被添加到提示中。
使用的最后一项技术是上下文学习,即将安全工程师开发的gherkins正面示例添加到提示中。这起到将大语言模型推向正确方向的效果,迫使其模仿正面示例,并为输入查询生成类似的gherkins。
通过结合这些技术,新模型能够提供高度准确且针对特定领域的安全控制,这将显著加快开发过程并提高整体安全效率。在未来的工作中,将进一步改进该系统,可能会使用基于代理的架构来处理更复杂的控制生成场景。
致谢:Felix Candelario
研究领域
安全、隐私与滥用防范
标签
代码生成, 大语言模型, 生成式AI
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
对网络安全、黑客技术感兴趣的朋友可以关注我的安全公众号(网络安全技术点滴分享)