跳转到内容
Lentikr's Blog
返回

网安四大顶会中的LLM/Agent相关文章调研

编辑页面

引言

近年来,大型语言模型(LLM)在网络安全领域的研究和应用突飞猛进。安全领域四大顶会(IEEE Symposium on Security and Privacy、USENIX Security Symposium、ACM Conference on Computer and Communications Security和 Network and Distributed System Security Symposium)陆续出现了大量关于 LLM 的论文,这些工作涵盖了安全工具、攻防研究、误用检测、评测基准以及系统级隐私等多个方向。通过访问公开的论文页面和相关会议资源,我们对2023‑2026年间四大顶会上与LLM/Agent相关的研究进行梳理与分类。

主要研究类别

1-基于 LLM 的安全任务及智能体应用

这一类别关注利用 LLM 的理解、推理和生成能力来自动化传统安全任务或构建智能体工作流,是当前最活跃的研究方向。典型成果包括:

上述工作表明,研究者正将 LLM 与现有安全工具(扫描器、调试器、求解器等)结合,形成能够分解任务、动态规划和上下文维护的“链式工作流”。这种多智能体协作不仅提高了任务自动化程度,还为复杂场景引入了人机协同机制。

2-LLM 攻击与防御研究

随着 LLM 服务走向公众,针对模型本身的安全研究迅速增多,主要集中在越狱(jailbreak)、提示注入、隐私攻击和对抗样本等方面:

这些工作揭示了现有安全措施的不足,并促进了越狱检测、隐私保护和安全调优等新型防御机制的发展。

3-LLM 在模糊测试、漏洞利用和协议分析中的应用

LLM 能生成结构化语法或推理内部状态,被广泛应用于自动发现漏洞与生成攻击载荷:

4-LLM 滥用与内容检测

随着 LLM 成为信息生成工具,利用其生成网络钓鱼、虚假论文等恶意内容的风险增加,相应的检测与治理研究也在兴起:

5-LLM 应用与评测基准

为了评估 LLM 在安全领域的能力并指导模型改进,相关研究者提出了多个基准测试和经验研究:

6-系统级隐私与安全漏洞

研究者还发现 LLM 服务和框架在系统层面存在新的攻击面和隐私泄露风险:

7-其他

总结

整体来看,安全四大顶会中关于 LLM 的研究呈现出以下趋势:

  1. 应用从单点调用走向多智能体工作流:研究者不仅利用 LLM 回答安全问题,更通过定义角色明确的 Agent 协同完成漏洞挖掘、渗透测试、代码修复等复杂任务。RAG 等技术被广泛用于弥补模型知识时效性(paper)。
  2. 攻防并重,模型安全成为焦点:越狱、提示注入、隐私窃取等攻击层出不穷,催生了 JBShield、KV‑Cloak、SelfDefend 等防御方案;同时也暴露了安全对齐不牢和水印脆弱等问题(paper)。
  3. 误用检测与规范治理亟需发展:钓鱼邮件、仇恨言论、虚假内容检测及 robots.txt 管理凸显 LLM 被恶意滥用的风险,引发了对内容审核和治理政策的讨论(paper)。
  4. 系统层面的安全隐患受关注:从 KV‑cache 到 RAG 知识库,研究表明 LLM 服务链条中存在新的攻击面,需要从系统架构、模型推理和外部数据源等方面设计全面的安全措施(paper)。
  5. 评测基准与经验研究不断完善:CS‑Eval 等基准帮助系统评估模型安全能力,SoK 工作揭示了现有研究的不足,强调方法论严谨性和 reproducibility(paper)。

未来,随着大模型在更多安全场景落地,如何在保障隐私和对齐的前提下构建可解释、高效且可靠的智能安全系统,将是研究的核心挑战。


编辑页面
分享到:

下一篇
欢迎使用 AstroPaper