在软件开发中快速采用代理人工智能!(剧透:你可能不应该采用)。
作为一名网络安全专业人士,你是否曾有过这样的感觉:现在,每个人都在进入代理人工智能的高速发展期,而也许是时候慢慢反思一下了?现在,我们许多人在人工智能安全水晶球中看到的一切突然变成了现实。
11 月 14 日星期五,Anthropic(全球最知名的 LLM 供应商之一,因其广受欢迎的克劳德代码工具而闻名)发布了一篇突破性论文,内容是他们在 2025 年 9 月观察到的一起网络事件,该事件针对的是从大型科技公司、金融机构、化学制造公司到政府机构的所有人。
那么,这一切究竟是怎么回事,为何如此令人担忧?通俗地说,一个高度先进的威胁行为者(据称是一个民族国家)使用克劳德代码和开发者环境中的一系列工具,利用模型上下文协议(MCP)系统,几乎自主地大规模使用良性开源黑客工具,针对精心挑选的公司进行攻击。共有 30 多次攻击尝试;其中几次获得成功,证明人工智能代理确实可以在极少人为干预的情况下实施破坏性的入侵。
上个月,Koi Security 发现了首个针对 VS Code 扩展程序的自传播蠕虫GlassWorm。虽然后者并不是新的攻击载体,但现在出现了新一波的编码扩展(包括 MCP 服务器),乍一看,它们具有良性功能,但在引擎盖下却承载着一系列恶意活动,可能会迅速危及开发人员的终端。
也许我们现在应该放慢脚步,深吸一口气,集思广益,找出抵御这种新威胁的最佳办法。
确保系统免受高速人工智能代理的攻击
Anthropic 最近发表的论文通过展示人工智能如何显著加速和放大分布式风险,强调了一种强大的新威胁,证实了安全界许多人长期以来的担忧。这一发展为恶意行为者提供了更多优势,考虑到他们在管理普通企业技术扩张方面已经领先于疲于奔命、捉襟见肘的安全人员,这种优势令人抓狂。
实质上,国家支持的攻击者设法 "越狱 "了克劳德代码模型。他们成功诱使人工智能绕过复杂的安全协议,执行敌对行动。一旦被入侵,流氓人工智能代理利用其 MCP 访问权限,迅速渗透到各种企业系统和工具中。它能在最先进的人类黑客集体都无法在短时间内找到并精确定位目标组织内的高度敏感数据库。
这一漏洞引发了一系列可怕的行动:全面的漏洞测试、自动生成恶意代码,甚至是攻击的自我记录,包括系统扫描日志和成功窃取的个人身份信息 (PII)。
对于安全领域的资深人士来说,这确实是一个噩梦般的场景。人类团队怎么可能比得上由这种人工智能驱动的攻击载体的速度和破坏能力?
开发者终端和新的人工智能生态系统提供了新的攻击载体
每个开发人员都喜欢自己的集成开发环境,无论是经典的 VSCode、JetBrains 的 IntelliJ 或 Eclipse,还是较新的 Cline、Windsurf 或 Cursor,其中大多数都有应用程序市场,提供可供下载和安装的扩展。这些扩展程序很少被仔细检查是否存在恶意活动,通常都是超权限运行,并可进入沙盒环境访问文件。
这些环境现在都集成了人工智能功能、人工智能代理以及这些代理可以使用的一系列新工具(例如 MCP 服务器)。通常,这些都是通过市场发布的,任何开发者都可以在市场上发布他们的新工具。是的,你猜对了,这些 MCP 服务器通常可以通过人工智能环境在系统上读取、写入和执行命令,而人工智能环境很可能容易受到提示注入的影响。会出什么问题呢?
对人工智能工具可追溯性和可观测性的需求不容商量
这一切既复杂又简单:如果 CISO 不知道哪些开发人员正在使用哪些人工智能工具,哪些代码正在提交,或者哪些资源库通过人类与人工智能的协作得到了增强,那么就缺少了一个庞大的数据集,而可观察性需要在昨天得到改善。
目前,绝大多数开发人员都在使用人工智能编码助手和 MCP 服务器,它们的快速集成在 SDLC 中形成了一个关键的安全盲点。数据令人震惊:在功能正确的 LLM 生成的代码中,高达 50%的代码被发现包含安全漏洞,但由于缺乏适当的可观察性,CISO 和 AppSec 团队无法深入了解这些高风险代码的数量和来源。由于严重缺乏可追溯性,因此无法以政策执行和风险缓解的形式进行有效的人工智能治理。
为了安全地最大限度地提高人工智能带来的巨大生产力,企业必须采用能够提供人工智能攻击面完整、深入可见性的解决方案。Secure Code Warrior 的SCW Trust Agent:AI处于封闭测试阶段,我们选择了部分客户。该功能通过在开发人员的本地机器上实时主动监控人工智能生成的代码流量(包括 MCP 服务器),并通过拉取请求和提交到实际软件库的 IDE 跟踪,提供深度可观察性。只有将以下三个重要信号关联起来,才能实现准确的安全可追溯性:所使用的特定人工智能编码工具和 LLM 模型、目标代码库,以及最关键的,开发人员的安全编码熟练程度。
只有通过建立这种可验证的关联链,企业才能准确衡量引入的实际安全风险,自动执行稳健的策略,并确保人工智能开发人员在其贡献成功绕过现有防护网之前,就能满足强制性安全编码标准。
如果您想了解更多信息或观看超强人工智能治理的演示,请与我们联系,或发送信息加入测试计划。
首席执行官、主席和联合创始人

Secure Code Warrior 我们在这里为您的组织提供服务,帮助您在整个软件开发生命周期中确保代码安全,并创造一种将网络安全放在首位的文化。无论您是应用安全经理、开发人员、CISO或任何涉及安全的人,我们都可以帮助您的组织减少与不安全代码有关的风险。
预定一个演示首席执行官、主席和联合创始人
Pieter Danhieux是全球公认的安全专家,拥有超过12年的安全顾问经验,并在SANS担任首席讲师8年,教授如何针对和评估组织、系统和个人的安全弱点的攻击性技术。2016年,他被评为澳大利亚最酷的科技人士之一(Business Insider),被授予年度网络安全专业人士(AISA - 澳大利亚信息安全协会),并持有GSE、CISSP、GCIH、GCFA、GSEC、GPEN、GWAPT、GCIA认证。


作为一名网络安全专业人士,你是否曾有过这样的感觉:现在,每个人都在进入代理人工智能的高速发展期,而也许是时候慢慢反思一下了?现在,我们许多人在人工智能安全水晶球中看到的一切突然变成了现实。
11 月 14 日星期五,Anthropic(全球最知名的 LLM 供应商之一,因其广受欢迎的克劳德代码工具而闻名)发布了一篇突破性论文,内容是他们在 2025 年 9 月观察到的一起网络事件,该事件针对的是从大型科技公司、金融机构、化学制造公司到政府机构的所有人。
那么,这一切究竟是怎么回事,为何如此令人担忧?通俗地说,一个高度先进的威胁行为者(据称是一个民族国家)使用克劳德代码和开发者环境中的一系列工具,利用模型上下文协议(MCP)系统,几乎自主地大规模使用良性开源黑客工具,针对精心挑选的公司进行攻击。共有 30 多次攻击尝试;其中几次获得成功,证明人工智能代理确实可以在极少人为干预的情况下实施破坏性的入侵。
上个月,Koi Security 发现了首个针对 VS Code 扩展程序的自传播蠕虫GlassWorm。虽然后者并不是新的攻击载体,但现在出现了新一波的编码扩展(包括 MCP 服务器),乍一看,它们具有良性功能,但在引擎盖下却承载着一系列恶意活动,可能会迅速危及开发人员的终端。
也许我们现在应该放慢脚步,深吸一口气,集思广益,找出抵御这种新威胁的最佳办法。
确保系统免受高速人工智能代理的攻击
Anthropic 最近发表的论文通过展示人工智能如何显著加速和放大分布式风险,强调了一种强大的新威胁,证实了安全界许多人长期以来的担忧。这一发展为恶意行为者提供了更多优势,考虑到他们在管理普通企业技术扩张方面已经领先于疲于奔命、捉襟见肘的安全人员,这种优势令人抓狂。
实质上,国家支持的攻击者设法 "越狱 "了克劳德代码模型。他们成功诱使人工智能绕过复杂的安全协议,执行敌对行动。一旦被入侵,流氓人工智能代理利用其 MCP 访问权限,迅速渗透到各种企业系统和工具中。它能在最先进的人类黑客集体都无法在短时间内找到并精确定位目标组织内的高度敏感数据库。
这一漏洞引发了一系列可怕的行动:全面的漏洞测试、自动生成恶意代码,甚至是攻击的自我记录,包括系统扫描日志和成功窃取的个人身份信息 (PII)。
对于安全领域的资深人士来说,这确实是一个噩梦般的场景。人类团队怎么可能比得上由这种人工智能驱动的攻击载体的速度和破坏能力?
开发者终端和新的人工智能生态系统提供了新的攻击载体
每个开发人员都喜欢自己的集成开发环境,无论是经典的 VSCode、JetBrains 的 IntelliJ 或 Eclipse,还是较新的 Cline、Windsurf 或 Cursor,其中大多数都有应用程序市场,提供可供下载和安装的扩展。这些扩展程序很少被仔细检查是否存在恶意活动,通常都是超权限运行,并可进入沙盒环境访问文件。
这些环境现在都集成了人工智能功能、人工智能代理以及这些代理可以使用的一系列新工具(例如 MCP 服务器)。通常,这些都是通过市场发布的,任何开发者都可以在市场上发布他们的新工具。是的,你猜对了,这些 MCP 服务器通常可以通过人工智能环境在系统上读取、写入和执行命令,而人工智能环境很可能容易受到提示注入的影响。会出什么问题呢?
对人工智能工具可追溯性和可观测性的需求不容商量
这一切既复杂又简单:如果 CISO 不知道哪些开发人员正在使用哪些人工智能工具,哪些代码正在提交,或者哪些资源库通过人类与人工智能的协作得到了增强,那么就缺少了一个庞大的数据集,而可观察性需要在昨天得到改善。
目前,绝大多数开发人员都在使用人工智能编码助手和 MCP 服务器,它们的快速集成在 SDLC 中形成了一个关键的安全盲点。数据令人震惊:在功能正确的 LLM 生成的代码中,高达 50%的代码被发现包含安全漏洞,但由于缺乏适当的可观察性,CISO 和 AppSec 团队无法深入了解这些高风险代码的数量和来源。由于严重缺乏可追溯性,因此无法以政策执行和风险缓解的形式进行有效的人工智能治理。
为了安全地最大限度地提高人工智能带来的巨大生产力,企业必须采用能够提供人工智能攻击面完整、深入可见性的解决方案。Secure Code Warrior 的SCW Trust Agent:AI处于封闭测试阶段,我们选择了部分客户。该功能通过在开发人员的本地机器上实时主动监控人工智能生成的代码流量(包括 MCP 服务器),并通过拉取请求和提交到实际软件库的 IDE 跟踪,提供深度可观察性。只有将以下三个重要信号关联起来,才能实现准确的安全可追溯性:所使用的特定人工智能编码工具和 LLM 模型、目标代码库,以及最关键的,开发人员的安全编码熟练程度。
只有通过建立这种可验证的关联链,企业才能准确衡量引入的实际安全风险,自动执行稳健的策略,并确保人工智能开发人员在其贡献成功绕过现有防护网之前,就能满足强制性安全编码标准。
如果您想了解更多信息或观看超强人工智能治理的演示,请与我们联系,或发送信息加入测试计划。

作为一名网络安全专业人士,你是否曾有过这样的感觉:现在,每个人都在进入代理人工智能的高速发展期,而也许是时候慢慢反思一下了?现在,我们许多人在人工智能安全水晶球中看到的一切突然变成了现实。
11 月 14 日星期五,Anthropic(全球最知名的 LLM 供应商之一,因其广受欢迎的克劳德代码工具而闻名)发布了一篇突破性论文,内容是他们在 2025 年 9 月观察到的一起网络事件,该事件针对的是从大型科技公司、金融机构、化学制造公司到政府机构的所有人。
那么,这一切究竟是怎么回事,为何如此令人担忧?通俗地说,一个高度先进的威胁行为者(据称是一个民族国家)使用克劳德代码和开发者环境中的一系列工具,利用模型上下文协议(MCP)系统,几乎自主地大规模使用良性开源黑客工具,针对精心挑选的公司进行攻击。共有 30 多次攻击尝试;其中几次获得成功,证明人工智能代理确实可以在极少人为干预的情况下实施破坏性的入侵。
上个月,Koi Security 发现了首个针对 VS Code 扩展程序的自传播蠕虫GlassWorm。虽然后者并不是新的攻击载体,但现在出现了新一波的编码扩展(包括 MCP 服务器),乍一看,它们具有良性功能,但在引擎盖下却承载着一系列恶意活动,可能会迅速危及开发人员的终端。
也许我们现在应该放慢脚步,深吸一口气,集思广益,找出抵御这种新威胁的最佳办法。
确保系统免受高速人工智能代理的攻击
Anthropic 最近发表的论文通过展示人工智能如何显著加速和放大分布式风险,强调了一种强大的新威胁,证实了安全界许多人长期以来的担忧。这一发展为恶意行为者提供了更多优势,考虑到他们在管理普通企业技术扩张方面已经领先于疲于奔命、捉襟见肘的安全人员,这种优势令人抓狂。
实质上,国家支持的攻击者设法 "越狱 "了克劳德代码模型。他们成功诱使人工智能绕过复杂的安全协议,执行敌对行动。一旦被入侵,流氓人工智能代理利用其 MCP 访问权限,迅速渗透到各种企业系统和工具中。它能在最先进的人类黑客集体都无法在短时间内找到并精确定位目标组织内的高度敏感数据库。
这一漏洞引发了一系列可怕的行动:全面的漏洞测试、自动生成恶意代码,甚至是攻击的自我记录,包括系统扫描日志和成功窃取的个人身份信息 (PII)。
对于安全领域的资深人士来说,这确实是一个噩梦般的场景。人类团队怎么可能比得上由这种人工智能驱动的攻击载体的速度和破坏能力?
开发者终端和新的人工智能生态系统提供了新的攻击载体
每个开发人员都喜欢自己的集成开发环境,无论是经典的 VSCode、JetBrains 的 IntelliJ 或 Eclipse,还是较新的 Cline、Windsurf 或 Cursor,其中大多数都有应用程序市场,提供可供下载和安装的扩展。这些扩展程序很少被仔细检查是否存在恶意活动,通常都是超权限运行,并可进入沙盒环境访问文件。
这些环境现在都集成了人工智能功能、人工智能代理以及这些代理可以使用的一系列新工具(例如 MCP 服务器)。通常,这些都是通过市场发布的,任何开发者都可以在市场上发布他们的新工具。是的,你猜对了,这些 MCP 服务器通常可以通过人工智能环境在系统上读取、写入和执行命令,而人工智能环境很可能容易受到提示注入的影响。会出什么问题呢?
对人工智能工具可追溯性和可观测性的需求不容商量
这一切既复杂又简单:如果 CISO 不知道哪些开发人员正在使用哪些人工智能工具,哪些代码正在提交,或者哪些资源库通过人类与人工智能的协作得到了增强,那么就缺少了一个庞大的数据集,而可观察性需要在昨天得到改善。
目前,绝大多数开发人员都在使用人工智能编码助手和 MCP 服务器,它们的快速集成在 SDLC 中形成了一个关键的安全盲点。数据令人震惊:在功能正确的 LLM 生成的代码中,高达 50%的代码被发现包含安全漏洞,但由于缺乏适当的可观察性,CISO 和 AppSec 团队无法深入了解这些高风险代码的数量和来源。由于严重缺乏可追溯性,因此无法以政策执行和风险缓解的形式进行有效的人工智能治理。
为了安全地最大限度地提高人工智能带来的巨大生产力,企业必须采用能够提供人工智能攻击面完整、深入可见性的解决方案。Secure Code Warrior 的SCW Trust Agent:AI处于封闭测试阶段,我们选择了部分客户。该功能通过在开发人员的本地机器上实时主动监控人工智能生成的代码流量(包括 MCP 服务器),并通过拉取请求和提交到实际软件库的 IDE 跟踪,提供深度可观察性。只有将以下三个重要信号关联起来,才能实现准确的安全可追溯性:所使用的特定人工智能编码工具和 LLM 模型、目标代码库,以及最关键的,开发人员的安全编码熟练程度。
只有通过建立这种可验证的关联链,企业才能准确衡量引入的实际安全风险,自动执行稳健的策略,并确保人工智能开发人员在其贡献成功绕过现有防护网之前,就能满足强制性安全编码标准。
如果您想了解更多信息或观看超强人工智能治理的演示,请与我们联系,或发送信息加入测试计划。

点击下面的链接,下载本资料的 PDF 文件。
Secure Code Warrior 我们在这里为您的组织提供服务,帮助您在整个软件开发生命周期中确保代码安全,并创造一种将网络安全放在首位的文化。无论您是应用安全经理、开发人员、CISO或任何涉及安全的人,我们都可以帮助您的组织减少与不安全代码有关的风险。
查看报告预定一个演示首席执行官、主席和联合创始人
Pieter Danhieux是全球公认的安全专家,拥有超过12年的安全顾问经验,并在SANS担任首席讲师8年,教授如何针对和评估组织、系统和个人的安全弱点的攻击性技术。2016年,他被评为澳大利亚最酷的科技人士之一(Business Insider),被授予年度网络安全专业人士(AISA - 澳大利亚信息安全协会),并持有GSE、CISSP、GCIH、GCFA、GSEC、GPEN、GWAPT、GCIA认证。
作为一名网络安全专业人士,你是否曾有过这样的感觉:现在,每个人都在进入代理人工智能的高速发展期,而也许是时候慢慢反思一下了?现在,我们许多人在人工智能安全水晶球中看到的一切突然变成了现实。
11 月 14 日星期五,Anthropic(全球最知名的 LLM 供应商之一,因其广受欢迎的克劳德代码工具而闻名)发布了一篇突破性论文,内容是他们在 2025 年 9 月观察到的一起网络事件,该事件针对的是从大型科技公司、金融机构、化学制造公司到政府机构的所有人。
那么,这一切究竟是怎么回事,为何如此令人担忧?通俗地说,一个高度先进的威胁行为者(据称是一个民族国家)使用克劳德代码和开发者环境中的一系列工具,利用模型上下文协议(MCP)系统,几乎自主地大规模使用良性开源黑客工具,针对精心挑选的公司进行攻击。共有 30 多次攻击尝试;其中几次获得成功,证明人工智能代理确实可以在极少人为干预的情况下实施破坏性的入侵。
上个月,Koi Security 发现了首个针对 VS Code 扩展程序的自传播蠕虫GlassWorm。虽然后者并不是新的攻击载体,但现在出现了新一波的编码扩展(包括 MCP 服务器),乍一看,它们具有良性功能,但在引擎盖下却承载着一系列恶意活动,可能会迅速危及开发人员的终端。
也许我们现在应该放慢脚步,深吸一口气,集思广益,找出抵御这种新威胁的最佳办法。
确保系统免受高速人工智能代理的攻击
Anthropic 最近发表的论文通过展示人工智能如何显著加速和放大分布式风险,强调了一种强大的新威胁,证实了安全界许多人长期以来的担忧。这一发展为恶意行为者提供了更多优势,考虑到他们在管理普通企业技术扩张方面已经领先于疲于奔命、捉襟见肘的安全人员,这种优势令人抓狂。
实质上,国家支持的攻击者设法 "越狱 "了克劳德代码模型。他们成功诱使人工智能绕过复杂的安全协议,执行敌对行动。一旦被入侵,流氓人工智能代理利用其 MCP 访问权限,迅速渗透到各种企业系统和工具中。它能在最先进的人类黑客集体都无法在短时间内找到并精确定位目标组织内的高度敏感数据库。
这一漏洞引发了一系列可怕的行动:全面的漏洞测试、自动生成恶意代码,甚至是攻击的自我记录,包括系统扫描日志和成功窃取的个人身份信息 (PII)。
对于安全领域的资深人士来说,这确实是一个噩梦般的场景。人类团队怎么可能比得上由这种人工智能驱动的攻击载体的速度和破坏能力?
开发者终端和新的人工智能生态系统提供了新的攻击载体
每个开发人员都喜欢自己的集成开发环境,无论是经典的 VSCode、JetBrains 的 IntelliJ 或 Eclipse,还是较新的 Cline、Windsurf 或 Cursor,其中大多数都有应用程序市场,提供可供下载和安装的扩展。这些扩展程序很少被仔细检查是否存在恶意活动,通常都是超权限运行,并可进入沙盒环境访问文件。
这些环境现在都集成了人工智能功能、人工智能代理以及这些代理可以使用的一系列新工具(例如 MCP 服务器)。通常,这些都是通过市场发布的,任何开发者都可以在市场上发布他们的新工具。是的,你猜对了,这些 MCP 服务器通常可以通过人工智能环境在系统上读取、写入和执行命令,而人工智能环境很可能容易受到提示注入的影响。会出什么问题呢?
对人工智能工具可追溯性和可观测性的需求不容商量
这一切既复杂又简单:如果 CISO 不知道哪些开发人员正在使用哪些人工智能工具,哪些代码正在提交,或者哪些资源库通过人类与人工智能的协作得到了增强,那么就缺少了一个庞大的数据集,而可观察性需要在昨天得到改善。
目前,绝大多数开发人员都在使用人工智能编码助手和 MCP 服务器,它们的快速集成在 SDLC 中形成了一个关键的安全盲点。数据令人震惊:在功能正确的 LLM 生成的代码中,高达 50%的代码被发现包含安全漏洞,但由于缺乏适当的可观察性,CISO 和 AppSec 团队无法深入了解这些高风险代码的数量和来源。由于严重缺乏可追溯性,因此无法以政策执行和风险缓解的形式进行有效的人工智能治理。
为了安全地最大限度地提高人工智能带来的巨大生产力,企业必须采用能够提供人工智能攻击面完整、深入可见性的解决方案。Secure Code Warrior 的SCW Trust Agent:AI处于封闭测试阶段,我们选择了部分客户。该功能通过在开发人员的本地机器上实时主动监控人工智能生成的代码流量(包括 MCP 服务器),并通过拉取请求和提交到实际软件库的 IDE 跟踪,提供深度可观察性。只有将以下三个重要信号关联起来,才能实现准确的安全可追溯性:所使用的特定人工智能编码工具和 LLM 模型、目标代码库,以及最关键的,开发人员的安全编码熟练程度。
只有通过建立这种可验证的关联链,企业才能准确衡量引入的实际安全风险,自动执行稳健的策略,并确保人工智能开发人员在其贡献成功绕过现有防护网之前,就能满足强制性安全编码标准。



.png)

.png)



