
好工具变坏时:如何防止AI工具成瘾及AI充当双重间谍
AI辅助开发(或更时髦的版本“Vibe编程”) 正在对代码生成产生巨大而创新的影响。资深开发者们正大规模采用这些工具,而那些渴望亲手打造软件却缺乏相关经验的开发者,也借助这些工具构建起以往耗费大量成本和时间才能完成的资产。这项技术有望开启创新的新纪元,但同时也催生出多种新型漏洞和风险特征,令安全负责人们为缓解这些问题而绞尽脑汁。
A最近发现InvariantLabs 在 MCP(模型上下文协议)中发现了严重漏洞,该协议类似于 API 的框架,可使强大的人工智能工具能够自主地与其他软件和数据库交互。这使得一种新型漏洞类别——"工具中毒攻击"成为可能,该攻击对企业尤其具有破坏性。Windsurf和Cursor等主流AI工具亦未能幸免。鉴于其拥有数百万用户,管理此类新型安全问题所需的认知与技术至关重要。
目前这些工具的输出如下。正如文中所述,其安全性已达到可归类为企业级产品的持续稳定水平。近期研究论文中,AWS与Intuit的安全研究员维尼什·赛纳拉扎拉(Vinish Sainarajala)和伊丹·哈布勒(Idan Habler)指出:"随着AI系统的自主性增强,并通过MCP等功能开始直接与外部工具及实时数据交互,维护这些交互的安全性已变得至关重要。"
AI代理系统及模型上下文协议的风险概况
模型上下文协议是一款便捷的软件,由Anthropic开发。该协议能实现大型语言模型(LLM)AI代理与其他工具之间更顺畅、无缝的集成。这一强大用例开辟了全新可能性——让尖端AI解决方案能够与专有应用程序及GitHub等关键业务SaaS工具协同运作。您只需开始编写MCP服务器,并设定其运作方式与功能目标的指导原则即可。
实际上,MCP技术对安全领域的影响大多是积极的。它承诺能够实现安全专家使用的技术栈与LLM之间更直接的集成,这种吸引力不容忽视。至少它证明了,无需为每项任务编写和部署定制代码,就能实现前所未有的精准安全操作自动化。考虑到数据、工具与人力之间广泛的可见性与互联性是有效安全防御与规划的基础,MCP赋予LLM的增强互操作性为企业安全带来了令人振奋的前景。
然而,使用MCP会引入其他威胁载体,若管理不慎,企业攻击面可能大幅扩大。正如Invariant Labs所指出的,工具中毒攻击构成了一类新型漏洞,可能导致敏感数据泄露及AI模型未经授权的活动,由此引发的安全影响将迅速恶化。
根据InvariantLabs的研究,当MCP工具说明中包含恶意指令时(用户虽不可见,但AI模型可完全读取并执行),便可能引发工具中毒攻击。此类攻击能诱使工具在用户不知情的情况下执行非法操作。问题根源在于MCP系统必须信任所有工具说明的假设——这恰恰是威胁行为者梦寐以求的条件。
他们注意到损坏的工具可能导致以下后果:
- 指示AI模型访问敏感文件(例如SSH密钥、配置文件、数据库等)
- 在这种恶意行为本质上对用户隐匿的环境中,指令AI提取并传输这些数据。
- 工具输入与输出的界面设计看似极其简单,却可能在背后制造用户所见与AI模型实际执行操作之间的割裂。
这属于令人担忧的脆弱性范畴,随着MCP使用不可避免地持续增长,此类问题几乎肯定会更频繁地出现。随着企业安全计划的发展,关键在于采取审慎措施来发现并缓解这些威胁,同时做好充分准备以确保开发人员能够参与解决。
具备安全技术能力的开发者才应使用代理AI工具的原因
代理式人工智能编码工具被视为人工智能辅助编码的下一代演进,能够提升软件开发的效率、生产力和灵活性。其增强的上下文与意图理解能力使其尤为实用,但仍无法完全免受攻击者的即时注入、幻觉或行为操纵等威胁。
开发者是区分优质代码提交与劣质代码提交的防线,同时保持敏锐的安全意识和批判性思维能力,将成为未来安全软件开发的基础。
人工智能的结果绝不应被盲目信任。具备安全意识的开发者通过运用情境化批判性思维,能够安全地利用这项技术带来的生产力提升。即便在采用结对编程的环境中,人类专家仍需对工具生成的任务进行评估、威胁建模及最终审批,这种协作模式应达到一定标准。
了解开发者如何利用人工智能升级技术并提升生产力。点击此处。
在实用缓解技巧及最新研究论文中了解更多内容
人工智能编码工具和MCP技术预计将成为网络安全未来的重要组成部分,但切记在确认水源之前务必深入了解。
纳拉亚拉和哈布勒斯详细阐述了在企业层面实施MCP并持续管理风险的全面缓解策略。该策略最终将围绕深度防御原则和零信任原则,明确针对这一新型生态系统为企业环境带来的独特风险特征。对于开发人员而言,弥补以下领域的知识差距至关重要:
- 认证与访问控制:Agentic AI工具具备自主决策能力,能够像人类工程师处理工程任务那样解决问题并达成预定目标。但正如我们此前所阐述的,熟练人员对这些流程的监督作用不可忽视。 在工作流中使用这些工具的开发者必须准确理解自身拥有何种访问权限、可检索或暴露哪些数据、以及数据可在何处共享。
- 常规威胁检测与缓解:与大多数AI流程类似,要发现工具输出的潜在缺陷和不准确性,用户必须精通相关操作。开发人员需持续提升技能并接受验证,以有效审查安全流程,并具备审查AI生成代码的准确性和权限。
- 安全政策与AI治理的协调:需向开发者告知获准使用的工具,提供技术培训机会及访问这些工具的途径。为确保提交内容可信,开发者和工具均需通过安全基准测试。
近期发布的研究论文阐述了Vibe编码及AI辅助编码的兴起,并阐明了企业为培养新一代AI驱动型软件工程师应采取的措施。立即查阅并联系我们,即刻强化您的开发团队。
首席执行官、主席和联合创始人

Secure Code Warrior致力于在整个软件开发生命周期中保护代码,并帮助组织建立将网络安全置于首位的文化。无论您是应用安全管理员、开发人员、首席信息安全官还是任何与安全相关的人员,我们都能协助您的组织降低与不安全代码相关的风险。
预约演示首席执行官、主席和联合创始人
Pieter Danhieux是全球公认的安全专家,拥有超过12年的安全顾问经验,并在SANS担任首席讲师8年,教授如何针对和评估组织、系统和个人的安全弱点的攻击性技术。2016年,他被评为澳大利亚最酷的科技人士之一(Business Insider),被授予年度网络安全专业人士(AISA - 澳大利亚信息安全协会),并持有GSE、CISSP、GCIH、GCFA、GSEC、GPEN、GWAPT、GCIA认证。


AI辅助开发(或更时髦的版本“Vibe编程”) 正在对代码生成产生巨大而创新的影响。资深开发者们正大规模采用这些工具,而那些渴望亲手打造软件却缺乏相关经验的开发者,也借助这些工具构建起以往耗费大量成本和时间才能完成的资产。这项技术有望开启创新的新纪元,但同时也催生出多种新型漏洞和风险特征,令安全负责人们为缓解这些问题而绞尽脑汁。
A最近发现InvariantLabs 在 MCP(模型上下文协议)中发现了严重漏洞,该协议类似于 API 的框架,可使强大的人工智能工具能够自主地与其他软件和数据库交互。这使得一种新型漏洞类别——"工具中毒攻击"成为可能,该攻击对企业尤其具有破坏性。Windsurf和Cursor等主流AI工具亦未能幸免。鉴于其拥有数百万用户,管理此类新型安全问题所需的认知与技术至关重要。
目前这些工具的输出如下。正如文中所述,其安全性已达到可归类为企业级产品的持续稳定水平。近期研究论文中,AWS与Intuit的安全研究员维尼什·赛纳拉扎拉(Vinish Sainarajala)和伊丹·哈布勒(Idan Habler)指出:"随着AI系统的自主性增强,并通过MCP等功能开始直接与外部工具及实时数据交互,维护这些交互的安全性已变得至关重要。"
AI代理系统及模型上下文协议的风险概况
模型上下文协议是一款便捷的软件,由Anthropic开发。该协议能实现大型语言模型(LLM)AI代理与其他工具之间更顺畅、无缝的集成。这一强大用例开辟了全新可能性——让尖端AI解决方案能够与专有应用程序及GitHub等关键业务SaaS工具协同运作。您只需开始编写MCP服务器,并设定其运作方式与功能目标的指导原则即可。
实际上,MCP技术对安全领域的影响大多是积极的。它承诺能够实现安全专家使用的技术栈与LLM之间更直接的集成,这种吸引力不容忽视。至少它证明了,无需为每项任务编写和部署定制代码,就能实现前所未有的精准安全操作自动化。考虑到数据、工具与人力之间广泛的可见性与互联性是有效安全防御与规划的基础,MCP赋予LLM的增强互操作性为企业安全带来了令人振奋的前景。
然而,使用MCP会引入其他威胁载体,若管理不慎,企业攻击面可能大幅扩大。正如Invariant Labs所指出的,工具中毒攻击构成了一类新型漏洞,可能导致敏感数据泄露及AI模型未经授权的活动,由此引发的安全影响将迅速恶化。
根据InvariantLabs的研究,当MCP工具说明中包含恶意指令时(用户虽不可见,但AI模型可完全读取并执行),便可能引发工具中毒攻击。此类攻击能诱使工具在用户不知情的情况下执行非法操作。问题根源在于MCP系统必须信任所有工具说明的假设——这恰恰是威胁行为者梦寐以求的条件。
他们注意到损坏的工具可能导致以下后果:
- 指示AI模型访问敏感文件(例如SSH密钥、配置文件、数据库等)
- 在这种恶意行为本质上对用户隐匿的环境中,指令AI提取并传输这些数据。
- 工具输入与输出的界面设计看似极其简单,却可能在背后制造用户所见与AI模型实际执行操作之间的割裂。
这属于令人担忧的脆弱性范畴,随着MCP使用不可避免地持续增长,此类问题几乎肯定会更频繁地出现。随着企业安全计划的发展,关键在于采取审慎措施来发现并缓解这些威胁,同时做好充分准备以确保开发人员能够参与解决。
具备安全技术能力的开发者才应使用代理AI工具的原因
代理式人工智能编码工具被视为人工智能辅助编码的下一代演进,能够提升软件开发的效率、生产力和灵活性。其增强的上下文与意图理解能力使其尤为实用,但仍无法完全免受攻击者的即时注入、幻觉或行为操纵等威胁。
开发者是区分优质代码提交与劣质代码提交的防线,同时保持敏锐的安全意识和批判性思维能力,将成为未来安全软件开发的基础。
人工智能的结果绝不应被盲目信任。具备安全意识的开发者通过运用情境化批判性思维,能够安全地利用这项技术带来的生产力提升。即便在采用结对编程的环境中,人类专家仍需对工具生成的任务进行评估、威胁建模及最终审批,这种协作模式应达到一定标准。
了解开发者如何利用人工智能升级技术并提升生产力。点击此处。
在实用缓解技巧及最新研究论文中了解更多内容
人工智能编码工具和MCP技术预计将成为网络安全未来的重要组成部分,但切记在确认水源之前务必深入了解。
纳拉亚拉和哈布勒斯详细阐述了在企业层面实施MCP并持续管理风险的全面缓解策略。该策略最终将围绕深度防御原则和零信任原则,明确针对这一新型生态系统为企业环境带来的独特风险特征。对于开发人员而言,弥补以下领域的知识差距至关重要:
- 认证与访问控制:Agentic AI工具具备自主决策能力,能够像人类工程师处理工程任务那样解决问题并达成预定目标。但正如我们此前所阐述的,熟练人员对这些流程的监督作用不可忽视。 在工作流中使用这些工具的开发者必须准确理解自身拥有何种访问权限、可检索或暴露哪些数据、以及数据可在何处共享。
- 常规威胁检测与缓解:与大多数AI流程类似,要发现工具输出的潜在缺陷和不准确性,用户必须精通相关操作。开发人员需持续提升技能并接受验证,以有效审查安全流程,并具备审查AI生成代码的准确性和权限。
- 安全政策与AI治理的协调:需向开发者告知获准使用的工具,提供技术培训机会及访问这些工具的途径。为确保提交内容可信,开发者和工具均需通过安全基准测试。
近期发布的研究论文阐述了Vibe编码及AI辅助编码的兴起,并阐明了企业为培养新一代AI驱动型软件工程师应采取的措施。立即查阅并联系我们,即刻强化您的开发团队。

AI辅助开发(或更时髦的版本“Vibe编程”) 正在对代码生成产生巨大而创新的影响。资深开发者们正大规模采用这些工具,而那些渴望亲手打造软件却缺乏相关经验的开发者,也借助这些工具构建起以往耗费大量成本和时间才能完成的资产。这项技术有望开启创新的新纪元,但同时也催生出多种新型漏洞和风险特征,令安全负责人们为缓解这些问题而绞尽脑汁。
A最近发现InvariantLabs 在 MCP(模型上下文协议)中发现了严重漏洞,该协议类似于 API 的框架,可使强大的人工智能工具能够自主地与其他软件和数据库交互。这使得一种新型漏洞类别——"工具中毒攻击"成为可能,该攻击对企业尤其具有破坏性。Windsurf和Cursor等主流AI工具亦未能幸免。鉴于其拥有数百万用户,管理此类新型安全问题所需的认知与技术至关重要。
目前这些工具的输出如下。正如文中所述,其安全性已达到可归类为企业级产品的持续稳定水平。近期研究论文中,AWS与Intuit的安全研究员维尼什·赛纳拉扎拉(Vinish Sainarajala)和伊丹·哈布勒(Idan Habler)指出:"随着AI系统的自主性增强,并通过MCP等功能开始直接与外部工具及实时数据交互,维护这些交互的安全性已变得至关重要。"
AI代理系统及模型上下文协议的风险概况
模型上下文协议是一款便捷的软件,由Anthropic开发。该协议能实现大型语言模型(LLM)AI代理与其他工具之间更顺畅、无缝的集成。这一强大用例开辟了全新可能性——让尖端AI解决方案能够与专有应用程序及GitHub等关键业务SaaS工具协同运作。您只需开始编写MCP服务器,并设定其运作方式与功能目标的指导原则即可。
实际上,MCP技术对安全领域的影响大多是积极的。它承诺能够实现安全专家使用的技术栈与LLM之间更直接的集成,这种吸引力不容忽视。至少它证明了,无需为每项任务编写和部署定制代码,就能实现前所未有的精准安全操作自动化。考虑到数据、工具与人力之间广泛的可见性与互联性是有效安全防御与规划的基础,MCP赋予LLM的增强互操作性为企业安全带来了令人振奋的前景。
然而,使用MCP会引入其他威胁载体,若管理不慎,企业攻击面可能大幅扩大。正如Invariant Labs所指出的,工具中毒攻击构成了一类新型漏洞,可能导致敏感数据泄露及AI模型未经授权的活动,由此引发的安全影响将迅速恶化。
根据InvariantLabs的研究,当MCP工具说明中包含恶意指令时(用户虽不可见,但AI模型可完全读取并执行),便可能引发工具中毒攻击。此类攻击能诱使工具在用户不知情的情况下执行非法操作。问题根源在于MCP系统必须信任所有工具说明的假设——这恰恰是威胁行为者梦寐以求的条件。
他们注意到损坏的工具可能导致以下后果:
- 指示AI模型访问敏感文件(例如SSH密钥、配置文件、数据库等)
- 在这种恶意行为本质上对用户隐匿的环境中,指令AI提取并传输这些数据。
- 工具输入与输出的界面设计看似极其简单,却可能在背后制造用户所见与AI模型实际执行操作之间的割裂。
这属于令人担忧的脆弱性范畴,随着MCP使用不可避免地持续增长,此类问题几乎肯定会更频繁地出现。随着企业安全计划的发展,关键在于采取审慎措施来发现并缓解这些威胁,同时做好充分准备以确保开发人员能够参与解决。
具备安全技术能力的开发者才应使用代理AI工具的原因
代理式人工智能编码工具被视为人工智能辅助编码的下一代演进,能够提升软件开发的效率、生产力和灵活性。其增强的上下文与意图理解能力使其尤为实用,但仍无法完全免受攻击者的即时注入、幻觉或行为操纵等威胁。
开发者是区分优质代码提交与劣质代码提交的防线,同时保持敏锐的安全意识和批判性思维能力,将成为未来安全软件开发的基础。
人工智能的结果绝不应被盲目信任。具备安全意识的开发者通过运用情境化批判性思维,能够安全地利用这项技术带来的生产力提升。即便在采用结对编程的环境中,人类专家仍需对工具生成的任务进行评估、威胁建模及最终审批,这种协作模式应达到一定标准。
了解开发者如何利用人工智能升级技术并提升生产力。点击此处。
在实用缓解技巧及最新研究论文中了解更多内容
人工智能编码工具和MCP技术预计将成为网络安全未来的重要组成部分,但切记在确认水源之前务必深入了解。
纳拉亚拉和哈布勒斯详细阐述了在企业层面实施MCP并持续管理风险的全面缓解策略。该策略最终将围绕深度防御原则和零信任原则,明确针对这一新型生态系统为企业环境带来的独特风险特征。对于开发人员而言,弥补以下领域的知识差距至关重要:
- 认证与访问控制:Agentic AI工具具备自主决策能力,能够像人类工程师处理工程任务那样解决问题并达成预定目标。但正如我们此前所阐述的,熟练人员对这些流程的监督作用不可忽视。 在工作流中使用这些工具的开发者必须准确理解自身拥有何种访问权限、可检索或暴露哪些数据、以及数据可在何处共享。
- 常规威胁检测与缓解:与大多数AI流程类似,要发现工具输出的潜在缺陷和不准确性,用户必须精通相关操作。开发人员需持续提升技能并接受验证,以有效审查安全流程,并具备审查AI生成代码的准确性和权限。
- 安全政策与AI治理的协调:需向开发者告知获准使用的工具,提供技术培训机会及访问这些工具的途径。为确保提交内容可信,开发者和工具均需通过安全基准测试。
近期发布的研究论文阐述了Vibe编码及AI辅助编码的兴起,并阐明了企业为培养新一代AI驱动型软件工程师应采取的措施。立即查阅并联系我们,即刻强化您的开发团队。

点击下方链接下载此资源的PDF文件。
Secure Code Warrior致力于在整个软件开发生命周期中保护代码,并帮助组织建立将网络安全置于首位的文化。无论您是应用安全管理员、开发人员、首席信息安全官还是任何与安全相关的人员,我们都能协助您的组织降低与不安全代码相关的风险。
查看报告预约演示首席执行官、主席和联合创始人
Pieter Danhieux是全球公认的安全专家,拥有超过12年的安全顾问经验,并在SANS担任首席讲师8年,教授如何针对和评估组织、系统和个人的安全弱点的攻击性技术。2016年,他被评为澳大利亚最酷的科技人士之一(Business Insider),被授予年度网络安全专业人士(AISA - 澳大利亚信息安全协会),并持有GSE、CISSP、GCIH、GCFA、GSEC、GPEN、GWAPT、GCIA认证。
AI辅助开发(或更时髦的版本“Vibe编程”) 正在对代码生成产生巨大而创新的影响。资深开发者们正大规模采用这些工具,而那些渴望亲手打造软件却缺乏相关经验的开发者,也借助这些工具构建起以往耗费大量成本和时间才能完成的资产。这项技术有望开启创新的新纪元,但同时也催生出多种新型漏洞和风险特征,令安全负责人们为缓解这些问题而绞尽脑汁。
A最近发现InvariantLabs 在 MCP(模型上下文协议)中发现了严重漏洞,该协议类似于 API 的框架,可使强大的人工智能工具能够自主地与其他软件和数据库交互。这使得一种新型漏洞类别——"工具中毒攻击"成为可能,该攻击对企业尤其具有破坏性。Windsurf和Cursor等主流AI工具亦未能幸免。鉴于其拥有数百万用户,管理此类新型安全问题所需的认知与技术至关重要。
目前这些工具的输出如下。正如文中所述,其安全性已达到可归类为企业级产品的持续稳定水平。近期研究论文中,AWS与Intuit的安全研究员维尼什·赛纳拉扎拉(Vinish Sainarajala)和伊丹·哈布勒(Idan Habler)指出:"随着AI系统的自主性增强,并通过MCP等功能开始直接与外部工具及实时数据交互,维护这些交互的安全性已变得至关重要。"
AI代理系统及模型上下文协议的风险概况
模型上下文协议是一款便捷的软件,由Anthropic开发。该协议能实现大型语言模型(LLM)AI代理与其他工具之间更顺畅、无缝的集成。这一强大用例开辟了全新可能性——让尖端AI解决方案能够与专有应用程序及GitHub等关键业务SaaS工具协同运作。您只需开始编写MCP服务器,并设定其运作方式与功能目标的指导原则即可。
实际上,MCP技术对安全领域的影响大多是积极的。它承诺能够实现安全专家使用的技术栈与LLM之间更直接的集成,这种吸引力不容忽视。至少它证明了,无需为每项任务编写和部署定制代码,就能实现前所未有的精准安全操作自动化。考虑到数据、工具与人力之间广泛的可见性与互联性是有效安全防御与规划的基础,MCP赋予LLM的增强互操作性为企业安全带来了令人振奋的前景。
然而,使用MCP会引入其他威胁载体,若管理不慎,企业攻击面可能大幅扩大。正如Invariant Labs所指出的,工具中毒攻击构成了一类新型漏洞,可能导致敏感数据泄露及AI模型未经授权的活动,由此引发的安全影响将迅速恶化。
根据InvariantLabs的研究,当MCP工具说明中包含恶意指令时(用户虽不可见,但AI模型可完全读取并执行),便可能引发工具中毒攻击。此类攻击能诱使工具在用户不知情的情况下执行非法操作。问题根源在于MCP系统必须信任所有工具说明的假设——这恰恰是威胁行为者梦寐以求的条件。
他们注意到损坏的工具可能导致以下后果:
- 指示AI模型访问敏感文件(例如SSH密钥、配置文件、数据库等)
- 在这种恶意行为本质上对用户隐匿的环境中,指令AI提取并传输这些数据。
- 工具输入与输出的界面设计看似极其简单,却可能在背后制造用户所见与AI模型实际执行操作之间的割裂。
这属于令人担忧的脆弱性范畴,随着MCP使用不可避免地持续增长,此类问题几乎肯定会更频繁地出现。随着企业安全计划的发展,关键在于采取审慎措施来发现并缓解这些威胁,同时做好充分准备以确保开发人员能够参与解决。
具备安全技术能力的开发者才应使用代理AI工具的原因
代理式人工智能编码工具被视为人工智能辅助编码的下一代演进,能够提升软件开发的效率、生产力和灵活性。其增强的上下文与意图理解能力使其尤为实用,但仍无法完全免受攻击者的即时注入、幻觉或行为操纵等威胁。
开发者是区分优质代码提交与劣质代码提交的防线,同时保持敏锐的安全意识和批判性思维能力,将成为未来安全软件开发的基础。
人工智能的结果绝不应被盲目信任。具备安全意识的开发者通过运用情境化批判性思维,能够安全地利用这项技术带来的生产力提升。即便在采用结对编程的环境中,人类专家仍需对工具生成的任务进行评估、威胁建模及最终审批,这种协作模式应达到一定标准。
了解开发者如何利用人工智能升级技术并提升生产力。点击此处。
在实用缓解技巧及最新研究论文中了解更多内容
人工智能编码工具和MCP技术预计将成为网络安全未来的重要组成部分,但切记在确认水源之前务必深入了解。
纳拉亚拉和哈布勒斯详细阐述了在企业层面实施MCP并持续管理风险的全面缓解策略。该策略最终将围绕深度防御原则和零信任原则,明确针对这一新型生态系统为企业环境带来的独特风险特征。对于开发人员而言,弥补以下领域的知识差距至关重要:
- 认证与访问控制:Agentic AI工具具备自主决策能力,能够像人类工程师处理工程任务那样解决问题并达成预定目标。但正如我们此前所阐述的,熟练人员对这些流程的监督作用不可忽视。 在工作流中使用这些工具的开发者必须准确理解自身拥有何种访问权限、可检索或暴露哪些数据、以及数据可在何处共享。
- 常规威胁检测与缓解:与大多数AI流程类似,要发现工具输出的潜在缺陷和不准确性,用户必须精通相关操作。开发人员需持续提升技能并接受验证,以有效审查安全流程,并具备审查AI生成代码的准确性和权限。
- 安全政策与AI治理的协调:需向开发者告知获准使用的工具,提供技术培训机会及访问这些工具的途径。为确保提交内容可信,开发者和工具均需通过安全基准测试。
近期发布的研究论文阐述了Vibe编码及AI辅助编码的兴起,并阐明了企业为培养新一代AI驱动型软件工程师应采取的措施。立即查阅并联系我们,即刻强化您的开发团队。
有助于开始的资源
Trust Agent:AI - Secure and scale AI-Drive development
AI is writing code. Who’s governing it? With up to 50% of AI-generated code containing security weaknesses, managing AI risk is critical. Discover how SCW's Trust Agent: AI provides the real-time visibility, proactive governance, and targeted upskilling needed to scale AI-driven development securely.
OpenText 应用程序安全性的强大功能 + Secure Code Warrior
OpenText Application Security and Secure Code Warrior combine vulnerability detection with AI Software Governance and developer capability. Together, they help organizations reduce risk, strengthen secure coding practices, and confidently adopt AI-driven development.
Secure Code Warrior corporate overview
Secure Code Warrior is an AI Software Governance platform designed to enable organizations to safely adopt AI-driven development by bridging the gap between development velocity and enterprise security. The platform addresses the "Visibility Gap," where security teams often lack insights into shadow AI coding tools and the origins of production code.




