AI/LLM 安全视频系列:所有剧集,每周更新
人工智能/LLM 安全入门系列指南
GitHub Copilot、Cursor 等人工智能编码工具正在重塑软件的构建方式,但它们也带来了新的安全挑战,开发人员必须了解这些挑战,才能构建安全可靠的应用程序。为了帮助团队安全地采用人工智能,我们在 YouTube 上创建了一个为期 12 周的免费人工智能/LLM 安全介绍视频系列。
本博文是本系列的中心枢纽。每周,我们都会更新新的视频和说明,涵盖提示注入、数据和模型中毒、供应链风险、安全提示等基本概念。请将此页面添加到书签中,以便每周跟进,或者订阅我们的 YouTube 频道,以便在每节课发布后立即获取。
如果您想深入了解这些入门课程之外的内容,请浏览 SCW 平台中的完整人工智能/LLM 系列,如果您还不是我们的客户,也可申请演示。订阅我们的 YouTube 频道,观看每集新内容。如果您想了解最新内容、更新和资源,请在此选择加入我们的开发人员和安全领导者社区。
剧集(每周更新)
第 1 周 -人工智能编码风险:使用 LLMs 的危险
在本视频中,我们将探讨在编写代码时使用人工智能/LLMs 的潜在危险,并强调开发人员在将人工智能驱动的工具集成到工作流程时面临的主要风险。
第 2 周 - 人工智能编码的好处:安全的人工智能辅助开发
人工智能编码工具不仅仅是有风险的 - 如果使用安全,它们可以帮助开发人员更快、更智能地工作。在本视频中,我们将探讨在编写代码时使用人工智能/LLM 的优势,重点介绍团队如何以负责任的方式利用人工智能,同时避免常见的安全隐患。
第 3 周 - 提示注入详解:保护人工智能生成的代码
提示注入是最常见的人工智能/LLM 漏洞之一,每个开发人员都应该知道如何预防。在本视频中,我们将介绍可怕的
第 4 周 -敏感信息披露:避免人工智能数据泄露
人工智能驱动的工具可能会无意中泄露敏感信息,从而使您的应用程序和数据面临风险。在本视频中,我们将介绍敏感信息披露漏洞,解释它们是如何在使用人工智能/LLM 时出现的,并分享开发人员可以采取的实用步骤,以降低风险。
第 5 周 -人工智能供应链风险:确保依赖关系的安全
人工智能辅助开发加快了编码速度,但同时也带来了供应链风险,这些风险可能会影响应用程序的每一层。在本视频中,我们将探讨与人工智能/LLM 相关的漏洞,解释第三方模型和 API 如何扩大您的攻击面,并分享最大限度降低风险的策略。
第 6 周 -数据中毒:确保人工智能模型和输出的安全
人工智能系统的安全性取决于其训练数据--被破坏的输入会产生漏洞,并波及整个应用程序。在本视频中,我们将介绍数据和模型中毒攻击,解释恶意输入如何操纵人工智能输出,并分享保护系统安全的策略。
第 7 周 - 输出处理不当:验证人工智能生成的代码
人工智能驱动的工具可以快速生成代码,但如果不对输出进行验证,漏洞就会在不知不觉中潜入。在本视频中,我们将研究人工智能辅助开发中的不当输出处理,解释有风险的输出会如何危及您的应用程序,并分享保护生成代码的技术。
第 8 周 - 过度代理:控制人工智能自主性风险
随着人工智能系统变得越来越自主,过度代理产生了新的风险,即模型的行为超出了其预期范围。在本视频中,我们将探讨人工智能辅助开发中的过度代理漏洞,解释越权行为是如何产生的,并讨论如何保持对人工智能驱动流程的控制。
第 9 周 - 系统提示 泄漏:隐藏的人工智能安全风险
系统提示通常包括指导人工智能行为的隐藏指令--但如果这些指令被暴露,攻击者就可以操纵模型或提取敏感信息。在本视频中,我们将介绍系统提示泄漏漏洞,解释它们是如何发生的,并讨论开发人员可以采取哪些措施来保护其人工智能驱动的工作流。
第 10 周 - 向量弱点:确保人工智能检索工作流的安全
人工智能模型通常依赖于向量数据库和嵌入来提供强大的功能--但错误配置和不安全的实施会暴露敏感数据并创建新的攻击载体。在本视频中,我们将深入探讨向量和嵌入的弱点,解释常见的安全挑战,并分享确保人工智能驱动的搜索和检索工作流安全的策略。
第11周——人工智能虚假信息:规避幻觉风险
人工智能工具有时会生成看似正确实则错误的输出结果,由此产生的虚假信息风险将影响系统安全性、可靠性及决策过程。本视频将阐释人工智能辅助编程中的虚假信息漏洞,探究错误输出产生的机制,并分享验证与保障人工智能驱动内容安全性的策略。
第12周 — 无界消耗:防范AI拒绝服务风险
人工智能系统可能无限制地消耗资源,从而引发 拒绝服务(DoS)、数据泄露及意外运行故障等风险。本视频将解析AI/大型语言模型中的无界消耗漏洞成因,并分享监控、管控及保障AI资源使用的实用策略。
这些视频旨在介绍AI/LLM安全的核心概念,Secure Code Warrior 还有更多内容值得探索。您可深入参与模拟真实AI辅助代码审查与修复的AI挑战,查阅符合行业最佳实践的AI/LLM指南,并通过实践指南、Missions、探索和课程模板,亲身体验构建安全编码习惯的过程。 对于希望提升团队技能的用户,平台还提供持续扩充的AI/LLM专项学习库,涵盖130余项学习活动,包括"AI编程实践"、"AI风险与安全入门"及"LLM应用OWASP十大安全风险"等主题。立即申请演示获取更多信息。
Shannon Holt 是一名网络安全产品营销人员,具有应用程序安全、云安全服务以及 PCI-DSS 和 HITRUST 等合规标准方面的背景。

Secure Code Warrior 我们在这里为您的组织提供服务,帮助您在整个软件开发生命周期中确保代码安全,并创造一种将网络安全放在首位的文化。无论您是应用安全经理、开发人员、CISO或任何涉及安全的人,我们都可以帮助您的组织减少与不安全代码有关的风险。
预定一个演示Shannon Holt 是一名网络安全产品营销人员,具有应用程序安全、云安全服务以及 PCI-DSS 和 HITRUST 等合规标准方面的背景。
Shannon Holt 是一位网络安全产品营销人员,拥有应用安全、云安全服务以及 PCI-DSS 和 HITRUST 等合规性标准方面的背景。她致力于让安全开发和合规性对技术团队来说更加实用易行,从而弥合安全期望与现代软件开发现实之间的差距。


人工智能/LLM 安全入门系列指南
GitHub Copilot、Cursor 等人工智能编码工具正在重塑软件的构建方式,但它们也带来了新的安全挑战,开发人员必须了解这些挑战,才能构建安全可靠的应用程序。为了帮助团队安全地采用人工智能,我们在 YouTube 上创建了一个为期 12 周的免费人工智能/LLM 安全介绍视频系列。
本博文是本系列的中心枢纽。每周,我们都会更新新的视频和说明,涵盖提示注入、数据和模型中毒、供应链风险、安全提示等基本概念。请将此页面添加到书签中,以便每周跟进,或者订阅我们的 YouTube 频道,以便在每节课发布后立即获取。
如果您想深入了解这些入门课程之外的内容,请浏览 SCW 平台中的完整人工智能/LLM 系列,如果您还不是我们的客户,也可申请演示。订阅我们的 YouTube 频道,观看每集新内容。如果您想了解最新内容、更新和资源,请在此选择加入我们的开发人员和安全领导者社区。
剧集(每周更新)
第 1 周 -人工智能编码风险:使用 LLMs 的危险
在本视频中,我们将探讨在编写代码时使用人工智能/LLMs 的潜在危险,并强调开发人员在将人工智能驱动的工具集成到工作流程时面临的主要风险。
第 2 周 - 人工智能编码的好处:安全的人工智能辅助开发
人工智能编码工具不仅仅是有风险的 - 如果使用安全,它们可以帮助开发人员更快、更智能地工作。在本视频中,我们将探讨在编写代码时使用人工智能/LLM 的优势,重点介绍团队如何以负责任的方式利用人工智能,同时避免常见的安全隐患。
第 3 周 - 提示注入详解:保护人工智能生成的代码
提示注入是最常见的人工智能/LLM 漏洞之一,每个开发人员都应该知道如何预防。在本视频中,我们将介绍可怕的
第 4 周 -敏感信息披露:避免人工智能数据泄露
人工智能驱动的工具可能会无意中泄露敏感信息,从而使您的应用程序和数据面临风险。在本视频中,我们将介绍敏感信息披露漏洞,解释它们是如何在使用人工智能/LLM 时出现的,并分享开发人员可以采取的实用步骤,以降低风险。
第 5 周 -人工智能供应链风险:确保依赖关系的安全
人工智能辅助开发加快了编码速度,但同时也带来了供应链风险,这些风险可能会影响应用程序的每一层。在本视频中,我们将探讨与人工智能/LLM 相关的漏洞,解释第三方模型和 API 如何扩大您的攻击面,并分享最大限度降低风险的策略。
第 6 周 -数据中毒:确保人工智能模型和输出的安全
人工智能系统的安全性取决于其训练数据--被破坏的输入会产生漏洞,并波及整个应用程序。在本视频中,我们将介绍数据和模型中毒攻击,解释恶意输入如何操纵人工智能输出,并分享保护系统安全的策略。
第 7 周 - 输出处理不当:验证人工智能生成的代码
人工智能驱动的工具可以快速生成代码,但如果不对输出进行验证,漏洞就会在不知不觉中潜入。在本视频中,我们将研究人工智能辅助开发中的不当输出处理,解释有风险的输出会如何危及您的应用程序,并分享保护生成代码的技术。
第 8 周 - 过度代理:控制人工智能自主性风险
随着人工智能系统变得越来越自主,过度代理产生了新的风险,即模型的行为超出了其预期范围。在本视频中,我们将探讨人工智能辅助开发中的过度代理漏洞,解释越权行为是如何产生的,并讨论如何保持对人工智能驱动流程的控制。
第 9 周 - 系统提示 泄漏:隐藏的人工智能安全风险
系统提示通常包括指导人工智能行为的隐藏指令--但如果这些指令被暴露,攻击者就可以操纵模型或提取敏感信息。在本视频中,我们将介绍系统提示泄漏漏洞,解释它们是如何发生的,并讨论开发人员可以采取哪些措施来保护其人工智能驱动的工作流。
第 10 周 - 向量弱点:确保人工智能检索工作流的安全
人工智能模型通常依赖于向量数据库和嵌入来提供强大的功能--但错误配置和不安全的实施会暴露敏感数据并创建新的攻击载体。在本视频中,我们将深入探讨向量和嵌入的弱点,解释常见的安全挑战,并分享确保人工智能驱动的搜索和检索工作流安全的策略。
第11周——人工智能虚假信息:规避幻觉风险
人工智能工具有时会生成看似正确实则错误的输出结果,由此产生的虚假信息风险将影响系统安全性、可靠性及决策过程。本视频将阐释人工智能辅助编程中的虚假信息漏洞,探究错误输出产生的机制,并分享验证与保障人工智能驱动内容安全性的策略。
第12周 — 无界消耗:防范AI拒绝服务风险
人工智能系统可能无限制地消耗资源,从而引发 拒绝服务(DoS)、数据泄露及意外运行故障等风险。本视频将解析AI/大型语言模型中的无界消耗漏洞成因,并分享监控、管控及保障AI资源使用的实用策略。
这些视频旨在介绍AI/LLM安全的核心概念,Secure Code Warrior 还有更多内容值得探索。您可深入参与模拟真实AI辅助代码审查与修复的AI挑战,查阅符合行业最佳实践的AI/LLM指南,并通过实践指南、Missions、探索和课程模板,亲身体验构建安全编码习惯的过程。 对于希望提升团队技能的用户,平台还提供持续扩充的AI/LLM专项学习库,涵盖130余项学习活动,包括"AI编程实践"、"AI风险与安全入门"及"LLM应用OWASP十大安全风险"等主题。立即申请演示获取更多信息。

人工智能/LLM 安全入门系列指南
GitHub Copilot、Cursor 等人工智能编码工具正在重塑软件的构建方式,但它们也带来了新的安全挑战,开发人员必须了解这些挑战,才能构建安全可靠的应用程序。为了帮助团队安全地采用人工智能,我们在 YouTube 上创建了一个为期 12 周的免费人工智能/LLM 安全介绍视频系列。
本博文是本系列的中心枢纽。每周,我们都会更新新的视频和说明,涵盖提示注入、数据和模型中毒、供应链风险、安全提示等基本概念。请将此页面添加到书签中,以便每周跟进,或者订阅我们的 YouTube 频道,以便在每节课发布后立即获取。
如果您想深入了解这些入门课程之外的内容,请浏览 SCW 平台中的完整人工智能/LLM 系列,如果您还不是我们的客户,也可申请演示。订阅我们的 YouTube 频道,观看每集新内容。如果您想了解最新内容、更新和资源,请在此选择加入我们的开发人员和安全领导者社区。
剧集(每周更新)
第 1 周 -人工智能编码风险:使用 LLMs 的危险
在本视频中,我们将探讨在编写代码时使用人工智能/LLMs 的潜在危险,并强调开发人员在将人工智能驱动的工具集成到工作流程时面临的主要风险。
第 2 周 - 人工智能编码的好处:安全的人工智能辅助开发
人工智能编码工具不仅仅是有风险的 - 如果使用安全,它们可以帮助开发人员更快、更智能地工作。在本视频中,我们将探讨在编写代码时使用人工智能/LLM 的优势,重点介绍团队如何以负责任的方式利用人工智能,同时避免常见的安全隐患。
第 3 周 - 提示注入详解:保护人工智能生成的代码
提示注入是最常见的人工智能/LLM 漏洞之一,每个开发人员都应该知道如何预防。在本视频中,我们将介绍可怕的
第 4 周 -敏感信息披露:避免人工智能数据泄露
人工智能驱动的工具可能会无意中泄露敏感信息,从而使您的应用程序和数据面临风险。在本视频中,我们将介绍敏感信息披露漏洞,解释它们是如何在使用人工智能/LLM 时出现的,并分享开发人员可以采取的实用步骤,以降低风险。
第 5 周 -人工智能供应链风险:确保依赖关系的安全
人工智能辅助开发加快了编码速度,但同时也带来了供应链风险,这些风险可能会影响应用程序的每一层。在本视频中,我们将探讨与人工智能/LLM 相关的漏洞,解释第三方模型和 API 如何扩大您的攻击面,并分享最大限度降低风险的策略。
第 6 周 -数据中毒:确保人工智能模型和输出的安全
人工智能系统的安全性取决于其训练数据--被破坏的输入会产生漏洞,并波及整个应用程序。在本视频中,我们将介绍数据和模型中毒攻击,解释恶意输入如何操纵人工智能输出,并分享保护系统安全的策略。
第 7 周 - 输出处理不当:验证人工智能生成的代码
人工智能驱动的工具可以快速生成代码,但如果不对输出进行验证,漏洞就会在不知不觉中潜入。在本视频中,我们将研究人工智能辅助开发中的不当输出处理,解释有风险的输出会如何危及您的应用程序,并分享保护生成代码的技术。
第 8 周 - 过度代理:控制人工智能自主性风险
随着人工智能系统变得越来越自主,过度代理产生了新的风险,即模型的行为超出了其预期范围。在本视频中,我们将探讨人工智能辅助开发中的过度代理漏洞,解释越权行为是如何产生的,并讨论如何保持对人工智能驱动流程的控制。
第 9 周 - 系统提示 泄漏:隐藏的人工智能安全风险
系统提示通常包括指导人工智能行为的隐藏指令--但如果这些指令被暴露,攻击者就可以操纵模型或提取敏感信息。在本视频中,我们将介绍系统提示泄漏漏洞,解释它们是如何发生的,并讨论开发人员可以采取哪些措施来保护其人工智能驱动的工作流。
第 10 周 - 向量弱点:确保人工智能检索工作流的安全
人工智能模型通常依赖于向量数据库和嵌入来提供强大的功能--但错误配置和不安全的实施会暴露敏感数据并创建新的攻击载体。在本视频中,我们将深入探讨向量和嵌入的弱点,解释常见的安全挑战,并分享确保人工智能驱动的搜索和检索工作流安全的策略。
第11周——人工智能虚假信息:规避幻觉风险
人工智能工具有时会生成看似正确实则错误的输出结果,由此产生的虚假信息风险将影响系统安全性、可靠性及决策过程。本视频将阐释人工智能辅助编程中的虚假信息漏洞,探究错误输出产生的机制,并分享验证与保障人工智能驱动内容安全性的策略。
第12周 — 无界消耗:防范AI拒绝服务风险
人工智能系统可能无限制地消耗资源,从而引发 拒绝服务(DoS)、数据泄露及意外运行故障等风险。本视频将解析AI/大型语言模型中的无界消耗漏洞成因,并分享监控、管控及保障AI资源使用的实用策略。
这些视频旨在介绍AI/LLM安全的核心概念,Secure Code Warrior 还有更多内容值得探索。您可深入参与模拟真实AI辅助代码审查与修复的AI挑战,查阅符合行业最佳实践的AI/LLM指南,并通过实践指南、Missions、探索和课程模板,亲身体验构建安全编码习惯的过程。 对于希望提升团队技能的用户,平台还提供持续扩充的AI/LLM专项学习库,涵盖130余项学习活动,包括"AI编程实践"、"AI风险与安全入门"及"LLM应用OWASP十大安全风险"等主题。立即申请演示获取更多信息。

点击下面的链接,下载本资料的 PDF 文件。
Secure Code Warrior 我们在这里为您的组织提供服务,帮助您在整个软件开发生命周期中确保代码安全,并创造一种将网络安全放在首位的文化。无论您是应用安全经理、开发人员、CISO或任何涉及安全的人,我们都可以帮助您的组织减少与不安全代码有关的风险。
查看报告预定一个演示Shannon Holt 是一名网络安全产品营销人员,具有应用程序安全、云安全服务以及 PCI-DSS 和 HITRUST 等合规标准方面的背景。
Shannon Holt 是一位网络安全产品营销人员,拥有应用安全、云安全服务以及 PCI-DSS 和 HITRUST 等合规性标准方面的背景。她致力于让安全开发和合规性对技术团队来说更加实用易行,从而弥合安全期望与现代软件开发现实之间的差距。
人工智能/LLM 安全入门系列指南
GitHub Copilot、Cursor 等人工智能编码工具正在重塑软件的构建方式,但它们也带来了新的安全挑战,开发人员必须了解这些挑战,才能构建安全可靠的应用程序。为了帮助团队安全地采用人工智能,我们在 YouTube 上创建了一个为期 12 周的免费人工智能/LLM 安全介绍视频系列。
本博文是本系列的中心枢纽。每周,我们都会更新新的视频和说明,涵盖提示注入、数据和模型中毒、供应链风险、安全提示等基本概念。请将此页面添加到书签中,以便每周跟进,或者订阅我们的 YouTube 频道,以便在每节课发布后立即获取。
如果您想深入了解这些入门课程之外的内容,请浏览 SCW 平台中的完整人工智能/LLM 系列,如果您还不是我们的客户,也可申请演示。订阅我们的 YouTube 频道,观看每集新内容。如果您想了解最新内容、更新和资源,请在此选择加入我们的开发人员和安全领导者社区。
剧集(每周更新)
第 1 周 -人工智能编码风险:使用 LLMs 的危险
在本视频中,我们将探讨在编写代码时使用人工智能/LLMs 的潜在危险,并强调开发人员在将人工智能驱动的工具集成到工作流程时面临的主要风险。
第 2 周 - 人工智能编码的好处:安全的人工智能辅助开发
人工智能编码工具不仅仅是有风险的 - 如果使用安全,它们可以帮助开发人员更快、更智能地工作。在本视频中,我们将探讨在编写代码时使用人工智能/LLM 的优势,重点介绍团队如何以负责任的方式利用人工智能,同时避免常见的安全隐患。
第 3 周 - 提示注入详解:保护人工智能生成的代码
提示注入是最常见的人工智能/LLM 漏洞之一,每个开发人员都应该知道如何预防。在本视频中,我们将介绍可怕的
第 4 周 -敏感信息披露:避免人工智能数据泄露
人工智能驱动的工具可能会无意中泄露敏感信息,从而使您的应用程序和数据面临风险。在本视频中,我们将介绍敏感信息披露漏洞,解释它们是如何在使用人工智能/LLM 时出现的,并分享开发人员可以采取的实用步骤,以降低风险。
第 5 周 -人工智能供应链风险:确保依赖关系的安全
人工智能辅助开发加快了编码速度,但同时也带来了供应链风险,这些风险可能会影响应用程序的每一层。在本视频中,我们将探讨与人工智能/LLM 相关的漏洞,解释第三方模型和 API 如何扩大您的攻击面,并分享最大限度降低风险的策略。
第 6 周 -数据中毒:确保人工智能模型和输出的安全
人工智能系统的安全性取决于其训练数据--被破坏的输入会产生漏洞,并波及整个应用程序。在本视频中,我们将介绍数据和模型中毒攻击,解释恶意输入如何操纵人工智能输出,并分享保护系统安全的策略。
第 7 周 - 输出处理不当:验证人工智能生成的代码
人工智能驱动的工具可以快速生成代码,但如果不对输出进行验证,漏洞就会在不知不觉中潜入。在本视频中,我们将研究人工智能辅助开发中的不当输出处理,解释有风险的输出会如何危及您的应用程序,并分享保护生成代码的技术。
第 8 周 - 过度代理:控制人工智能自主性风险
随着人工智能系统变得越来越自主,过度代理产生了新的风险,即模型的行为超出了其预期范围。在本视频中,我们将探讨人工智能辅助开发中的过度代理漏洞,解释越权行为是如何产生的,并讨论如何保持对人工智能驱动流程的控制。
第 9 周 - 系统提示 泄漏:隐藏的人工智能安全风险
系统提示通常包括指导人工智能行为的隐藏指令--但如果这些指令被暴露,攻击者就可以操纵模型或提取敏感信息。在本视频中,我们将介绍系统提示泄漏漏洞,解释它们是如何发生的,并讨论开发人员可以采取哪些措施来保护其人工智能驱动的工作流。
第 10 周 - 向量弱点:确保人工智能检索工作流的安全
人工智能模型通常依赖于向量数据库和嵌入来提供强大的功能--但错误配置和不安全的实施会暴露敏感数据并创建新的攻击载体。在本视频中,我们将深入探讨向量和嵌入的弱点,解释常见的安全挑战,并分享确保人工智能驱动的搜索和检索工作流安全的策略。
第11周——人工智能虚假信息:规避幻觉风险
人工智能工具有时会生成看似正确实则错误的输出结果,由此产生的虚假信息风险将影响系统安全性、可靠性及决策过程。本视频将阐释人工智能辅助编程中的虚假信息漏洞,探究错误输出产生的机制,并分享验证与保障人工智能驱动内容安全性的策略。
第12周 — 无界消耗:防范AI拒绝服务风险
人工智能系统可能无限制地消耗资源,从而引发 拒绝服务(DoS)、数据泄露及意外运行故障等风险。本视频将解析AI/大型语言模型中的无界消耗漏洞成因,并分享监控、管控及保障AI资源使用的实用策略。
这些视频旨在介绍AI/LLM安全的核心概念,Secure Code Warrior 还有更多内容值得探索。您可深入参与模拟真实AI辅助代码审查与修复的AI挑战,查阅符合行业最佳实践的AI/LLM指南,并通过实践指南、Missions、探索和课程模板,亲身体验构建安全编码习惯的过程。 对于希望提升团队技能的用户,平台还提供持续扩充的AI/LLM专项学习库,涵盖130余项学习活动,包括"AI编程实践"、"AI风险与安全入门"及"LLM应用OWASP十大安全风险"等主题。立即申请演示获取更多信息。
















%20(1).avif)
.avif)
.avif)

