博客

AI/LLM 安全视频系列:所有剧集,每周更新

香农·霍尔特
发布于 2025 年 9 月 09 日
最后更新于 2025 年 11 月 16 日

人工智能/LLM 安全入门系列指南

GitHub Copilot、Cursor 等人工智能编码工具正在重塑软件的构建方式,但它们也带来了新的安全挑战,开发人员必须了解这些挑战,才能构建安全可靠的应用程序。为了帮助团队安全地采用人工智能,我们在 YouTube 上创建了一个为期 12 周的免费人工智能/LLM 安全介绍视频系列。

本博文是本系列的中心枢纽。每周,我们都会更新新的视频和说明,涵盖提示注入、数据和模型中毒、供应链风险、安全提示等基本概念。请将此页面添加到书签中,以便每周跟进,或者订阅我们的 YouTube 频道,以便在每节课发布后立即获取。

如果您想深入了解这些入门课程之外的内容,请浏览 SCW 平台中的完整人工智能/LLM 系列,如果您还不是我们的客户,也可申请演示订阅我们的 YouTube 频道,观看每集新内容。如果您想了解最新内容、更新和资源,请在此选择加入我们的开发人员和安全领导者社区。

剧集(每周更新)

第 1 周 -人工智能编码风险:使用 LLMs 的危险
在本视频中,我们将探讨在编写代码时使用人工智能/LLMs 的潜在危险,并强调开发人员在将人工智能驱动的工具集成到工作流程时面临的主要风险。


第 2 周 - 人工智能编码的好处:安全的人工智能辅助开发
‍ 人工智能
编码工具不仅仅是有风险的 - 如果使用安全,它们可以帮助开发人员更快、更智能地工作。在本视频中,我们将探讨在编写代码时使用人工智能/LLM 的优势,重点介绍团队如何以负责任的方式利用人工智能,同时避免常见的安全隐患。


第 3 周 - 提示注入详解:保护人工智能生成的代码
‍提示
注入是最常见的人工智能/LLM 漏洞之一,每个开发人员都应该知道如何预防。在本视频中,我们将介绍可怕的


第 4 周 -敏感信息披露:避免人工智能数据泄露
人工智能驱动的工具可能会无意中泄露敏感信息,从而使您的应用程序和数据面临风险。在本视频中,我们将介绍敏感信息披露漏洞,解释它们是如何在使用人工智能/LLM 时出现的,并分享开发人员可以采取的实用步骤,以降低风险。

第 5 周 -人工智能供应链风险:确保依赖关系的安全
‍人工智能辅助
开发加快了编码速度,但同时也带来了供应链风险,这些风险可能会影响应用程序的每一层。在本视频中,我们将探讨与人工智能/LLM 相关的漏洞,解释第三方模型和 API 如何扩大您的攻击面,并分享最大限度降低风险的策略。


第 6 周 -数据中毒:确保人工智能模型和输出的安全
‍ 人工智能
系统的安全性取决于其训练数据--被破坏的输入会产生漏洞,并波及整个应用程序。在本视频中,我们将介绍数据和模型中毒攻击,解释恶意输入如何操纵人工智能输出,并分享保护系统安全的策略。


第 7 周 - 输出处理不当:验证人工智能生成的代码
‍ 人工智能驱动的
工具可以快速生成代码,但如果不对输出进行验证,漏洞就会在不知不觉中潜入。在本视频中,我们将研究人工智能辅助开发中的不当输出处理,解释有风险的输出会如何危及您的应用程序,并分享保护生成代码的技术。


第 8 周 - 过度代理:控制人工智能自主性风险
‍随着
人工智能系统变得越来越自主,过度代理产生了新的风险,即模型的行为超出了其预期范围。在本视频中,我们将探讨人工智能辅助开发中的过度代理漏洞,解释越权行为是如何产生的,并讨论如何保持对人工智能驱动流程的控制。


第 9 周 - 系统提示 泄漏:隐藏的人工智能安全风险
‍ 系统
提示通常包括指导人工智能行为的隐藏指令--但如果这些指令被暴露,攻击者就可以操纵模型或提取敏感信息。在本视频中,我们将介绍系统提示泄漏漏洞,解释它们是如何发生的,并讨论开发人员可以采取哪些措施来保护其人工智能驱动的工作流。

第 10 周 - 向量弱点:确保人工智能检索工作流的安全
‍ 人工智能
模型通常依赖于向量数据库和嵌入来提供强大的功能--但错误配置和不安全的实施会暴露敏感数据并创建新的攻击载体。在本视频中,我们将深入探讨向量和嵌入的弱点,解释常见的安全挑战,并分享确保人工智能驱动的搜索和检索工作流安全的策略。


这些视频旨在介绍人工智能/LLM 安全的核心概念,但在Secure Code Warrior 平台上还有更多内容值得探索。深入了解模拟真实世界中人工智能辅助代码审查和修复的人工智能挑战,探索与行业最佳实践相一致的人工智能/LLM 指南,并通过演练、Missions、Missions和课程模板,亲身体验建立安全编码习惯。对于准备提高技能的团队,该平台还提供了一个不断增长的图书馆,其中包含 130 多个以人工智能/LLM 为重点的学习活动,包括人工智能编码、人工智能风险与安全入门以及 OWASP LLM 应用程序十大主题。 申请演示,了解更多信息。 

查看资源
查看资源

我们为期 12 周的人工智能/LLM 安全系列视频指南。观看每一集,学习关键的人工智能安全概念,每周跟进。

想了解更多信息?

Shannon Holt 是一名网络安全产品营销人员,具有应用程序安全、云安全服务以及 PCI-DSS 和 HITRUST 等合规标准方面的背景。

Secure Code Warrior 我们在这里为您的组织提供服务,帮助您在整个软件开发生命周期中确保代码安全,并创造一种将网络安全放在首位的文化。无论您是应用安全经理、开发人员、CISO或任何涉及安全的人,我们都可以帮助您的组织减少与不安全代码有关的风险。

预定一个演示
分享到
作者
香农·霍尔特
发布于 2025 年 9 月 09 日

Shannon Holt 是一名网络安全产品营销人员,具有应用程序安全、云安全服务以及 PCI-DSS 和 HITRUST 等合规标准方面的背景。

Shannon Holt 是一位网络安全产品营销人员,拥有应用安全、云安全服务以及 PCI-DSS 和 HITRUST 等合规性标准方面的背景。她致力于让安全开发和合规性对技术团队来说更加实用易行,从而弥合安全期望与现代软件开发现实之间的差距。

分享到

人工智能/LLM 安全入门系列指南

GitHub Copilot、Cursor 等人工智能编码工具正在重塑软件的构建方式,但它们也带来了新的安全挑战,开发人员必须了解这些挑战,才能构建安全可靠的应用程序。为了帮助团队安全地采用人工智能,我们在 YouTube 上创建了一个为期 12 周的免费人工智能/LLM 安全介绍视频系列。

本博文是本系列的中心枢纽。每周,我们都会更新新的视频和说明,涵盖提示注入、数据和模型中毒、供应链风险、安全提示等基本概念。请将此页面添加到书签中,以便每周跟进,或者订阅我们的 YouTube 频道,以便在每节课发布后立即获取。

如果您想深入了解这些入门课程之外的内容,请浏览 SCW 平台中的完整人工智能/LLM 系列,如果您还不是我们的客户,也可申请演示订阅我们的 YouTube 频道,观看每集新内容。如果您想了解最新内容、更新和资源,请在此选择加入我们的开发人员和安全领导者社区。

剧集(每周更新)

第 1 周 -人工智能编码风险:使用 LLMs 的危险
在本视频中,我们将探讨在编写代码时使用人工智能/LLMs 的潜在危险,并强调开发人员在将人工智能驱动的工具集成到工作流程时面临的主要风险。


第 2 周 - 人工智能编码的好处:安全的人工智能辅助开发
‍ 人工智能
编码工具不仅仅是有风险的 - 如果使用安全,它们可以帮助开发人员更快、更智能地工作。在本视频中,我们将探讨在编写代码时使用人工智能/LLM 的优势,重点介绍团队如何以负责任的方式利用人工智能,同时避免常见的安全隐患。


第 3 周 - 提示注入详解:保护人工智能生成的代码
‍提示
注入是最常见的人工智能/LLM 漏洞之一,每个开发人员都应该知道如何预防。在本视频中,我们将介绍可怕的


第 4 周 -敏感信息披露:避免人工智能数据泄露
人工智能驱动的工具可能会无意中泄露敏感信息,从而使您的应用程序和数据面临风险。在本视频中,我们将介绍敏感信息披露漏洞,解释它们是如何在使用人工智能/LLM 时出现的,并分享开发人员可以采取的实用步骤,以降低风险。

第 5 周 -人工智能供应链风险:确保依赖关系的安全
‍人工智能辅助
开发加快了编码速度,但同时也带来了供应链风险,这些风险可能会影响应用程序的每一层。在本视频中,我们将探讨与人工智能/LLM 相关的漏洞,解释第三方模型和 API 如何扩大您的攻击面,并分享最大限度降低风险的策略。


第 6 周 -数据中毒:确保人工智能模型和输出的安全
‍ 人工智能
系统的安全性取决于其训练数据--被破坏的输入会产生漏洞,并波及整个应用程序。在本视频中,我们将介绍数据和模型中毒攻击,解释恶意输入如何操纵人工智能输出,并分享保护系统安全的策略。


第 7 周 - 输出处理不当:验证人工智能生成的代码
‍ 人工智能驱动的
工具可以快速生成代码,但如果不对输出进行验证,漏洞就会在不知不觉中潜入。在本视频中,我们将研究人工智能辅助开发中的不当输出处理,解释有风险的输出会如何危及您的应用程序,并分享保护生成代码的技术。


第 8 周 - 过度代理:控制人工智能自主性风险
‍随着
人工智能系统变得越来越自主,过度代理产生了新的风险,即模型的行为超出了其预期范围。在本视频中,我们将探讨人工智能辅助开发中的过度代理漏洞,解释越权行为是如何产生的,并讨论如何保持对人工智能驱动流程的控制。


第 9 周 - 系统提示 泄漏:隐藏的人工智能安全风险
‍ 系统
提示通常包括指导人工智能行为的隐藏指令--但如果这些指令被暴露,攻击者就可以操纵模型或提取敏感信息。在本视频中,我们将介绍系统提示泄漏漏洞,解释它们是如何发生的,并讨论开发人员可以采取哪些措施来保护其人工智能驱动的工作流。

第 10 周 - 向量弱点:确保人工智能检索工作流的安全
‍ 人工智能
模型通常依赖于向量数据库和嵌入来提供强大的功能--但错误配置和不安全的实施会暴露敏感数据并创建新的攻击载体。在本视频中,我们将深入探讨向量和嵌入的弱点,解释常见的安全挑战,并分享确保人工智能驱动的搜索和检索工作流安全的策略。


这些视频旨在介绍人工智能/LLM 安全的核心概念,但在Secure Code Warrior 平台上还有更多内容值得探索。深入了解模拟真实世界中人工智能辅助代码审查和修复的人工智能挑战,探索与行业最佳实践相一致的人工智能/LLM 指南,并通过演练、Missions、Missions和课程模板,亲身体验建立安全编码习惯。对于准备提高技能的团队,该平台还提供了一个不断增长的图书馆,其中包含 130 多个以人工智能/LLM 为重点的学习活动,包括人工智能编码、人工智能风险与安全入门以及 OWASP LLM 应用程序十大主题。 申请演示,了解更多信息。 

查看资源
查看资源

请填写下表下载报告

我们希望得到您的许可,向您发送有关我们产品和/或相关安全编码主题的信息。我们将始终以最谨慎的态度对待您的个人资料,绝不会将其出售给其他公司用于营销目的。

提交
要提交表格,请启用 "分析 "cookies。完成后,请随时再次禁用它们。

人工智能/LLM 安全入门系列指南

GitHub Copilot、Cursor 等人工智能编码工具正在重塑软件的构建方式,但它们也带来了新的安全挑战,开发人员必须了解这些挑战,才能构建安全可靠的应用程序。为了帮助团队安全地采用人工智能,我们在 YouTube 上创建了一个为期 12 周的免费人工智能/LLM 安全介绍视频系列。

本博文是本系列的中心枢纽。每周,我们都会更新新的视频和说明,涵盖提示注入、数据和模型中毒、供应链风险、安全提示等基本概念。请将此页面添加到书签中,以便每周跟进,或者订阅我们的 YouTube 频道,以便在每节课发布后立即获取。

如果您想深入了解这些入门课程之外的内容,请浏览 SCW 平台中的完整人工智能/LLM 系列,如果您还不是我们的客户,也可申请演示订阅我们的 YouTube 频道,观看每集新内容。如果您想了解最新内容、更新和资源,请在此选择加入我们的开发人员和安全领导者社区。

剧集(每周更新)

第 1 周 -人工智能编码风险:使用 LLMs 的危险
在本视频中,我们将探讨在编写代码时使用人工智能/LLMs 的潜在危险,并强调开发人员在将人工智能驱动的工具集成到工作流程时面临的主要风险。


第 2 周 - 人工智能编码的好处:安全的人工智能辅助开发
‍ 人工智能
编码工具不仅仅是有风险的 - 如果使用安全,它们可以帮助开发人员更快、更智能地工作。在本视频中,我们将探讨在编写代码时使用人工智能/LLM 的优势,重点介绍团队如何以负责任的方式利用人工智能,同时避免常见的安全隐患。


第 3 周 - 提示注入详解:保护人工智能生成的代码
‍提示
注入是最常见的人工智能/LLM 漏洞之一,每个开发人员都应该知道如何预防。在本视频中,我们将介绍可怕的


第 4 周 -敏感信息披露:避免人工智能数据泄露
人工智能驱动的工具可能会无意中泄露敏感信息,从而使您的应用程序和数据面临风险。在本视频中,我们将介绍敏感信息披露漏洞,解释它们是如何在使用人工智能/LLM 时出现的,并分享开发人员可以采取的实用步骤,以降低风险。

第 5 周 -人工智能供应链风险:确保依赖关系的安全
‍人工智能辅助
开发加快了编码速度,但同时也带来了供应链风险,这些风险可能会影响应用程序的每一层。在本视频中,我们将探讨与人工智能/LLM 相关的漏洞,解释第三方模型和 API 如何扩大您的攻击面,并分享最大限度降低风险的策略。


第 6 周 -数据中毒:确保人工智能模型和输出的安全
‍ 人工智能
系统的安全性取决于其训练数据--被破坏的输入会产生漏洞,并波及整个应用程序。在本视频中,我们将介绍数据和模型中毒攻击,解释恶意输入如何操纵人工智能输出,并分享保护系统安全的策略。


第 7 周 - 输出处理不当:验证人工智能生成的代码
‍ 人工智能驱动的
工具可以快速生成代码,但如果不对输出进行验证,漏洞就会在不知不觉中潜入。在本视频中,我们将研究人工智能辅助开发中的不当输出处理,解释有风险的输出会如何危及您的应用程序,并分享保护生成代码的技术。


第 8 周 - 过度代理:控制人工智能自主性风险
‍随着
人工智能系统变得越来越自主,过度代理产生了新的风险,即模型的行为超出了其预期范围。在本视频中,我们将探讨人工智能辅助开发中的过度代理漏洞,解释越权行为是如何产生的,并讨论如何保持对人工智能驱动流程的控制。


第 9 周 - 系统提示 泄漏:隐藏的人工智能安全风险
‍ 系统
提示通常包括指导人工智能行为的隐藏指令--但如果这些指令被暴露,攻击者就可以操纵模型或提取敏感信息。在本视频中,我们将介绍系统提示泄漏漏洞,解释它们是如何发生的,并讨论开发人员可以采取哪些措施来保护其人工智能驱动的工作流。

第 10 周 - 向量弱点:确保人工智能检索工作流的安全
‍ 人工智能
模型通常依赖于向量数据库和嵌入来提供强大的功能--但错误配置和不安全的实施会暴露敏感数据并创建新的攻击载体。在本视频中,我们将深入探讨向量和嵌入的弱点,解释常见的安全挑战,并分享确保人工智能驱动的搜索和检索工作流安全的策略。


这些视频旨在介绍人工智能/LLM 安全的核心概念,但在Secure Code Warrior 平台上还有更多内容值得探索。深入了解模拟真实世界中人工智能辅助代码审查和修复的人工智能挑战,探索与行业最佳实践相一致的人工智能/LLM 指南,并通过演练、Missions、Missions和课程模板,亲身体验建立安全编码习惯。对于准备提高技能的团队,该平台还提供了一个不断增长的图书馆,其中包含 130 多个以人工智能/LLM 为重点的学习活动,包括人工智能编码、人工智能风险与安全入门以及 OWASP LLM 应用程序十大主题。 申请演示,了解更多信息。 

观看网络研讨会
开始吧

点击下面的链接,下载本资料的 PDF 文件。

Secure Code Warrior 我们在这里为您的组织提供服务,帮助您在整个软件开发生命周期中确保代码安全,并创造一种将网络安全放在首位的文化。无论您是应用安全经理、开发人员、CISO或任何涉及安全的人,我们都可以帮助您的组织减少与不安全代码有关的风险。

查看报告预定一个演示
查看资源
分享到
想了解更多信息?

分享到
作者
香农·霍尔特
发布于 2025 年 9 月 09 日

Shannon Holt 是一名网络安全产品营销人员,具有应用程序安全、云安全服务以及 PCI-DSS 和 HITRUST 等合规标准方面的背景。

Shannon Holt 是一位网络安全产品营销人员,拥有应用安全、云安全服务以及 PCI-DSS 和 HITRUST 等合规性标准方面的背景。她致力于让安全开发和合规性对技术团队来说更加实用易行,从而弥合安全期望与现代软件开发现实之间的差距。

分享到

人工智能/LLM 安全入门系列指南

GitHub Copilot、Cursor 等人工智能编码工具正在重塑软件的构建方式,但它们也带来了新的安全挑战,开发人员必须了解这些挑战,才能构建安全可靠的应用程序。为了帮助团队安全地采用人工智能,我们在 YouTube 上创建了一个为期 12 周的免费人工智能/LLM 安全介绍视频系列。

本博文是本系列的中心枢纽。每周,我们都会更新新的视频和说明,涵盖提示注入、数据和模型中毒、供应链风险、安全提示等基本概念。请将此页面添加到书签中,以便每周跟进,或者订阅我们的 YouTube 频道,以便在每节课发布后立即获取。

如果您想深入了解这些入门课程之外的内容,请浏览 SCW 平台中的完整人工智能/LLM 系列,如果您还不是我们的客户,也可申请演示订阅我们的 YouTube 频道,观看每集新内容。如果您想了解最新内容、更新和资源,请在此选择加入我们的开发人员和安全领导者社区。

剧集(每周更新)

第 1 周 -人工智能编码风险:使用 LLMs 的危险
在本视频中,我们将探讨在编写代码时使用人工智能/LLMs 的潜在危险,并强调开发人员在将人工智能驱动的工具集成到工作流程时面临的主要风险。


第 2 周 - 人工智能编码的好处:安全的人工智能辅助开发
‍ 人工智能
编码工具不仅仅是有风险的 - 如果使用安全,它们可以帮助开发人员更快、更智能地工作。在本视频中,我们将探讨在编写代码时使用人工智能/LLM 的优势,重点介绍团队如何以负责任的方式利用人工智能,同时避免常见的安全隐患。


第 3 周 - 提示注入详解:保护人工智能生成的代码
‍提示
注入是最常见的人工智能/LLM 漏洞之一,每个开发人员都应该知道如何预防。在本视频中,我们将介绍可怕的


第 4 周 -敏感信息披露:避免人工智能数据泄露
人工智能驱动的工具可能会无意中泄露敏感信息,从而使您的应用程序和数据面临风险。在本视频中,我们将介绍敏感信息披露漏洞,解释它们是如何在使用人工智能/LLM 时出现的,并分享开发人员可以采取的实用步骤,以降低风险。

第 5 周 -人工智能供应链风险:确保依赖关系的安全
‍人工智能辅助
开发加快了编码速度,但同时也带来了供应链风险,这些风险可能会影响应用程序的每一层。在本视频中,我们将探讨与人工智能/LLM 相关的漏洞,解释第三方模型和 API 如何扩大您的攻击面,并分享最大限度降低风险的策略。


第 6 周 -数据中毒:确保人工智能模型和输出的安全
‍ 人工智能
系统的安全性取决于其训练数据--被破坏的输入会产生漏洞,并波及整个应用程序。在本视频中,我们将介绍数据和模型中毒攻击,解释恶意输入如何操纵人工智能输出,并分享保护系统安全的策略。


第 7 周 - 输出处理不当:验证人工智能生成的代码
‍ 人工智能驱动的
工具可以快速生成代码,但如果不对输出进行验证,漏洞就会在不知不觉中潜入。在本视频中,我们将研究人工智能辅助开发中的不当输出处理,解释有风险的输出会如何危及您的应用程序,并分享保护生成代码的技术。


第 8 周 - 过度代理:控制人工智能自主性风险
‍随着
人工智能系统变得越来越自主,过度代理产生了新的风险,即模型的行为超出了其预期范围。在本视频中,我们将探讨人工智能辅助开发中的过度代理漏洞,解释越权行为是如何产生的,并讨论如何保持对人工智能驱动流程的控制。


第 9 周 - 系统提示 泄漏:隐藏的人工智能安全风险
‍ 系统
提示通常包括指导人工智能行为的隐藏指令--但如果这些指令被暴露,攻击者就可以操纵模型或提取敏感信息。在本视频中,我们将介绍系统提示泄漏漏洞,解释它们是如何发生的,并讨论开发人员可以采取哪些措施来保护其人工智能驱动的工作流。

第 10 周 - 向量弱点:确保人工智能检索工作流的安全
‍ 人工智能
模型通常依赖于向量数据库和嵌入来提供强大的功能--但错误配置和不安全的实施会暴露敏感数据并创建新的攻击载体。在本视频中,我们将深入探讨向量和嵌入的弱点,解释常见的安全挑战,并分享确保人工智能驱动的搜索和检索工作流安全的策略。


这些视频旨在介绍人工智能/LLM 安全的核心概念,但在Secure Code Warrior 平台上还有更多内容值得探索。深入了解模拟真实世界中人工智能辅助代码审查和修复的人工智能挑战,探索与行业最佳实践相一致的人工智能/LLM 指南,并通过演练、Missions、Missions和课程模板,亲身体验建立安全编码习惯。对于准备提高技能的团队,该平台还提供了一个不断增长的图书馆,其中包含 130 多个以人工智能/LLM 为重点的学习活动,包括人工智能编码、人工智能风险与安全入门以及 OWASP LLM 应用程序十大主题。 申请演示,了解更多信息。 

目录

下载PDF
查看资源
想了解更多信息?

Shannon Holt 是一名网络安全产品营销人员,具有应用程序安全、云安全服务以及 PCI-DSS 和 HITRUST 等合规标准方面的背景。

Secure Code Warrior 我们在这里为您的组织提供服务,帮助您在整个软件开发生命周期中确保代码安全,并创造一种将网络安全放在首位的文化。无论您是应用安全经理、开发人员、CISO或任何涉及安全的人,我们都可以帮助您的组织减少与不安全代码有关的风险。

预定一个演示下载
分享到
资源中心
资源中心