AI/LLM 安全视频系列:所有剧集,每周更新
人工智能/LLM 安全入门系列指南
GitHub Copilot、Cursor 等人工智能编码工具正在重塑软件的构建方式,但它们也带来了新的安全挑战,开发人员必须了解这些挑战,才能构建安全可靠的应用程序。为了帮助团队安全地采用人工智能,我们在 YouTube 上创建了一个为期 12 周的免费人工智能/LLM 安全介绍视频系列。
本博文是本系列的中心枢纽。每周,我们都会更新新的视频和说明,涵盖提示注入、数据和模型中毒、供应链风险、安全提示等基本概念。请将此页面添加到书签中,以便每周跟进,或者订阅我们的 YouTube 频道,以便在每节课发布后立即获取。
如果您想深入了解这些入门课程之外的内容,请浏览 SCW 平台中的完整人工智能/LLM 系列,如果您还不是我们的客户,也可申请演示。订阅我们的 YouTube 频道,观看每集新内容。如果您想了解最新内容、更新和资源,请在此选择加入我们的开发人员和安全领导者社区。
剧集(每周更新)
第 1 周 -人工智能编码风险:使用 LLMs 的危险
在本视频中,我们将探讨在编写代码时使用人工智能/LLMs 的潜在危险,并强调开发人员在将人工智能驱动的工具集成到工作流程时面临的主要风险。
第 2 周 - 人工智能编码的好处:安全的人工智能辅助开发
人工智能编码工具不仅仅是有风险的 - 如果使用安全,它们可以帮助开发人员更快、更智能地工作。在本视频中,我们将探讨在编写代码时使用人工智能/LLM 的优势,重点介绍团队如何以负责任的方式利用人工智能,同时避免常见的安全隐患。
第 3 周 - 提示注入详解:保护人工智能生成的代码提示注入是最常见的人工智能/LLM 漏洞之一,也是每个开发人员都应该知道如何预防的漏洞。在本视频中,我们将介绍可怕的
第 4 周 -敏感信息披露:避免人工智能数据泄露
人工智能驱动的工具可能会无意中泄露敏感信息,从而使您的应用程序和数据面临风险。在本视频中,我们将介绍敏感信息披露漏洞,解释它们是如何在使用人工智能/LLM 时出现的,并分享开发人员可以采取的实用步骤,以降低风险。
第 5 周 -人工智能供应链风险:人工智能辅助开发加快了编码速度,但同时也带来了供应链风险,这些风险可能会影响到应用程序的每一层。在本视频中,我们将探讨与人工智能/LLM 相关的漏洞,解释第三方模型和 API 如何扩大您的攻击面,并分享最大限度降低风险的策略。
第 6 周 - 数据中毒:确保人工智能模型和输出的安全人工智能系统的安全性取决于其训练数据--被破坏的输入会产生漏洞,并波及整个应用程序。在本视频中,我们将介绍数据和模型中毒攻击,解释恶意输入如何操纵人工智能输出,并分享保护系统安全的策略。
第 7 周 - 输出处理不当:验证人工智能生成的代码
人工智能驱动的工具可以快速生成代码,但如果不对输出进行验证,漏洞就会在不知不觉中潜入。在本视频中,我们将研究人工智能辅助开发中的不当输出处理,解释有风险的输出会如何危及您的应用程序,并分享保护生成代码的技术。
这些视频旨在介绍人工智能/LLM 安全的核心概念,但在Secure Code Warrior 平台上还有更多内容值得探索。深入了解模拟真实世界中人工智能辅助代码审查和修复的人工智能挑战,探索与行业最佳实践相一致的人工智能/LLM 指南,并通过演练、Missions、Missions和课程模板,亲身体验建立安全编码习惯。对于准备提高技能的团队,该平台还提供了一个不断增长的图书馆,其中包含 130 多个以人工智能/LLM 为重点的学习活动,包括人工智能编码、人工智能风险与安全入门以及 OWASP LLM 应用程序十大主题。 申请演示,了解更多信息。
Shannon Holt 是一名网络安全产品营销人员,具有应用程序安全、云安全服务以及 PCI-DSS 和 HITRUST 等合规标准方面的背景。

Secure Code Warrior 我们在这里为您的组织提供服务,帮助您在整个软件开发生命周期中确保代码安全,并创造一种将网络安全放在首位的文化。无论您是应用安全经理、开发人员、CISO或任何涉及安全的人,我们都可以帮助您的组织减少与不安全代码有关的风险。
预定一个演示Shannon Holt 是一名网络安全产品营销人员,具有应用程序安全、云安全服务以及 PCI-DSS 和 HITRUST 等合规标准方面的背景。
Shannon Holt 是一位网络安全产品营销人员,拥有应用安全、云安全服务以及 PCI-DSS 和 HITRUST 等合规性标准方面的背景。她致力于让安全开发和合规性对技术团队来说更加实用易行,从而弥合安全期望与现代软件开发现实之间的差距。


人工智能/LLM 安全入门系列指南
GitHub Copilot、Cursor 等人工智能编码工具正在重塑软件的构建方式,但它们也带来了新的安全挑战,开发人员必须了解这些挑战,才能构建安全可靠的应用程序。为了帮助团队安全地采用人工智能,我们在 YouTube 上创建了一个为期 12 周的免费人工智能/LLM 安全介绍视频系列。
本博文是本系列的中心枢纽。每周,我们都会更新新的视频和说明,涵盖提示注入、数据和模型中毒、供应链风险、安全提示等基本概念。请将此页面添加到书签中,以便每周跟进,或者订阅我们的 YouTube 频道,以便在每节课发布后立即获取。
如果您想深入了解这些入门课程之外的内容,请浏览 SCW 平台中的完整人工智能/LLM 系列,如果您还不是我们的客户,也可申请演示。订阅我们的 YouTube 频道,观看每集新内容。如果您想了解最新内容、更新和资源,请在此选择加入我们的开发人员和安全领导者社区。
剧集(每周更新)
第 1 周 -人工智能编码风险:使用 LLMs 的危险
在本视频中,我们将探讨在编写代码时使用人工智能/LLMs 的潜在危险,并强调开发人员在将人工智能驱动的工具集成到工作流程时面临的主要风险。
第 2 周 - 人工智能编码的好处:安全的人工智能辅助开发
人工智能编码工具不仅仅是有风险的 - 如果使用安全,它们可以帮助开发人员更快、更智能地工作。在本视频中,我们将探讨在编写代码时使用人工智能/LLM 的优势,重点介绍团队如何以负责任的方式利用人工智能,同时避免常见的安全隐患。
第 3 周 - 提示注入详解:保护人工智能生成的代码提示注入是最常见的人工智能/LLM 漏洞之一,也是每个开发人员都应该知道如何预防的漏洞。在本视频中,我们将介绍可怕的
第 4 周 -敏感信息披露:避免人工智能数据泄露
人工智能驱动的工具可能会无意中泄露敏感信息,从而使您的应用程序和数据面临风险。在本视频中,我们将介绍敏感信息披露漏洞,解释它们是如何在使用人工智能/LLM 时出现的,并分享开发人员可以采取的实用步骤,以降低风险。
第 5 周 -人工智能供应链风险:人工智能辅助开发加快了编码速度,但同时也带来了供应链风险,这些风险可能会影响到应用程序的每一层。在本视频中,我们将探讨与人工智能/LLM 相关的漏洞,解释第三方模型和 API 如何扩大您的攻击面,并分享最大限度降低风险的策略。
第 6 周 - 数据中毒:确保人工智能模型和输出的安全人工智能系统的安全性取决于其训练数据--被破坏的输入会产生漏洞,并波及整个应用程序。在本视频中,我们将介绍数据和模型中毒攻击,解释恶意输入如何操纵人工智能输出,并分享保护系统安全的策略。
第 7 周 - 输出处理不当:验证人工智能生成的代码
人工智能驱动的工具可以快速生成代码,但如果不对输出进行验证,漏洞就会在不知不觉中潜入。在本视频中,我们将研究人工智能辅助开发中的不当输出处理,解释有风险的输出会如何危及您的应用程序,并分享保护生成代码的技术。
这些视频旨在介绍人工智能/LLM 安全的核心概念,但在Secure Code Warrior 平台上还有更多内容值得探索。深入了解模拟真实世界中人工智能辅助代码审查和修复的人工智能挑战,探索与行业最佳实践相一致的人工智能/LLM 指南,并通过演练、Missions、Missions和课程模板,亲身体验建立安全编码习惯。对于准备提高技能的团队,该平台还提供了一个不断增长的图书馆,其中包含 130 多个以人工智能/LLM 为重点的学习活动,包括人工智能编码、人工智能风险与安全入门以及 OWASP LLM 应用程序十大主题。 申请演示,了解更多信息。

人工智能/LLM 安全入门系列指南
GitHub Copilot、Cursor 等人工智能编码工具正在重塑软件的构建方式,但它们也带来了新的安全挑战,开发人员必须了解这些挑战,才能构建安全可靠的应用程序。为了帮助团队安全地采用人工智能,我们在 YouTube 上创建了一个为期 12 周的免费人工智能/LLM 安全介绍视频系列。
本博文是本系列的中心枢纽。每周,我们都会更新新的视频和说明,涵盖提示注入、数据和模型中毒、供应链风险、安全提示等基本概念。请将此页面添加到书签中,以便每周跟进,或者订阅我们的 YouTube 频道,以便在每节课发布后立即获取。
如果您想深入了解这些入门课程之外的内容,请浏览 SCW 平台中的完整人工智能/LLM 系列,如果您还不是我们的客户,也可申请演示。订阅我们的 YouTube 频道,观看每集新内容。如果您想了解最新内容、更新和资源,请在此选择加入我们的开发人员和安全领导者社区。
剧集(每周更新)
第 1 周 -人工智能编码风险:使用 LLMs 的危险
在本视频中,我们将探讨在编写代码时使用人工智能/LLMs 的潜在危险,并强调开发人员在将人工智能驱动的工具集成到工作流程时面临的主要风险。
第 2 周 - 人工智能编码的好处:安全的人工智能辅助开发
人工智能编码工具不仅仅是有风险的 - 如果使用安全,它们可以帮助开发人员更快、更智能地工作。在本视频中,我们将探讨在编写代码时使用人工智能/LLM 的优势,重点介绍团队如何以负责任的方式利用人工智能,同时避免常见的安全隐患。
第 3 周 - 提示注入详解:保护人工智能生成的代码提示注入是最常见的人工智能/LLM 漏洞之一,也是每个开发人员都应该知道如何预防的漏洞。在本视频中,我们将介绍可怕的
第 4 周 -敏感信息披露:避免人工智能数据泄露
人工智能驱动的工具可能会无意中泄露敏感信息,从而使您的应用程序和数据面临风险。在本视频中,我们将介绍敏感信息披露漏洞,解释它们是如何在使用人工智能/LLM 时出现的,并分享开发人员可以采取的实用步骤,以降低风险。
第 5 周 -人工智能供应链风险:人工智能辅助开发加快了编码速度,但同时也带来了供应链风险,这些风险可能会影响到应用程序的每一层。在本视频中,我们将探讨与人工智能/LLM 相关的漏洞,解释第三方模型和 API 如何扩大您的攻击面,并分享最大限度降低风险的策略。
第 6 周 - 数据中毒:确保人工智能模型和输出的安全人工智能系统的安全性取决于其训练数据--被破坏的输入会产生漏洞,并波及整个应用程序。在本视频中,我们将介绍数据和模型中毒攻击,解释恶意输入如何操纵人工智能输出,并分享保护系统安全的策略。
第 7 周 - 输出处理不当:验证人工智能生成的代码
人工智能驱动的工具可以快速生成代码,但如果不对输出进行验证,漏洞就会在不知不觉中潜入。在本视频中,我们将研究人工智能辅助开发中的不当输出处理,解释有风险的输出会如何危及您的应用程序,并分享保护生成代码的技术。
这些视频旨在介绍人工智能/LLM 安全的核心概念,但在Secure Code Warrior 平台上还有更多内容值得探索。深入了解模拟真实世界中人工智能辅助代码审查和修复的人工智能挑战,探索与行业最佳实践相一致的人工智能/LLM 指南,并通过演练、Missions、Missions和课程模板,亲身体验建立安全编码习惯。对于准备提高技能的团队,该平台还提供了一个不断增长的图书馆,其中包含 130 多个以人工智能/LLM 为重点的学习活动,包括人工智能编码、人工智能风险与安全入门以及 OWASP LLM 应用程序十大主题。 申请演示,了解更多信息。

点击下面的链接,下载本资料的 PDF 文件。
Secure Code Warrior 我们在这里为您的组织提供服务,帮助您在整个软件开发生命周期中确保代码安全,并创造一种将网络安全放在首位的文化。无论您是应用安全经理、开发人员、CISO或任何涉及安全的人,我们都可以帮助您的组织减少与不安全代码有关的风险。
查看报告预定一个演示Shannon Holt 是一名网络安全产品营销人员,具有应用程序安全、云安全服务以及 PCI-DSS 和 HITRUST 等合规标准方面的背景。
Shannon Holt 是一位网络安全产品营销人员,拥有应用安全、云安全服务以及 PCI-DSS 和 HITRUST 等合规性标准方面的背景。她致力于让安全开发和合规性对技术团队来说更加实用易行,从而弥合安全期望与现代软件开发现实之间的差距。
人工智能/LLM 安全入门系列指南
GitHub Copilot、Cursor 等人工智能编码工具正在重塑软件的构建方式,但它们也带来了新的安全挑战,开发人员必须了解这些挑战,才能构建安全可靠的应用程序。为了帮助团队安全地采用人工智能,我们在 YouTube 上创建了一个为期 12 周的免费人工智能/LLM 安全介绍视频系列。
本博文是本系列的中心枢纽。每周,我们都会更新新的视频和说明,涵盖提示注入、数据和模型中毒、供应链风险、安全提示等基本概念。请将此页面添加到书签中,以便每周跟进,或者订阅我们的 YouTube 频道,以便在每节课发布后立即获取。
如果您想深入了解这些入门课程之外的内容,请浏览 SCW 平台中的完整人工智能/LLM 系列,如果您还不是我们的客户,也可申请演示。订阅我们的 YouTube 频道,观看每集新内容。如果您想了解最新内容、更新和资源,请在此选择加入我们的开发人员和安全领导者社区。
剧集(每周更新)
第 1 周 -人工智能编码风险:使用 LLMs 的危险
在本视频中,我们将探讨在编写代码时使用人工智能/LLMs 的潜在危险,并强调开发人员在将人工智能驱动的工具集成到工作流程时面临的主要风险。
第 2 周 - 人工智能编码的好处:安全的人工智能辅助开发
人工智能编码工具不仅仅是有风险的 - 如果使用安全,它们可以帮助开发人员更快、更智能地工作。在本视频中,我们将探讨在编写代码时使用人工智能/LLM 的优势,重点介绍团队如何以负责任的方式利用人工智能,同时避免常见的安全隐患。
第 3 周 - 提示注入详解:保护人工智能生成的代码提示注入是最常见的人工智能/LLM 漏洞之一,也是每个开发人员都应该知道如何预防的漏洞。在本视频中,我们将介绍可怕的
第 4 周 -敏感信息披露:避免人工智能数据泄露
人工智能驱动的工具可能会无意中泄露敏感信息,从而使您的应用程序和数据面临风险。在本视频中,我们将介绍敏感信息披露漏洞,解释它们是如何在使用人工智能/LLM 时出现的,并分享开发人员可以采取的实用步骤,以降低风险。
第 5 周 -人工智能供应链风险:人工智能辅助开发加快了编码速度,但同时也带来了供应链风险,这些风险可能会影响到应用程序的每一层。在本视频中,我们将探讨与人工智能/LLM 相关的漏洞,解释第三方模型和 API 如何扩大您的攻击面,并分享最大限度降低风险的策略。
第 6 周 - 数据中毒:确保人工智能模型和输出的安全人工智能系统的安全性取决于其训练数据--被破坏的输入会产生漏洞,并波及整个应用程序。在本视频中,我们将介绍数据和模型中毒攻击,解释恶意输入如何操纵人工智能输出,并分享保护系统安全的策略。
第 7 周 - 输出处理不当:验证人工智能生成的代码
人工智能驱动的工具可以快速生成代码,但如果不对输出进行验证,漏洞就会在不知不觉中潜入。在本视频中,我们将研究人工智能辅助开发中的不当输出处理,解释有风险的输出会如何危及您的应用程序,并分享保护生成代码的技术。
这些视频旨在介绍人工智能/LLM 安全的核心概念,但在Secure Code Warrior 平台上还有更多内容值得探索。深入了解模拟真实世界中人工智能辅助代码审查和修复的人工智能挑战,探索与行业最佳实践相一致的人工智能/LLM 指南,并通过演练、Missions、Missions和课程模板,亲身体验建立安全编码习惯。对于准备提高技能的团队,该平台还提供了一个不断增长的图书馆,其中包含 130 多个以人工智能/LLM 为重点的学习活动,包括人工智能编码、人工智能风险与安全入门以及 OWASP LLM 应用程序十大主题。 申请演示,了解更多信息。










.png)
.avif)


