趋近智
首页
博客
课程
大模型
中
所有课程
高级对抗性机器学习
章节 1: 对抗性机器学习安全的基本原理
机器学习安全弱点概述
机器学习中的威胁模型
攻击面:训练与推理
对抗样本的数学表述
对抗性攻击的分类体系
防御策略概览
章节 2: 进阶规避攻击
基于梯度的攻击:FGSM、BIM、PGD分析
基于优化的攻击:Carlini & Wagner 方法
基于评分的攻击技术
基于判定的攻击方法
对抗样本的可迁移性
攻击集成模型
实现规避攻击:动手实践
章节 3: 数据投毒和后门攻击
投毒攻击策略:可用性与完整性
定向数据投毒技术
后门攻击机制与触发器设计
干净标签投毒攻击
分析投毒对模型训练的影响
构建数据投毒攻击:动手实践
章节 4: 模型推断与隐私攻击
成员推断攻击:理论与方法
属性推断技术
模型反演与重建攻击
模型窃取:功能提取方法
与差分隐私的关联
成员身份推断的实际操作
章节 5: 强大的防御机制
对抗训练:原理与变体
可认证防御:随机平滑
输入转换防御
梯度遮蔽与模糊问题
应对投毒和后门攻击
对抗训练的实现:动手操作
章节 6: 评估模型抗攻击能力
对抗鲁棒性的衡量指标
基准测试工具与框架
自适应攻击:正确评估防御措施
不同威胁模型下的安全评估
解释鲁棒性评估结果
设置鲁棒性基准:实践操作
章节 7: 对抗样本在特定应用场景
针对计算机视觉模型的对抗性攻击
为NLP模型生成对抗性文本
对强化学习智能体的攻击
物理对抗性攻击
特定应用场景的攻击考量
生成对抗性文本:实践
基于梯度的攻击:FGSM、BIM、PGD分析
这部分内容有帮助吗?
有帮助
报告问题
标记为完成
© 2025 ApX Machine Learning
基于梯度攻击的分析 (FGSM, BIM, PGD)