[套装书]对抗机器学习+对抗机器学习:机器学习系统中的攻击和防御(2册)
商品已成功飞到您的手机啦!快登录手机站看看吧!
> 扫一扫 下载客户端
> 微信关注“互动出版网”,便捷查询订单,更多惊喜天天有
内容简介
书籍 计算机书籍
---------------------------对抗机器学习---------------------------
本书由机器学习安全领域的学者撰写,针对存在安全威胁的对抗性环境,讨论如何构建健壮的机器学习系统,全面涵盖所涉及的理论和工具。全书分为四部分,分别讨论对抗机器学习的基本概念、诱发型攻击、探索性攻击和未来发展方向。书中介绍了当前最实用的工具,你将学会利用它们来监测系统安全状态并进行数据分析,从而设计出有效的对策来应对新的网络攻击;详细讨论了隐私保护机制和分类器的近似最优规避,在关于垃圾邮件和网络安全的案例研究中,深入分析了传统机器学习算法为何会被成功击破;全面概述了该领域的最新技术以及未来可能的发展方向。本书适合机器学习、计算机安全、网络安全领域的研究人员、技术人员和学生阅读。
---------------------------对抗机器学习:机器学习系统中的攻击和防御---------------------------
本书提供了针对对抗性机器学习的弱点,研究并开发相关操作技术这一领域的概述。回顾了机器学习的概念和方法后提出了对机器学习攻击的一般分类及处理两大类攻击、相关的防御和尝试学习的攻击技术。
作译者
---------------------------对抗机器学习---------------------------
[美] 安东尼·D. 约瑟夫(Anthony D. Joseph) 布莱恩·尼尔森(Blaine Nelson) 本杰明·I. P. 鲁宾斯坦(Benjamin I. P. Rubinstein) J. D. 泰格(J. D. Tygar) 著:---作者简介---
安东尼·D. 约瑟夫(Anthony D. Joseph) 加州大学伯克利分校电气工程与计算机科学系教授,曾任伯克利Intel实验室主管。
布莱恩·尼尔森(Blaine Nelson) 谷歌公司CAT(Counter-Abuse Technology)团队软件工程师,曾任教于波茨坦大学和图宾根大学。
本杰明·I. P. 鲁宾斯坦(Benjamin I. P. Rubinstein) 墨尔本大学计算与信息系统系副教授,曾任职于微软研究院、谷歌研究院和IBM研究院等。
J. D. 泰格(J. D. Tygar) 加州大学伯克利分校教授,在计算机安全领域开展了广泛的研究工作。
---译者简介---
纪守领 浙江大学“百人计划”研究员、教授、博士生导师,现任信息安全系主任、网络空间安全研究中心主任助理。
---------------------------对抗机器学习:机器学习系统中的攻击和防御---------------------------
关于我们
.客户服务
友情链接
目录
---------------------------对抗机器学习---------------------------
译者序
致谢
符号表
第一部分对抗机器学习概述
第1章引言
11动机
12安全学习的原则性方法
13安全学习年表
14本书内容概述
第2章背景知识及符号说明
21基本表示
22统计机器学习
221数据
222假设空间
223学习模型
224监督学习
225其他学习模式
第3章安全学习框架
31学习阶段分析
32安全分析
321安全目标
322威胁模型
323安全中的机器学习应用探讨
33框架
331分类
332对抗学习博弈
333对抗能力特征
334攻击
335防御
34探索性攻击
341探索性博弈
342探索性完整性攻击
343探索性可用性攻击
344防御探索性攻击
35诱发型攻击
351诱发型博弈
352诱发型完整性攻击
353诱发型可用性攻击
354防御诱发型攻击
36重复学习博弈
37隐私保护学习
371差分隐私
372探索性和诱发型隐私攻击
373随机效用
第二部分关于机器学习的诱发型攻击
第4章攻击一个超球面学习者
41超球面检测器的诱发型攻击
411学习假设
412攻击者假设
413分析方法论
42超球面攻击描述
421取代质心
422攻击的正式描述
423攻击序列的特征
43最优无约束攻击
44对攻击施加时间限制
441可变质量的堆叠块
442替代配方
443最优松弛解
45使用数据替换进行重新训练的攻击
451平均输出和随机输出替换策略
452最近输出替换策略
46受限制的攻击者
461贪婪最佳攻击
462混合数据攻击
463扩展
47总结
第5章可用性攻击案例研究:SpamBayes
51SpamBayes垃圾邮件过滤器
511SpamBayes的训练算法
512SpamBayes的预测
513SpamBayes的模型
52SpamBayes的威胁模型
521攻击者目标
522攻击者知识
523训练模型
524污染假设
53对SpamBayes学习者的\诱发型攻击
531诱发型可用性攻击
532诱发型完整性攻击——伪垃圾邮件
54拒绝负面影响防御
55使用SpamBayes进行实验
551实验方法
552字典攻击结果
553集中攻击结果
554伪垃圾邮件攻击实验
555RONI结果
56总结
第6章完整性攻击案例研究:主成分分析检测器
61PCA方法用于流量异常检测
611流量矩阵和大规模异常
612用于异常检测的子空间方法
62腐蚀PCA子空间
621威胁模型
622无信息垃圾流量选择
623局部信息垃圾流量选择
624全局信息垃圾流量选择
625温水煮青蛙式攻击
63腐蚀抵御检测器
631直觉
632PCAGRID方法
633鲁棒的拉普拉斯阈值
64实证评估
641准备
642识别易受攻击流
643攻击评估
644ANTIDOTE评估
645温水煮青蛙式毒化攻击实证评估
65总结
第三部分关于机器学习的探索性攻击
第7章用于SVM学习的隐私保护机制
71隐私泄露案例研究
711马萨诸塞州员工健康记录
712AOL搜索查询日志
713Netflix奖
714Twitter昵称的去匿名化
715全基因组关联研究
716广告微目标
717经验教训
72问题定义:隐私保护学习
721差分隐私
722可用性
723差分隐私的历史研究方向
73支持向量机:简单介绍
731平移不变核
732算法的稳定性
74基于输出干扰的差分隐私
75基于目标函数干扰的差分隐私
76无限维特征空间
77最优差分隐私的界限
771上界
772下界
78总结
第8章分类器的近似最优规避
81近似最优规避的特征
811对抗成本
812近似最优规避
813搜索的术语
814乘法最优性与加法最优性
815凸诱导性分类器族
82l1成本凸类的规避
821对于凸X+f的IMAC搜索
822对于凸X-f的IMAC学习
83一般lp成本的规避
831凸正集
832凸负集
84总结
841近似最优规避中的开放问题
842规避标准的替代
843现实世界的规避
第四部分对抗机器学习的未来方向
第9章对抗机器学习的挑战
91讨论和开放性问题
911对抗博弈的未探索组件
912防御技术的发展
92回顾开放性问题
93结束语
附录A学习和超几何背景知识
附录B超球面攻击的完整证明
附录CSpamBayes分析
附录D近似最优规避的完整
证明
术语表
参考文献
---------------------------对抗机器学习:机器学习系统中的攻击和防御---------------------------
译者序
前言
致谢
作者简介
译者简介
第1章 引言1
第2章 机器学习预备知识5
2.1 监督学习5
2.1.1 回归学习6
2.1.2 分类学习7
2.1.3 PAC可学习性9
2.1.4 对抗环境下的监督学习9
2.2 无监督学习10
2.2.1 聚类11
2.2.2 主成分分析11
2.2.3 矩阵填充12
2.2.4 对抗环境下的无监督学习13
2.3 强化学习15
2.3.1 对抗环境下的强化学习17
2.4 参考文献注释17
第3章 对机器学习的攻击类型19
3.1 攻击时机20
3.2 攻击者可以利用的信息22
3.3 攻击目标23
3.4 参考文献注释24
第4章 决策时攻击26
4.1 对机器学习模型的规避攻击示例26
4.1.1 对异常检测的攻击:多态混合27
4.1.2 对PDF恶意软件分类器的攻击28
4.2 决策时攻击的建模30
4.3 白盒决策时攻击31
4.3.1 对二元分类器的攻击:对抗性分类器规避31
4.3.2 对多类分类器的决策时攻击38
4.3.3 对异常检测器的决策时攻击40
4.3.4 对聚类模型的决策时攻击40
4.3.5 对回归模型的决策时攻击41
4.3.6 对强化学习的决策时攻击44
4.4 黑盒决策时攻击45
4.4.1 对黑盒攻击的分类法46
4.4.2 建模攻击者信息获取48
4.4.3 使用近似模型的攻击50
4.5 参考文献注释51
第5章 决策时攻击的防御53
5.1 使监督学习对决策时攻击更坚固53
5.2 最优规避鲁棒性分类56
5.2.1 最优规避鲁棒的稀疏SVM56
5.2.2 应对自由范围攻击的规避鲁棒SVM60
5.2.3 应对受限攻击的规避鲁棒SVM62
5.2.4 无限制特征空间上的规避鲁棒分类63
5.2.5 对抗缺失特征的鲁棒性64
5.3 使分类器对决策时攻击近似坚固66
5.3.1 松弛方法66
5.3.2 通用防御:迭代再训练68
5.4 通过特征级保护的规避鲁棒性69
5.5 决策随机化70
5.5.1 模型70
5.5.2 最优随机化的分类操作72
5.6 规避鲁棒的回归74
5.7 参考文献注释75
第6章 数据投毒攻击77
6.1 建模投毒攻击78
6.2 对二元分类的投毒攻击79
6.2.1 标签翻转攻击79
6.2.2 对核SVM的中毒数据插入攻击81
6.3 对无监督学习的投毒攻击84
6.3.1 对聚类的投毒攻击84
6.3.2 对异常检测的投毒攻击86
6.4 对矩阵填充的投毒攻击87
6.4.1 攻击模型87
6.4.2 交替最小化的攻击89
6.4.3 核范数最小化的攻击91
6.4.4 模仿普通用户行为92
6.5 投毒攻击的通用框架94
6.6 黑盒投毒攻击96
6.7 参考文献注释98
第7章 数据投毒的防御100
7.1 通过数据二次采样的鲁棒学习100
7.2 通过离群点去除的鲁棒学习101
7.3 通过修剪优化的鲁棒学习104
7.4 鲁棒的矩阵分解107
7.4.1 无噪子空间恢复107
7.4.2 处理噪声108
7.4.3 高效的鲁棒子空间恢复109
7.5 修剪优化问题的高效算法110
7.6 参考文献注释111
第8章 深度学习的攻击和防御113
8.1 神经网络模型114
8.2 对深度神经网络的攻击:对抗样本115
8.2.1 l2范数攻击116
8.2.2 l∞范数攻击119
8.2.3 l0范数攻击121
8.2.4 物理世界中的攻击122
8.2.5 黑盒攻击123
8.3 使深度学习对对抗样本鲁棒123
8.3.1 鲁棒优化124
8.3.2 再训练127
8.3.3 蒸馏127
8.4 参考文献注释128
第9章 未来之路131
9.1 超出鲁棒优化的范围131
9.2 不完全信息132
9.3 预测的置信度133
9.4 随机化133
9.5 多个学习器134
9.6 模型和验证134
参考文献136
索引146
前言
---------------------------对抗机器学习:机器学习系统中的攻击和防御---------------------------
近年来,对抗机器学习研究领域受到了广泛的关注,其中很多关注都集中在一种称为对抗样本的现象上。它的常见形式是,对抗样本获取一幅图像,并添加人类观察者通常看不见的少量失真,从而改变图像的预测标签(举一个最著名的例子,将熊猫预测为长臂猿)。但是,本书不是专门针对对抗样本的探索。相反,我们的目标是更宽泛地解释对抗机器学习领域,顾及监督学习和无监督学习,以及对训练数据的攻击(投毒攻击)和决策(预测)时攻击,其中对抗样本只是一种特殊情况。我们试图传达这个快速发展领域的基本概念,以及技术和概念上的研究进展。特别是,除了介绍性材料外,本书的流程是首先描述用于攻击机器学习的算法技术,然后描述使机器学习对此类攻击具有鲁棒性的算法进展。在第8章,我们概述了针对深度学习方法的一些最新进展。虽然在更宽广的对抗学习领域看到这类方法很重要,但是在深度神经网络背景下,这一章描述的动机、技术和经验观察最为突出(尽管许多技术方法在原理上是相当通用的)。
本书假设读者对相关知识有足够的了解。虽然书中介绍了机器学习的概念、术语和符号,但可能需要读者事先对机器学习有一定程度的熟悉,这样才能完全掌握技术内容。另外,我们希望读者对统计学和线性代数具有某种程度的熟悉,并对优化有一些先验知识(特别是,本书关于凸优化的叙述和对梯度下降等技术的讨论都假设读者熟悉这些概念)。
Yevgeniy Vorobeychik
Murat Kantarcioglu
2018年6月
媒体评论
---------------------------对抗机器学习---------------------------
很多数据科学领域的工程师往往不知道,他们的自适应机器学习系统是多么容易遭到敌方或竞争对手的操纵和滥用。本书的核心是安全问题:不仅对各类攻击进行了详尽分析,而且包含大量对抗学习的案例;不仅复盘了现有的攻击方式,同时揭示了深度学习系统最近才呈现出的那些令人意想不到的漏洞。
——Richard Lippmann,麻省理工学院,林肯实验室
在安全问题日益受到关注的今天,本书的出版恰逢其时。机器学习已经无处不在,但要人们真正信任机器学习,就必须证明它有多可靠。
——Fabio Roli,意大利卡利亚里大学
---------------------------对抗机器学习:机器学习系统中的攻击和防御---------------------------
大规模高质量数据集的日益丰富,以及过去几十年的重大技术进步,使机器学习成为广泛任务(包括视觉、语言、金融和安全)中使用的主要工具。然而,成功伴随着重要的新挑战:机器学习的许多应用在本质上是对抗的。有些应用是对抗的,因为它们是安全关键的,例如自动驾驶。这些应用中的对手可能是旨在造成拥塞或事故的恶意方,或者甚至可能模拟异常情况来暴露预测引擎中的漏洞。其他应用是对抗的,因为它们的任务和使用的数据是对抗的。例如,安全领域的一类重要问题涉及检测,包括对恶意软件、垃圾邮件和入侵的检测。利用机器学习来检测恶意实体会激发对手通过改变他们的行为或他们开发的恶意对象的内容来规避检测。
对抗机器学习领域的出现是为了研究在对抗环境下机器学习方法的漏洞,并开发使学习对对抗操作具有鲁棒性的技术。本书提供了这个领域的技术概括。在回顾了机器学习的概念和方法,以及这些概念和方法在对抗环境下的常见用例之后,提出对机器学习攻击的总体分类。然后,讨论两种主要类型的攻击和相关防御:决策时攻击,其中对手改变学习模型在预测时看到的实例的属性,以导致错误;投毒或训练时攻击,其中真实训练数据集被恶意修改。之后,讨论针对深度学习的攻击的新技术,以及提高深度神经网络鲁棒性的方法。最后,讨论对抗学习领域的几个重要问题。