基本信息
- 作者: [美]梅尔亚·莫里(Mehryar Mohri) 阿夫欣·罗斯塔米扎达尔(Afshin Rostamizadeh) 阿米特·塔尔沃卡尔(Ameet Talwalkar)
- 译者: 张文生,杨雪冰,吴雅婧
- 丛书名: 智能科学与技术丛书
- 出版社:机械工业出版社
- ISBN:9787111708940
- 上架时间:2022-7-16
- 出版日期:2022 年7月
- 开本:16开
- 页码:374
- 版次:1-1
- 所属分类:计算机 > 人工智能 > 综合

内容简介
目录
前言
第1章 引言1
1.1 什么是机器学习1
1.2 机器学习可以解决什么样的问题2
1.3 一些典型的学习任务2
1.4 学习阶段3
1.5 学习情境4
1.6 泛化5
第2章 PAC学习框架7
2.1 PAC学习模型7
2.2 对有限假设集的学习保证——一致的情况11
2.3 对有限假设集的学习保证——不一致的情况14
2.4 泛化性16
2.4.1 确定性与随机性情境16
2.4.2 贝叶斯误差与噪声17
2.5 文献评注18
2.6 习题18
第3章 Rademacher复杂度和VC-维23
3.1 Rademacher复杂度23
前言
本书旨在介绍最新的理论和概念,并且对于相对先进的结果给出简要的证明。总体而言,我们尽可能使全书叙述简洁。尽管如此,我们也会讨论机器学习中出现的一些重要且复杂的主题,指出若干开放的研究问题。对于那些常常与其他主题合并或者未引起足够关注的主题,本书将单独着重讨论,例如,将多分类、排序和回归分别用一章来讲解。
尽管本书覆盖机器学习中很多重要的主题,但是出于简略且因目前缺乏针对一些方法的坚实的理论保证,未能覆盖图模型和神经网络这两个重要主题。
本书主要面向机器学习、统计和其他相关领域的学生与研究人员,适合作为研究生和高年级本科生课程的教科书,或者学术研讨会的参考资料。本书前三四章为后续材料奠定理论基础,第6章引入一些被后面章节广泛使用的概念来完善理论,第13章与第12章密切相关,而其余各章大多自成体系。我们在每章最后给出一套习题,并单独给出完整的解答。
我们假定本书的读者熟悉线性代数、概率和算法分析的基本概念。但是,为了进一步辅助学习,我们在附录中会简要回顾线性代数和概率的相关知识,给出凸优化和信息论的简介,并且汇总本书分析和讨论中常用的集中不等式。
不少著作在介绍机器学习时从贝叶斯角度或者核方法等特定主题具体展开,而本书的不同之处在于提供了适用于多个机器学习主题和领域的统一介绍。此外,本书的特色还在于对机器学习理论基础的深入剖析,并给出详细的证明。
这是本书的第2版,我们对全书内容进行了更新。主要修改之处包括:书写风格调整、示意图新增、表述简化、内容补充(特别是第6章和第17章)、章节新增等。具体而言,我们增加了一整章来介绍模型选择(第4章)这一重要主题,对上一版中的相关内容进行了拓展。我们也增加了两个全新的章节分别介绍机器学习中的两个重要主题:最大熵模型(第12章)和条件最大熵模型(第13章)。我们还对附录进行了大幅调整。在附录B中,详述了凸优化中的Fenchel对偶性。在附录D中,补充介绍了大量相关的集中不等式。在附录E中,新增了关于信息论的内容。此外,这一版对每章的习题和解答也进行了大量的更新。
这里所介绍的大部分材料来自机器学习研究生课程(机器学习基础),在过去14年中,该课程由本书第一作者在纽约大学库朗数学科学研究所讲授。本书极大地受益于该课程的学生、朋友、同事和研究人员所提出的宝贵意见与建议,在此对他们深表感激。
我们特别感谢Corinna Cortes和Yishay Mansour对于本书第1版内容的设计与组织提出的许多重要建议,包括大量详细的注释。我们充分考虑了他们的建议,这对于改进全书帮助很大。此外,还要感谢Yishay Mansour用本书的最初版本进行教学,并向我们积极反馈。
我们还要感谢来自学术界和企业界研究实验室的同事与朋友所给予的讨论、建议和贡献,他们是:Jacob Abernethy、Cyril Allauzen、Kareem Amin、Stephen Boyd、Aldo Corbisiero、Giulia DeSalvo、Claudio Gentile、Spencer Greenberg、Lisa Hellerstein、Sanjiv Kumar、Vitaly Kuznetsov、Ryan McDonald、Andrès Muoz Medina、Tyler Neylon、Peter Norvig、Fernando Pereira、Maria Pershina、Borja de Balle Pigem、Ashish Rastogi、Michael Riley、Dmitry Storcheus、Ananda Theertha Suresh、Umar Syed、Csaba Szepesvri、Toshiyuki Tanaka、Eugene Weinstein、Jason Weston、Scott Yang和Ningshan Zhang。
最后,我们还要感谢MIT出版社对本书所给予的帮助和支持。
媒体评论
纽约大学库兰特数学科学研究所梅尔亚·莫里教授与两位杰出青年学者合著。
中国科学院自动化研究所人工智能与机器学习科研团队翻译作品。
“这是一本严谨、全面且自成体系的书,是涵盖众多机器学习算法和问题的集大成之作,更是企业界与学术界的研究人员、工程师及学生的必备参考书。”
——Corinna Cortes谷歌研究院纽约分院主管
“这是一本从理论出发,对机器学习进行清晰、严谨介绍的书。书中涵盖了很多机器学习问题和模型。这个新版本有很多更新,比如模型选择和最大熵模型等内容。这是一本面向研究生的标准参考书。”
——Peter Bartlett加州大学伯克利分校计算机科学教授
“这是一本简洁且数学严谨的书,书中提供了机器学习领域的很多基础和先进的内容。在现代机器学习理论范畴内,对于研究生而言,这也是一本极有价值的教科书。这本书在内容和风格上都独树一帜,是研究人员和学生的必备书。”
——Claudio Gentile法国国家信息与自动化研究所、谷歌研究院
“我发现这本书的第1版在5年内都将是一个很有价值的教学资源,并且我期待着在未来的课程中使用全面改进和拓展的第2版。”
——Aryeh Kontorovich本·古里安大学计算机科学教授
本书是机器学习领域的里程碑式著作,被哥伦比亚大学和北京大学等国内外顶尖院校用作教材。本书涵盖机器学习的基本概念和关键算法,给出了算法的理论支撑,并且指出了算法在实际应用中的关键点。通过对一些基本问题乃至前沿问题的精确证明,为读者提供了新的理念和理论工具。
本书第2版对第1版内容进行了大量修订,补充了新的三章:模型选择、最大熵模型、条件最大熵模型,还对附录进行了大幅调整,在附录B中详述了凸优化中的Fenchel对偶性,在附录D中补充介绍了大量相关的集中不等式,在附录E中新增了关于信息论的内容。此外,新版也对每章的习题和解答进行了大量更新。