基本信息
【插图】

编辑推荐
本书适合作为高等院校计算机相关专业的研究生学习参考资料,也适合电脑爱好者阅读。作者特别希 望本书能够帮助所有愿意对大数据技术有所了解,以及想要将大数据技术应用于本职工作的读者。
内容简介
计算机书籍
刘知远、崔安颀*的《大数据智能(互联网时代
的机器学习和自然语言处理技术)》是一本介绍大数
据智能分析的科普书籍,旨在让*多的人了解和学习
互联网时代的机器学习和自然语言处理技术,以期让
大数据技术*好地为我们的生产和生活服务。
全书包括大数据智能基础和大数据智能应用两个
部分,共8章。大数据智能基础部分有三章:第1章以
深度学习为例介绍大数据智能的计算框架;第2章以
知识图谱为例介绍大数据智能的知识库;第3章介绍
大数据的计算处理系统。大数据智能应用部分有5章
:第4章介绍智能问答,第5章介绍主题模型,第6章
介绍个性化推荐,第7章介绍情感分析与意见挖掘,
第8章介绍面向社会媒体内容的分析与应用。*后在
本书的后记部分为读者追踪大数据智能的*新学术材
料提供了建议。
本书适合作为高等院校计算机相关专业的研究生
学习参考资料,也适合电脑爱好者阅读。作者特别希
望本书能够帮助所有愿意对大数据技术有所了解,以
及想要将大数据技术应用于本职工作的读者。
作译者
目录
1.1 概述
1.1.1 可以做酸奶的面包机——通用机器的概念
1.1.2 连接主义
1.1.3 用机器设计机器
1.1.4 深度网络
1.1.5 深度学习的用武之地
1.2 从人脑神经元到人工神经元
1.2.1 生物神经元中的计算灵感
1.2.2 激活函数
1.3 参数学习
1.3.1 模型的评价
1.3.2 有监督学习
1.3.3 梯度下降法
1.4 多层前馈网络
1.4.1 多层前馈网络
1.4.2 后向传播算法计算梯度
1.5 逐层预训练
1.6 深度学习是终极神器吗
1.6.1 深度学习带来了什么
前言
--鲁迅
千淘万漉虽辛苦,吹尽狂沙始到金。
--[唐]刘禹锡
大数据时代与人工智能
在进入21 世纪前后,很多人预测这将会是怎样的世纪。有人说这将是生命科学的时代,也有人说这将是知识经济的时代,不一而足。现在15 年过去了,随着互联网的高速发展,大量的事实强有力地告诉我们,这必将是大数据的时代,是智能信息处理的黄金时代。
自2012 年美国奥巴马政府发布大数据研发倡议以来,关于大数据的研究与思考在全球蔚然成风,已经有很多专著面世,既有侧重趋势分析的,如舍恩伯格和库克耶的《大数据时代》(盛杨燕和周涛教授译),涂子沛的《大数据》和《数据之巅》,也有偏重技术讲解的,如莱斯科夫等人的《大数据》(王斌教授译)、张俊林的《大数据日知录》、杨巨龙的《大数据技术全解》,等等。相信随着大数据革命的不断深入推进,会有更多的专著出版。
前人已对大数据的内涵进行过很多探讨与总结,其中比较著名的是所谓的3V 定义:大容量(Volume)、高速度(Velocity)和多形态(Variety)。3V 的概念最早于2001 年由麦塔集团(Meta Group)分析员道格·莱尼(Doug Laney)提出,后来被高德纳咨询公司(Gartner)正式用来描述大数据。此外还有很多研究者提出更多的V 来描述大数据,例如真实性(Veracity),等等。既然有如此众多珠玉在前,我们推出这本书,当然希望讲一些不同的东西,这点不同的东西就是智能。
人工智能一直是研究者们非常感兴趣的话题,并且由于众多科幻电影或小说作品的影响而广为人知。1946 年第一台电子计算机问世之后不久,英国著名学者图灵就发表了一篇重要论文(题名《计算机器与智能》Computing Machinery and Intelligence),探讨了创造具有智能的机器的可能性,并提出了著名的"图灵测试",即如果一台机器与人类进行对话,能够不被分辨出其机器的身份,那么就可以认为这台机器具有了智能。自1956 年达特茅斯研讨会正式提出了"人工智能"的研究提案以来,人们开始了至今长达半个多世纪的曲折探索。
我们且不去纠结"什么是智能"这样哲学层面的命题(有兴趣的读者可以参阅罗素和诺维格的《人工智能--一种现代方法》Artificial Intelligence: A Modern Approach 以及杰夫·霍金斯的《智能时代》On Intelligence),而是先来谈谈人工智能与大数据有什么关系?要回答这个问题,我们来看一个人是如何获得智能的。一个呱呱坠地、只会哭泣的婴儿,最后长成思维健全的成人,至少要经历十几年与周围世界交互和学习的过程。从降临到这个世界的那一刻起,婴儿无时无刻不在通过眼睛、耳朵、鼻子、皮肤接收着这个世界的信息:图像、声音、味觉、触觉,等等。你有没有发现,无论从数据的规模、速度还是形态来看,这些信息无疑是典型的大数据。因此,人类习得语言、思维等智能的过程,就是从大数据学习的过程。智能不是无源之水,它并不是凭空从人脑中生长出来的。同样,人工智能希望让机器拥有智能,也需要以大数据作为学习的素材。可以说,大数据将是实现人工智能的重要支撑,而人工智能是大数据研究的重要目标之一。
但是,在人工智能研究早期人们并不这样认为。早在1957 年,由于人工智能系统在简单实例上的优越性能,研究者们曾信心满怀地认为,10 年内计算机将能成为国际象棋冠军,而通过简单的句法规则变换和词典单词替换就可以实现机器翻译。事实证明,人们远远低估了人类智能的复杂性。即使在国际象棋这样规则和目标极为简单清晰的任务上,直到40年后的1997 年,由IBM 推出的深蓝超级计算机才宣告打败人类世界冠军卡斯帕罗夫。而在机器翻译这样更加复杂的任务(人们甚至连优质翻译的标准都无法达成共识,并清晰地告诉机器)上,计算机至今还无法与人类翻译的水平相提并论。
当时的问题在于,人们远远低估了智能的深度和复杂度。智能是分不同层次的。对于简单的智能任务(如对有限句式的翻译等),我们当然可以简单制定几条规则就能完成。但是对于语言理解、逻辑推理等高级智能,简单方法就束手无策了。
生物界从简单的单细胞生物进化到人类的过程,也是智能不断进化的过程。最简单的单细胞生物草履虫,虽然没有神经系统,却已经能够根据外界信号和刺激进行反应,实现趋利避害,我们可以将其视作最简单的智能。而巴甫洛夫关于的狗的条件反射实验,则向我们证明了相对更高级的智能水平,可以根据两种外界信号(铃声与食物)的关联关系,实现简单的因果推理,也就是能根据铃声推断食物即将出现。人类智能则是智能的最高级形式,拥有了语言理解、逻辑推理与想象等独特的能力。我们可以发现,低级智能只需小规模的简单数据或规则的支持,而高级智能则需要大规模的复杂数据的支持。
同样重要的,高级智能还需要独特计算架构的支持。很显然,人脑结构就与狗等动物有着本质的不同,因此,即使将一只狗像婴儿一样抚育,也不能指望它能完全学会理解人类的语言,并像人一样思维。受到生物智能的启示,我们可以总结出基本结论,不同大小数据的处理,需要不同的计算框架,带来不同级别的智能。
人工智能是否要完全照搬人类智能的工作原理,目前仍然争论不休。有人举例,虽然人们受到飞鸟的启发发明了飞机,但其飞行原理(空气动力学)却与飞鸟有本质不同;同样,生物界都在用双脚或四腿奔跑行走,人们却发明了轮子和汽车实现快速移动。然而不可否认,大自然无疑是我们最好的老师。人工智能固然不必完全复制人类智能,但是知己知彼,方能百战不殆。生物智能带来的启示已经在信息处理技术发展中得到了印证。谷歌研究员、美国工程院院士Jeff Dean 曾对大数据作过类似结论:"对处理数据规模X 的合理设计可能在10X 或100X 规模下就会变得不合理"(Right design at X may be very wrong at10X or 100X.),也就是说,大数据处理也需要专门设计新颖的计算架构。而与人工智能密切相关的机器学习、自然语言处理、图像处理、语音处理等领域,近年来都在大规模数据的支持下取得了惊人进展。我们可以确信地说,大数据是人工智能发展的必由之路。
大数据智能如何成真
虽然大数据是实现人工智能的重要支持,但如何实现大数据智能,却并非显而易见。近年来随着计算机硬件、大数据处理技术和深度学习等领域取得了突破性进展,涌现出一批在技术上和商业上影响巨大的智能应用,这让人工智能发展道路日益清晰起来。大数据的价值并非水落石出这样显而易见。我们认为,近年来人工智能的突破性进展,主要是在触手可及的人类社会大数据、高性能的计算能力以及合理的智能计算框架的支持下,方能披沙拣金实现大数据智能。
人类社会大数据触手可及。如前所述,这是大数据的时代,互联网的兴起,手机等便携设备的普及,让人类社会行为数据越来越多地汇聚到网上,触手可及。这让机器从这些大数据中自动学习成为可能。但是,大数据(如大气数据、地震数据等)并非现在才出现,只是在过去我们限于计算能力和计算框架,难以从中萃取精华。因此,大数据智能的实现还依赖以下两个方面的发展。
(1)计算能力突飞猛进。受到摩尔定律的支配,近半个世纪以来,计算机的计算和存储能力一直在以令人目眩的速度提高。摩尔定律最早由英特尔(Intel)创始人之一戈登·摩尔提出,基本思想是:保持价格不变的情况下,集成电路上可容纳的元器件的数目大约每隔18 到24 个月就会增加一倍,性能也将随之提升一倍。也就是说,每一块钱能买到的计算机性能将每隔18 到24 个月提升一倍以上。虽然人们一直担心,随着微处理器器件尺寸变小,摩尔定律会受到量子效应影响而失效。但至少从已有发展历程来看,随着多核、多机并行等新框架的提出,计算机已经能够较好地支持大规模数据处理所需的计算能力。
(2)计算架构返璞归真。近年来,深度学习在图像、语音和自然语言处理领域掀起了一场革命,在图像分类、语音识别等重要任务上取得了惊人的性能突破,在国际上催生了苹果Siri 等语音助手的出现,在国内则涌现了科大讯飞、Face++等高科技公司。然而我们可能很难想象,深度学习的基础"人工神经网络"技术,此前曾长期处于无人问津的境地。在深度学习兴起以前,人工神经网络常被人诟病存在可解释性差、学习稳定性差、难以找到最优解等问题。然而,正是由于大规模数据和高性能计算能力的支持,才让以人工神经网络为代表的机器学习技术在大数据时代焕发出蓬勃生机。
书摘
可以看到,在未来的一段时间内,知识图谱将是大数据智能的前沿研究问题,有很多重要的开放性问题亟待学术界和产业界协力解决。我们认为,未来知识图谱研究有以下几个重要挑战。
1.知识类型与表示。知识图谱主要采用(实体1,关系,实体2)三元组的形式来表示知识,这种方法可以较好地表示很多事实性知识。然而,人类知识类型丰富多样,面对很多复杂知识,三元组就束手无策了。例如,人们的购物记录信息,新闻事件等,包含大量实体及其之间的复杂关系,更不用说人类大量的涉及主观感受、主观情感和模糊的知识了。有很多学者针对不同场景设计了不同的知识表示方法。知识表示是知识图谱构建与应用的基础,如何合理设计表示方案,更好地涵盖人类不同类型的知识,是知识图谱的重要研究问题。最近认知领域关于人类知识类型的探索(Tenenbaum,et al.2011)也许会对知识表示研究有一定启发作用。