机器学习实战

出版社:人民邮电出版社
出版日期:2013-6
ISBN:9787115317957
作者:Peter Harrington
页数:332页

章节摘录

版权页:   插图:   7.1.1 bagging:基于数据随机重抽样的分类器构建方法 自举汇聚法(bootstrap aggregating),也称为bagging方法,是在从原始数据集选择S次后得到S个新数据集的一种技术。新数据集和原数据集的大小相等。每个数据集都是通过在原始数据集中随机选择一个样本来进行替换而得到的①。这里的替换就意味着可以多次地选择同一样本。这一性质就允许新数据集中可以有重复的值,而原始数据集的某些值在新集合中则不再出现。 在S个数据集建好之后,将某个学习算法分别作用于每个数据集就得到了S个分类器。当我们要对新数据进行分类时,就可以应用这S个分类器进行分类。与此同时,选择分类器投票结果中最多的类别作为最后的分类结果。 当然,还有一些更先进的bagging方法,比如随机森林(random forest)。有关这些方法的一个很好的讨论材料参见网页接下来我们将注意力转向一个与bagging类似的集成分类器方法boosting。 7.1.2 boosting boosting是一种与bagging很类似的技术。不论是在boosting还是bagging当中,所使用的多个分类器的类型都是一致的。但是在前者当中,不同的分类器是通过串行训练而获得的,每个新分类器都根据已训练出的分类器的性能来进行训练。boosting是通过集中关注被已有分类器错分的那些数据来获得新的分类器。 由于boosting分类的结果是基于所有分类器的加权求和结果的,因此boosting与bagging不太一样。bagging中的分类器权重是相等的,而boosting中的分类器权重并不相等,每个权重代表的是其对应分类器在上一轮迭代中的成功度。 boosting方法拥有多个版本,本章将只关注其中一个最流行的版本AdaBoost。 下面我们将要讨论AdaBoost背后的一些理论,并揭示其效果不错的原因。 7.2训练算法:基于错误提升分类器的性能 能否使用弱分类器和多个实例来构建一个强分类器?这是一个非常有趣的理论问题。这里的“弱”意味着分类器的性能比随机猜测要略好,但是也不会好太多。这就是说,在二分类情况下弱分类器的错误率会高于50%,而“强”分类器的错误率将会低很多。AdaBoost算法即脱胎于上述理论问题。 AdaBoost是adaptive boosting(自适应boosting)的缩写,其运行过程如下:训练数据中的每个样本,并赋予其一个权重,这些权重构成了向量D。一开始,这些权重都初始化成相等值。首先在训练数据上训练出一个弱分类器并计算该分类器的错误率,然后在同一数据集上再次训练弱分类器。在分类器的第二次训练当中,将会重新调整每个样本的权重,其中第一次分对的样本的权重将会降低,而第一次分错的样本的权重将会提高。为了从所有弱分类器中得到最终的分类结果,AdaBoost为每个分类器都分配了一个权重值alpha,这些alpha值是基于每个弱分类器的错误率进行计算的。其中,错误率ε的定义为: 而alpha的计算公式如下: AdaBoost算法的流程如图7—1所示。

内容概要

Peter Harrington
拥有电气工程学士和硕士学位,他曾经在美国加州和中国的英特尔公司工作7年。Peter拥有5项美国专利,在三种学术期刊上发表过文章。他现在是Zillabyte公司的首席科学家,在加入该公司之前,他曾担任2年的机器学习软件顾问。Peter在业余时间还参加编程竞赛和建造3D打印机。

书籍目录

目 录

第一部分 分类
第1章 机器学习基础  2
1.1  何谓机器学习  3
1.1.1  传感器和海量数据  4
1.1.2  机器学习非常重要  5
1.2  关键术语  5
1.3  机器学习的主要任务  7
1.4  如何选择合适的算法  8
1.5  开发机器学习应用程序的步骤  9
1.6  Python语言的优势  10
1.6.1  可执行伪代码  10
1.6.2  Python比较流行  10
1.6.3  Python语言的特色  11
1.6.4  Python语言的缺点  11
1.7  NumPy函数库基础  12
1.8  本章小结  13
第2章 k-近邻算法   15
2.1  k-近邻算法概述  15
2.1.1  准备:使用Python导入数据  17
2.1.2  从文本文件中解析数据  19
2.1.3  如何测试分类器  20
2.2  示例:使用k-近邻算法改进约会网站的配对效果  20
2.2.1  准备数据:从文本文件中解析数据  21
2.2.2  分析数据:使用Matplotlib创建散点图  23
2.2.3  准备数据:归一化数值  25
2.2.4  测试算法:作为完整程序验证分类器  26
2.2.5  使用算法:构建完整可用系统  27
2.3  示例:手写识别系统  28
2.3.1  准备数据:将图像转换为测试向量  29
2.3.2  测试算法:使用k-近邻算法识别手写数字  30
2.4  本章小结  31
第3章 决策树   32
3.1  决策树的构造  33
3.1.1  信息增益  35
3.1.2  划分数据集  37
3.1.3  递归构建决策树  39
3.2  在Python中使用Matplotlib注解绘制树形图  42
3.2.1  Matplotlib注解  43
3.2.2  构造注解树  44
3.3  测试和存储分类器  48
3.3.1  测试算法:使用决策树执行分类  49
3.3.2  使用算法:决策树的存储  50
3.4  示例:使用决策树预测隐形眼镜类型  50
3.5  本章小结  52
第4章 基于概率论的分类方法:朴素贝叶斯   53
4.1  基于贝叶斯决策理论的分类方法  53
4.2  条件概率  55
4.3  使用条件概率来分类  56
4.4  使用朴素贝叶斯进行文档分类  57
4.5  使用Python进行文本分类  58
4.5.1  准备数据:从文本中构建词向量  58
4.5.2  训练算法:从词向量计算概率  60
4.5.3  测试算法:根据现实情况修改分类器  62
4.5.4  准备数据:文档词袋模型  64
4.6  示例:使用朴素贝叶斯过滤垃圾邮件  64
4.6.1  准备数据:切分文本  65
4.6.2  测试算法:使用朴素贝叶斯进行交叉验证  66
4.7  示例:使用朴素贝叶斯分类器从个人广告中获取区域倾向  68
4.7.1  收集数据:导入RSS源  68
4.7.2  分析数据:显示地域相关的用词  71
4.8  本章小结  72
第5章 Logistic回归   73
5.1  基于Logistic回归和Sigmoid函数的分类  74
5.2  基于最优化方法的最佳回归系数确定  75
5.2.1  梯度上升法  75
5.2.2  训练算法:使用梯度上升找到最佳参数  77
5.2.3  分析数据:画出决策边界  79
5.2.4  训练算法:随机梯度上升  80
5.3  示例:从疝气病症预测病马的死亡率  85
5.3.1  准备数据:处理数据中的缺失值  85
5.3.2  测试算法:用Logistic回归进行分类  86
5.4  本章小结  88
第6章 支持向量机  89
6.1  基于最大间隔分隔数据  89
6.2  寻找最大间隔  91
6.2.1  分类器求解的优化问题  92
6.2.2  SVM应用的一般框架  93
6.3  SMO高效优化算法  94
6.3.1  Platt的SMO算法  94
6.3.2  应用简化版SMO算法处理小规模数据集  94
6.4  利用完整Platt SMO算法加速优化  99
6.5  在复杂数据上应用核函数  105
6.5.1  利用核函数将数据映射到高维空间  106
6.5.2  径向基核函数  106
6.5.3  在测试中使用核函数  108
6.6  示例:手写识别问题回顾  111
6.7  本章小结  113
第7章 利用AdaBoost元算法提高分类
性能   115
7.1  基于数据集多重抽样的分类器  115
7.1.1  bagging:基于数据随机重抽样的分类器构建方法  116
7.1.2  boosting  116
7.2  训练算法:基于错误提升分类器的性能  117
7.3  基于单层决策树构建弱分类器  118
7.4  完整AdaBoost算法的实现  122
7.5  测试算法:基于AdaBoost的分类  124
7.6  示例:在一个难数据集上应用AdaBoost  125
7.7  非均衡分类问题  127
7.7.1  其他分类性能度量指标:正确率、召回率及ROC曲线  128
7.7.2  基于代价函数的分类器决策控制  131
7.7.3  处理非均衡问题的数据抽样方法  132
7.8  本章小结  132
第二部分 利用回归预测数值型数据
第8章 预测数值型数据:回归   136
8.1  用线性回归找到最佳拟合直线  136
8.2  局部加权线性回归  141
8.3  示例:预测鲍鱼的年龄  145
8.4  缩减系数来“理解”数据  146
8.4.1  岭回归  146
8.4.2  lasso  148
8.4.3  前向逐步回归  149
8.5  权衡偏差与方差  152
8.6  示例:预测乐高玩具套装的价格  153
8.6.1  收集数据:使用Google购物的API  153
8.6.2  训练算法:建立模型  155
8.7  本章小结  158
第9章 树回归  159
9.1  复杂数据的局部性建模  159
9.2  连续和离散型特征的树的构建  160
9.3  将CART算法用于回归  163
9.3.1  构建树  163
9.3.2  运行代码  165
9.4  树剪枝  167
9.4.1  预剪枝  167
9.4.2  后剪枝  168
9.5  模型树  170
9.6  示例:树回归与标准回归的比较  173
9.7  使用Python的Tkinter库创建GUI  176
9.7.1  用Tkinter创建GUI  177
9.7.2  集成Matplotlib和Tkinter  179
9.8  本章小结  182
第三部分 无监督学习
第10章 利用K-均值聚类算法对未标注数据分组  184
10.1  K-均值聚类算法  185
10.2  使用后处理来提高聚类性能  189
10.3  二分K-均值算法  190
10.4  示例:对地图上的点进行聚类  193
10.4.1  Yahoo! PlaceFinder API  194
10.4.2  对地理坐标进行聚类  196
10.5  本章小结  198
第11章 使用Apriori算法进行关联分析  200
11.1  关联分析  201
11.2  Apriori原理  202
11.3  使用Apriori算法来发现频繁集  204
11.3.1  生成候选项集  204
11.3.2  组织完整的Apriori算法  207
11.4  从频繁项集中挖掘关联规则  209
11.5  示例:发现国会投票中的模式  212
11.5.1  收集数据:构建美国国会投票记录的事务数据集  213
11.5.2  测试算法:基于美国国会投票记录挖掘关联规则  219
11.6  示例:发现毒蘑菇的相似特征  220
11.7  本章小结  221
第12章 使用FP-growth算法来高效发现频繁项集  223
12.1  FP树:用于编码数据集的有效方式  224
12.2  构建FP树  225
12.2.1  创建FP树的数据结构  226
12.2.2  构建FP树  227
12.3  从一棵FP树中挖掘频繁项集  231
12.3.1  抽取条件模式基  231
12.3.2  创建条件FP树  232
12.4  示例:在Twitter源中发现一些共现词  235
12.5  示例:从新闻网站点击流中挖掘  238
12.6  本章小结  239
第四部分 其他工具
第13章 利用PCA来简化数据  242
13.1  降维技术  242
13.2  PCA  243
13.2.1  移动坐标轴  243
13.2.2  在NumPy中实现PCA  246
13.3  示例:利用PCA对半导体制造数据降维  248
13.4  本章小结  251
第14章 利用SVD简化数据  252
14.1  SVD的应用  252
14.1.1  隐性语义索引  253
14.1.2  推荐系统  253
14.2  矩阵分解  254
14.3  利用Python实现SVD  255
14.4  基于协同过滤的推荐引擎  257
14.4.1  相似度计算  257
14.4.2  基于物品的相似度还是基于用户的相似度?  260
14.4.3  推荐引擎的评价  260
14.5  示例:餐馆菜肴推荐引擎  260
14.5.1  推荐未尝过的菜肴  261
14.5.2  利用SVD提高推荐的效果  263
14.5.3  构建推荐引擎面临的挑战  265
14.6  基于SVD的图像压缩  266
14.7  本章小结  268
第15章 大数据与MapReduce  270
15.1  MapReduce:分布式计算的框架  271
15.2  Hadoop流  273
15.2.1  分布式计算均值和方差的mapper  273
15.2.2  分布式计算均值和方差的reducer  274
15.3  在Amazon网络服务上运行Hadoop程序  275
15.3.1  AWS上的可用服务  276
15.3.2  开启Amazon网络服务之旅  276
15.3.3  在EMR上运行Hadoop作业  278
15.4  MapReduce上的机器学习  282
15.5  在Python中使用mrjob来自动化MapReduce  283
15.5.1  mrjob与EMR的无缝集成  283
15.5.2  mrjob的一个MapReduce脚本剖析  284
15.6  示例:分布式SVM的Pegasos算法  286
15.6.1  Pegasos算法  287
15.6.2  训练算法:用mrjob实现MapReduce版本的SVM  288
15.7  你真的需要MapReduce吗?  292
15.8  本章小结  292
附录A  Python入门  294
附录B  线性代数  303
附录C  概率论复习  309
附录D  资源  312
索引  313
版权声明  316

编辑推荐

《机器学习实战》面向日常任务的高效实战内容,介绍并实现机器学习的主流算法。《机器学习实战》没有从理论角度来揭示机器学习算法背后的数学原理,而是通过“原理简述+问题实例+实际代码+运行效果”来介绍每一个算法。学习计算机的人都知道,计算机是一门实践学科,没有真正实现运行,很难真正理解算法的精髓。这本书的最大好处就是边学边用,非常适合于急需迈进机器学习领域的人员学习。实际上,即使对于那些对机器学习有所了解的人来说,通过代码实现也能进一步加深对机器学习算法的理解。《机器学习实战》的代码采用Python语言编写。Python代码简单优雅、易于上手,科学计算软件包众多,已经成为不少大学和研究机构进行计算机教学和科学计算的语言。相信Python编写的机器学习代码也能让读者尽快领略到这门学科的精妙之处。

作者简介

机器学习是人工智能研究领域中一个极其重要的研究方向,在现今的大数据时代背景下,捕获数据并从中萃取有价值的信息或模式,成为各行业求生存、谋发展的决定性手段,这使得这一过去为分析师和数学家所专属的研究领域越来越为人们所瞩目。
本书第一部分主要介绍机器学习基础,以及如何利用算法进行分类,并逐步介绍了多种经典的监督学习算法,如k近邻算法、朴素贝叶斯算法、Logistic回归算法、支持向量机、AdaBoost集成方法、基于树的回归算法和分类回归树(CART)算法等。第三部分则重点介绍无监督学习及其一些主要算法:k均值聚类算法、Apriori算法、FP-Growth算法。第四部分介绍了机器学习算法的一些附属工具。
全书通过精心编排的实例,切入日常工作任务,摒弃学术化语言,利用高效的可复用Python代码来阐释如何处理统计数据,进行数据分析及可视化。通过各种实例,读者可从中学会机器学习的核心算法,并能将其运用于一些策略性任务中,如分类、预测、推荐。另外,还可用它们来实现一些更高级的功能,如汇总和简化等。


 机器学习实战下载 更多精彩书评



发布书评

 
 


精彩书评 (总计11条)

  •     尽管评论里对这本书褒贬不一,我觉得这些都是根据每个人不同的能力背景出发而给的评论。而对于我这样能力的人来说,这本书可以说是最适合了。我是什么能力状况呢,计算机专业背景,有那么几年开发经验,但是机器学习方面是小白。看这本书需要一定的编程经验,但不需要很强,想我这样就行(不经常写代码)。书中的代码示例一般都不长,很好理解。本书也需要一定的数学知识,主要是线性代数和概率论,但一样不用很熟。想我这样毕业n年,忘了差不多的人,看一下附录里的知识点温故而知新,就没问题了。很多人说书太理论性,其实这是我看的机器学习资料中,最接近实践的了。书上的内容写的很清楚,个人觉得结合例子一起看,也很易懂。很崇拜作者怎么能把这么一个外行人看来如此复杂的知识写的那么清楚。译者的水平也很高,很多技术书籍的译者我就不说了,看的那个累啊,读数时都是偏科生。但是这本书不错。我个人建议,是看一遍中文版的书先,然后再看遍英文版的,巩固下知识,也有助于了解英文中的名词,帮助你将来深入看英文资料。总的来书,本书还算是比较适合机器学习初学者的,个人非常推荐。大牛就可以飘过了。
  •     这本书最大的优点在于有源码实现,很赞,但是理论部分太差了,看了逻辑回归和支持向量机两章,发现好多理论都没讲,就比如逻辑回归中的Cost函数都没说,如果不了解,源码读起来也是一头雾水,所以对于初学者还需要一本理论较强的书,推荐李航博士的统计机器学习方法,刚好配套~
  •     为什么我会力荐这本书?也许书中分类器都非常的简单,数学理论都非常的粗浅(为了看明白书中SVM分类器的训练过程,不得不去复习了二次凸优化解法,自己推导被作者略去的中间过程),算法测试也只在轻量级的数据集上完成。不过,大可不必像其他评论一样对贬低本书。聪明的读者会知道自己没有什么,自己需要学习什么。如果更加喜欢背后深奥的统计学理论和凸优化理论,可以去看《Machine Learning: A Probabilistic Perspective》,如果对自己的数学水平足够自信的话。这本书能让你明白:那些被吹捧得出神入化的分类算法,竟然实现起来如此简单;那些看是高深的数学理论,其实一句话就能道明其本质;一切复杂的事物,出发点都是非常简单的想法。我说不出这本书适合什么样的读者,但是却明白它不适合谁:学过一点机器学习或者模式识别或者数据挖掘,完全不具备统计推断和凸优化知识,又想找一条捷径,想从菜鸟摇身一变成大师的人;对编程不感兴趣的人,或者没有动手实践习惯的人;不喜欢独立思考,希望别人把答案摆在自己面前的人。祝君学运昌盛

精彩短评 (总计70条)

  •     要具备:Python语言、算法、Hadoop等知识
  •     比较入门的书。
  •     实战性较强,可以快速看到产出,就是代码丑了点。
  •     入门级别的书吧,没有太复杂的数学推倒,代码写得一般般,适合新手对ml的初步了解
  •     没有理论,只有实践,所以配合着《统计学习方法》看,收获很大!
  •     挺棒的一本书,非常非常基础,只需要掌握基础Python和一些线性代数知识即可,主要是聚类分类预测方面的内容,主要讲了原理,代码还有可优化空间,SVM真的很难懂啊,线性代数还是很重要滴。
  •     好痛苦
  •     还行,都是些入门的东西,说实话不如上博客园上逛一逛来的快来的实在
  •     第一部分介绍了机器学习的基础知识,然后讨论如何使用机器学习算法进行分类;第二部分讨论连续型数值的回归预测问题;第三部分讨论无监督学习;第四部分介绍了机器学习算法使用到的附属工具。
  •     不错的一本书。适合入门。也可以顺便熟悉python。但是算法原理基本上没怎么讲!
  •     凑合吧 错误太多 胜在有代码 对码农来说天生的亲切感。
  •     这本书不错,相对来说比较适合入门。如果想搞机器学习或者数据挖掘,想要了解相关的算法,可以看看这本书。但是这本书讲得并不深,只是把算法简单地用python实现了出来,如果想了解更深刻应该去看相关的论文。
  •     作为一本机器学习的书可以打4分,因为介绍的概念还算清晰;作为一本Python的书可以打3分,因为从代码上看感觉作者的编码风格比较奇特
  •     在这本书的帮助下, 1 小时理解了决策树算法的核心思路, 赚了一个 HHKB
  •     学完cs229之后看得第一本机器学习的书。主要有代码,可以顺便熟悉一下python,内容上也把最基础的都覆盖到了。
  •     这本书,读起来整体给人的感觉一般,(也可能是翻译质量的原因),书中理论部分讲的较为浅显,除此之外的大部分内容都在解释自己的python代码,而且其源代码的质量并不让人那么易懂。感觉使用价值不是太大~ 当然看看还是很有益处的...
  •     搞清楚自己想要什么。
  •     书中的理论介绍不深,算法相关的代码也是适合于较小数据集的简单实现。但是,对于接触了较多的理论,而不知道从何入手编程实现的读者来说,还是非常值得一读。通过书中的介绍,可以对这些算法的实现思路有初步了解。 本书也是一本很好的入门书箱。 不得不说——翻译得已经算是很好了。
  •     厉害了
  •     与偏重理论推导过程的书籍不同,本书用通俗易懂的语言描述了机器学习算法的核心思想。然后将大量篇幅用在了以python 为编程语言用机器学习算法来解决实际问题。适合数学不太好,但又希望了解机器学习的同学。推荐一下~
  •     不错的书,建议做过IR和数据挖掘的人看
  •     注重实战,有很多实用代码,但正如题目一样,理论方面不是重点,所以很多时候不知其所以然,需要与其他理论书籍结合。
  •     看过此书的英文版章节,期待中文版!
  •     想把算法从matlab里放到实际工程中,这个是不二的选择!
  •     适合工程开发人员了解使用
  •     原理上的东西写的太浅
  •     很好的入门书籍,理论推倒介绍的比较浅,但是没种算法都有代码实现~
  •     对学习机器学习帮助极大,不仅停留在公式推导上,对提高代码能力很有帮助。
  •     写得很详细,还有的代码,很不错的,推荐!机器学习的好书!
  •     理论结合实际
  •     学习机器学习很重要的工具,而且是基于python的,很有用
  •     好书,只是自己对python数据结构还不够熟练,看着不顺畅;感觉算法里面有错误;再次谢谢作者和译者带来的这本好书
  •     数据挖掘入门的不错的书籍,看着代码,比较好可以了解到算法的本质。唯一缺陷的是有些要点没展开论述,对于某些数学功底差的朋友可以比较苦逼了,同事推荐下吴恩达的公开课。
  •     內容不錯然而代碼部分有點小坑啊。。。
  •     代码乱成一团,我也是服。。
  •     翻译太渣
  •     用代码来说明问题,讲的很好的。
  •     看到一半了可以当课外书籍看 写得简单易懂 很有用~
  •     里面机器学习的经典算法基本都用Python实现了一遍,但是没有深网的内容
  •     如其名 比较实用 不过理论不强 配合统计学习方法食用尤佳
  •     攒灰一年,为了写Adaboost的作业才拿出来,本打算靠它迅速解决(抄完)作业,没想到书里的代码太坑,不重写一遍简直难受,最后作业自己做的。。
  •     代码不能认真给注释吗
  •     有人说这本书不好,不科学,其实我觉得还是不错的。对于我这种编程小白来说,真是手把手教我怎么用python。如果想要科学性可以看李航的《统计学习方法》和周志华的《机器学习》,这本书既然叫“实战”了,确实是偏重实战一些。理论上跳跃比较大,可以看其他书作为补充。
  •     学习机器学习,看了目录就买了,回来看了一点,很不错,推荐
  •     例子相当完整,讲解清晰,翻译也不错,获益良多。
  •     作为python处理的机器学习方面的书,算是很好的。
  •     机器学习入门必备书籍推荐啊!虽然只有这一本完全不够,可是没有这一本入门会比较困难,这本书算是降低机器学习入门门槛的实用书籍。别指望着这一本书就能让你成为高手,但是这本书很适合初学者
  •     python好学,用python来编写机器学习算法比用别的含有静态类型检查的语言需要考虑的东西更少。这本书对于算法的讲解水准和其他书区别不大,但详细的代码解释是很大的亮点,跟着敲下来,无论是对python本身还是对相应的学习算法的理解都会加深不少。
  •     一个我都差不多能YY出来啥意思的讲代码的书,大概真的很适合初学者了,赞一个
  •     深入浅出,很好的书,正好用的上。
  •     历时1个月,终于读完。问自己,当初在学校的时间都在干嘛呢?全书分为4个部分,分别是分类(有监督学习,包括KNN/决策树/朴素贝叶斯/逻辑斯蒂回归/svm/改变样本权重的bagging和adaboosting)、回归(有监督学习,线性回归、局部加权、特征维度比样本个数多时缩减系数,如岭回归、lasso等,树回归,这块掌握不太好)、无监督学习(kmeans、apriori/fp-growth)以及其他工具(PCA/SVD/MAPREDUCE)。基本上都比较清楚了,过段时间再刷一遍代码吧
  •     挺好的 不过性能上没考虑到
  •     ……又看了一半(大雾)
  •     不适合小白。。。。结合《统计学习方法》食用,效果更佳~~
  •     talk is cheap,show me the code
  •     很不错,值得一读,是一本好书
  •     这本书真的对于机器学习爱好者很好,而且是用python实现,对于初学者很有意义
  •     学没学过线性代数都忘了,基本上没一点数学底子了,这尼玛怎么学机器学习,读完也就刚了解个概念(悲伤脸)
  •     很好的一本书适合大家学习
  •     评论里说这本书理论太强的一定是在逗。这本书简直是python和numpy的小教程。要深入原理的话还是配着别的书一起看比较好。作者字里行间一些憋不住的冷笑话还是蛮好笑的。
  •     以实际例子讲解主要的机器学习算法,适合engineer背景的机器学习的上手
  •     认真的说,这本书写得不是特别好,但是比较适合入门了。由于原理没有说清楚,代码写得也一般(大量的缩写变量名,没有注释),所以我对很多算法都没有理解。接下来看周志华的《机器学习》
  •     书中将所有的相关算法都使用python语言实现,对算法原理简要介绍,但是对于数学公式没有进行推导,建议配合周志华的《机器学习》一起看。
  •     所谓的实战没有意义,理论也没有讲清楚
  •     这本书很适合希望从理论回归实践的研究人员,将理论算法用python代码完成,不过书上代码质量很差,还是得自己多练练手。
  •     书很不错,里面的理论知识很好,值得 一看
  •     贝叶斯的那个例子很典型。 机器学习十大算法
  •     好难懂啊。。。
  •     我。终于把所有的代码都写了一遍!结果发现软肋是数学,又要开始恶补数学了!
  •     处于原理和直接sdk之间的自己实现算法. 不去看数学原理的书, 看这个真的没什么用.
 

外国儿童文学,篆刻,百科,生物科学,科普,初中通用,育儿亲子,美容护肤PDF图书下载,。 零度图书网 

零度图书网 @ 2024