大数据

当前位置:首页 > 网络编程 > 计算机理论基础知识 > 大数据

出版社:人民邮电出版社
出版日期:2012-9
ISBN:9787115291318
作者:Anand Rajaraman,Jeffrey David Ullman
页数:258页

章节摘录

版权页:   插图:   然而,当项对的数目太多而无法在内存中对所有的项对计数时,上述简单的方法就不再可行。A-Priori算法被设计成能够减少必须计数的项对数目,当然其代价是要对数据做两遍而不是一遍扫描。 1.A-Priori算法的第一遍扫描 第一遍扫描中,我们要建立两张表。如有必要,第一张表要将项的名称转换为1到n之间的整数(参考6.2.2节中的描述)。另一张表则是一个计数数组,第i个数组元素是上述第i个项的出现次 数。这些所有项的计数值的初始值都是0。 在读取购物篮时,我们检查购物篮中的每个项并将其名称转换为一个整数。然后,将该整数作为计数数组的下标找到对应的数组元素,最后,对该数组元素加1。 2.A-Priori算法两遍扫描之间的处理 第一遍扫描之后,我们检查所有项的计数值,以确定哪些项构成单元素频繁项集。我们可能会看到,大部分单元素项集都是不频繁的。这一点可能会有点出人意料。但是,前面提到,我们常常将阈值s设置得足够高以保证频繁集不会太多。一个典型的s值为所有购物篮数目的1%。想象一下自己到超市购物的情况,我们购买某些商品的次数肯定会超过总次数的1%,这些商品可能是牛奶、面包、可口可乐或百事可乐什么的。我们甚至相信,虽然我们不购买尿布,但是会有1%的顾客会购买尿布。然而,货架上的大部分商品的顾客购买比例肯定都不会超过1%,比如奶油凯撒沙拉汁。 对于A-Priori算法的第二遍扫描,我们会只给频繁项重新编号,编号范围是1到m。此时的表格是一个下标为1到n的数组,如果第i项不频繁,则对应的第IAI数组元素为0,否则为1到m之间的一个唯一整数。我们应将此表格称为频繁项表格。 3.A-Priori算法的第二遍扫描 在第二遍扫描中,我们对两个频繁项组成的所有项对计数。从6.2.3节的讨论可知,除非一个项对中的两个项都频繁,否则这个项对也不可能是频繁的。因此,在扫描过程中我们不可能会丢掉任何频繁项对。如果采用前面提到的三角矩阵方法来计数的话,则第二遍扫描所需的空间是2n2而不是2n2。需要注意的是,如果要使用一个大小正确的三角矩阵,那么就一定要只对频繁项进行重新编号处理。第一遍和第二遍扫描中所使用的完整内存结构集合如图6-3所示。 需要注意的另外一点是,上述非频繁项去除的好处会被放大:如果只有一半的项是频繁项,那么在计数过程中仅需要原来空间的1/4。类似地,如果使用三元组方式,我们只需要对至少出现在一个购物篮中的两个频繁项组成的项对进行计数。 第二遍扫描的技术细节如下: (1)对每个购物篮,在频繁项集表中检查哪些项是频繁的; (2)通过一个双重循环生成所有的频繁项对; (3)对每个频繁项对,在存储计数值的数据结构中相应的计数值上加1; 最后,在第二遍扫描结束时,检查计数值结构以确定哪些项对是频繁项对。

前言

本书是在Anand Rajaraman和Jeff Ullman于斯坦福大学教授多年的一门季度课程的材料基础上总结而成的。该课程名为“Web挖掘”(编号CS345A),尽管它已经成为高年级本科生能接受并感兴趣的课程之一,但其原本是一门为高年级研究生设计的课程。本书内容简单来说,本书是关于数据挖掘的。但是,本书主要关注极大规模数据的挖掘,也就是说这些数据大到无法在内存中存放。由于重点强调数据的规模,所以本书的例子大都来自Web本身或者Web上导出的数据。另外,本书从算法的角度来看待数据挖掘,即数据挖掘是将算法应用于数据,而不是使用数据来“训练”某种类型的机器学习引擎。本书的主要内容包括:(1) 分布式文件系统以及已成功应用于大规模数据集并行算法构建的Map-Reduce工具;(2) 相似性搜索,包括最小哈希和局部敏感哈希的关键技术;(3) 数据流处理以及面对快速到达、须立即处理、易丢失的数据的专用处理算法;(4) 搜索引擎技术,包括谷歌的PageRank、链接作弊检测及计算网页导航度(hub)和权威度(authority)的HITS方法;(5) 频繁项集挖掘,包括关联规则挖掘、购物篮分析、A-Priori及其改进算法;(6) 大规模高维数据集的聚类算法;(7) Web应用中的两个关键问题:广告管理及推荐系统。先修课程尽管从编号CS345A看,本课程属于高年级研究生课程,但是我们发现高年级本科生和低年级硕士生也能接受该课程。该课程将来可能会分配一个介于高年级研究生和低年级硕士生水平之间的编号。CS345A的先修课程包括:(1) 数据库系统的首期课程,包括基于SQL及其他数据库相关语言(如XQuery)的应用编程;(2) 大二的数据结构、算法及离散数学课程;(3) 大二的软件系统、软件工程及编程语言课程。习题本书包含大量的习题,基本每节都有对应习题。较难的习题或其中较难的部分都用惊叹号“!”来标记,而最难的习题则标有双惊叹号“!!”。致谢本书封面由Scott Ullman设计。感谢Foto Afrati和Arun Marathe精心阅读本书初稿并提出建设性的意见。感谢Leland Chen、Shrey Gupta、Xie Ke、Haewoon Kwak、Brad Penoff、Philips Kokoh Prasetyo、Mark Storus、Tim Triche Jr.及Roshan Sumbaly指出了本书中的部分错误。当然,剩余错误均由我们负责。A. R.J. D. U.加利福尼亚州帕洛阿尔托2011年6月

内容概要

Anand Rajaraman 数据库和Web技术领域权威,创业投资基金Cambrian联合创始人,斯坦福大学计算机科学系助理教授。Rajaraman职业生涯非常成功:1996年创办Junglee公司,两年后该公司被亚马逊以2.5亿美元收购,Rajaraman被聘为亚马 逊技术总监,推动亚马逊从一个零售商转型为零售平台;2000年与人合创Cambrian,孵化出几个后来被谷歌收购的公司;2005年创办Kosmix公司并任CEO,该公司2011年被沃尔玛集团收购。Rajaraman生于印度,在斯坦福大学获得计算机科学硕士和博士学位。求学期间与人合著的一篇论文荣列近20年来被引用次数最多的论文之一。博客地址http://anand.typepad.com/datawocky/。
Jeffrey David Ullman 美国国家工程院院士,计算机科学家,斯坦福大学教授。Ullman早年在贝尔实验室工作,之后任教于普林斯顿大学,十年后加入斯坦福大学直至退休,一生的科研、著书和育人成果卓著。他是ACM会员,曾获SIGMOD贡献奖、Knuth奖等多项科研大奖;他是“龙书”《编译原理》、数据库领域权威指南《数据库系统实现》的合著者;麾下多名学生成为了数据库领域的专家,其中最有名的当属谷歌创始人Sergey Brin;本书第一作者也是他的得意弟子。Ullman目前任Gradiance公司CEO。
王斌 博士,中国科学院计算技术研究所博士生导师。中国科学院信息工程研究所客座研究员。主要研究方向为信息检索、自然语言处理和数据挖掘。《信息检索导论》译者。主持国家973、863、国家自然科学基金、国际合作基金、国家支撑计划等课题20余项,发表学术论文120余篇。现为ACM会员、中国中文信息学会理事、中文信息学会信息检索专委会委员、《中文信息学报》编委、中国计算机学会高级会员及计算机学会中文信息处理专委会委员。自2006年起在中国科学院研究生院(现改名“中国科学院大学”)讲授《现代信息检索》研究生课程,选课人数累计近千人。2001年开始指导研究生,迄今培养博士、硕士研究生30余名。

书籍目录

目  录

第1章  数据挖掘基本概念  1
1.1  数据挖掘的定义  1
1.1.1  统计建模  1
1.1.2  机器学习  1
1.1.3  建模的计算方法  2
1.1.4  数据汇总  2
1.1.5  特征抽取  3
1.2  数据挖掘的统计限制  4
1.2.1  整体情报预警  4
1.2.2  邦弗朗尼原理  4
1.2.3  邦弗朗尼原理的一个例子  5
1.2.4  习题  6
1.3  相关知识  6
1.3.1  词语在文档中的重要性  6
1.3.2  哈希函数  7
1.3.3  索引  8
1.3.4  二级存储器  10
1.3.5  自然对数的底e  10
1.3.6  幂定律  11
1.3.7  习题  12
1.4  本书概要  13
1.5  小结  14
1.6  参考文献  14
第2章  大规模文件系统及Map-Reduce  16
2.1  分布式文件系统  16
2.1.1  计算节点的物理结构  17
2.1.2  大规模文件系统的结构  18
2.2  Map-Reduce  18
2.2.1  Map任务  19
2.2.2  分组和聚合  20
2.2.3  Reduce任务  20
2.2.4  组合器  21
2.2.5  Map-Reduce的执行细节  21
2.2.6  节点失效的处理  22
2.3  使用Map-Reduce的算法  22
2.3.1  基于Map-Reduce的矩阵—向量乘法实现  23
2.3.2  向量v无法放入内存时的处理  23
2.3.3  关系代数运算  24
2.3.4  基于Map-Reduce的选择运算  26
2.3.5  基于Map-Reduce的投影运算  26
2.3.6  基于Map-Reduce的并、交和差运算  27
2.3.7  基于Map-Reduce的自然连接运算  27
2.3.8  一般性的连接算法  28
2.3.9  基于Map-Reduce的分组和聚合运算  28
2.3.10  矩阵乘法  29
2.3.11  基于单步Map-Reduce的矩阵乘法  29
2.3.12  习题  30
2.4  Map-Reduce的扩展  31
2.4.1  工作流系统  31
2.4.2  Map-Reduce的递归扩展版本  32
2.4.3  Pregel系统  34
2.4.4  习题  35
2.5  集群计算算法的效率问题  35
2.5.1  集群计算的通信开销模型  35
2.5.2  实耗通信开销  36
2.5.3  多路连接  37
2.5.4  习题  40
2.6  小结  40
2.7  参考文献  42
第3章  相似项发现  44
3.1  近邻搜索的应用  44
3.1.1  集合的Jaccard相似度  44
3.1.2  文档的相似度  45
3.1.3  协同过滤——一个集合相似问题  46
3.1.4  习题  47
3.2  文档的Shingling  47
3.2.1  k-Shingle  47
3.2.2  shingle大小的选择  48
3.2.3  对shingle进行哈希  48
3.2.4  基于词的shingle  49
3.2.5  习题  49
3.3  保持相似度的集合摘要表示  49
3.3.1  集合的矩阵表示  50
3.3.2  最小哈希  50
3.3.3  最小哈希及Jaccard相似度  51
3.3.4  最小哈希签名  52
3.3.5  最小哈希签名的计算  52
3.3.6  习题  54
3.4  文档的局部敏感哈希算法  55
3.4.1  面向最小哈希签名的LSH  56
3.4.2  行条化策略的分析  57
3.4.3  上述技术的综合  58
3.4.4  习题  59
3.5  距离测度  59
3.5.1  距离测度的定义  59
3.5.2  欧氏距离  60
3.5.3  Jaccard距离  60
3.5.4  余弦距离  61
3.5.5  编辑距离  62
3.5.6  海明距离  63
3.5.7  习题  63
3.6  局部敏感函数理论  64
3.6.1  局部敏感函数  65
3.6.2  面向Jaccard距离的局部敏感函数族  66
3.6.3  局部敏感函数族的放大处理  66
3.6.4  习题  68
3.7  面向其他距离测度的LSH函数族  68
3.7.1  面向海明距离的LSH函数族  69
3.7.2  随机超平面和余弦距离  69
3.7.3  梗概  70
3.7.4  面向欧氏距离的LSH函数族  71
3.7.5  面向欧氏空间的更多LSH函数族  72
3.7.6  习题  72
3.8  LSH函数的应用  73
3.8.1  实体关联  73
3.8.2  一个实体关联的例子  74
3.8.3  记录匹配的验证  74
3.8.4  指纹匹配  75
3.8.5  适用于指纹匹配的LSH函数族  76
3.8.6  相似新闻报道检测  77
3.8.7  习题  78
3.9  面向高相似度的方法  79
3.9.1  相等项发现  79
3.9.2  集合的字符串表示方法  79
3.9.3  基于长度的过滤  80
3.9.4  前缀索引  81
3.9.5  位置信息的使用  82
3.9.6  使用位置和长度信息的索引  83
3.9.7  习题  85
3.10  小结  85
3.11  参考文献  87
第4章  数据流挖掘  89
4.1  流数据模型  89
4.1.1  一个数据流管理系统  89
4.1.2  流数据源的例子  90
4.1.3  流查询  91
4.1.4  流处理中的若干问题  92
4.2  流当中的数据抽样  92
4.2.1  一个富于启发性的例子  93
4.2.2  代表性样本的获取  93
4.2.3  一般的抽样问题  94
4.2.4  样本规模的变化  94
4.2.5  习题  95
4.3  流过滤  95
4.3.1  一个例子  95
4.3.2  布隆过滤器  96
4.3.3  布隆过滤方法的分析  96
4.3.4  习题  97
4.4  流中独立元素的数目统计  98
4.4.1  独立元素计数问题  98
4.4.2  FM算法  98
4.4.3  组合估计  99
4.4.4  空间需求  100
4.4.5  习题  100
4.5  矩估计  100
4.5.1  矩定义  100
4.5.2  二阶矩估计的AMS算法  101
4.5.3  AMS算法有效的原因  102
4.5.4  更高阶矩的估计  103
4.5.5  无限流的处理  103
4.5.6  习题  104
4.6  窗口内的计数问题  105
4.6.1  精确计数的开销  105
4.6.2  DGIM算法  105
4.6.3  DGIM算法的存储需求  107
4.6.4  DGIM算法中的查询应答  107
4.6.5  DGIM条件的保持  108
4.6.6  降低错误率  109
4.6.7  窗口内计数问题的扩展  109
4.6.8  习题  110
4.7  衰减窗口  110
4.7.1  最常见元素问题  110
4.7.2  衰减窗口的定义  111
4.7.3  最流行元素的发现  111
4.8  小结  112
4.9  参考文献  113
第5章  链接分析  115
5.1  PageRank  115
5.1.1  早期的搜索引擎及词项作弊  115
5.1.2  PageRank的定义  117
5.1.3  Web结构  119
5.1.4  避免终止点  121
5.1.5  采集器陷阱及“抽税”法  123
5.1.6  PageRank在搜索引擎中的使用  125
5.1.7  习题  125
5.2  PageRank的快速计算  126
5.2.1  转移矩阵的表示  127
5.2.2  基于Map-Reduce的PageRank迭代计算  128
5.2.3  结果向量合并时的组合器使用  128
5.2.4  转移矩阵中块的表示  129
5.2.5  其他高效的PageRank迭代方法  130
5.2.6  习题  131
5.3  面向主题的PageRank  131
5.3.1  动机  131
5.3.2  有偏的随机游走模型  132
5.3.3  面向主题的PageRank的使用  133
5.3.4  基于词汇的主题推断  134
5.3.5  习题  134
5.4  链接作弊  135
5.4.1  垃圾农场的架构  135
5.4.2  垃圾农场的分析  136
5.4.3  与链接作弊的斗争  137
5.4.4  TrustRank  137
5.4.5  垃圾质量  137
5.4.6  习题  138
5.5  导航页和权威页  139
5.5.1  HITS的直观意义  139
5.5.2  导航度和权威度的形式化  139
5.5.3  习题  142
5.6  小结  143
5.7  参考文献  145
第6章  频繁项集  146
6.1  购物篮模型  146
6.1.1  频繁项集的定义  146
6.1.2  频繁项集的应用  148
6.1.3  关联规则  149
6.1.4  高可信度关联规则的发现  150
6.1.5  习题  151
6.2  购物篮及A-Priori算法  152
6.2.1  购物篮数据的表示  152
6.2.2  项集计数中的内存使用  153
6.2.3  项集的单调性  154
6.2.4  二元组计数  155
6.2.5  A-Priori算法  155
6.2.6  所有频繁项集上的A-Priori算法  157
6.2.7  习题  158
6.3  更大数据集在内存中的处理  159
6.3.1  PCY算法  160
6.3.2  多阶段算法  161
6.3.3  多哈希算法  163
6.3.4  习题  164
6.4  有限扫描算法  166
6.4.1  简单的随机化算法  166
6.4.2  抽样算法中的错误规避  167
6.4.3  SON算法  168
6.4.4  SON算法和Map-Reduce  168
6.4.5  Toivonen算法  169
6.4.6  Toivonen算法的有效性分析  170
6.4.7  习题  170
6.5  流中的频繁项计数  171
6.5.1  流的抽样方法  171
6.5.2  衰减窗口中的频繁项集  172
6.5.3  混合方法  172
6.5.4  习题  173
6.6  小结  173
6.7  参考文献  175
第7章  聚类  176
7.1  聚类技术介绍  176
7.1.1  点、空间和距离  176
7.1.2  聚类策略  177
7.1.3  维数灾难  178
7.1.4  习题  179
7.2  层次聚类  179
7.2.1  欧氏空间下的层次聚类  180
7.2.2  层次聚类算法的效率  183
7.2.3  控制层次聚类的其他规则  183
7.2.4  非欧空间下的层次聚类  185
7.2.5  习题  186
7.3  k-均值算法  187
7.3.1  k-均值算法基本知识  187
7.3.2  k-均值算法的簇初始化  187
7.3.3  选择k的正确值  188
7.3.4  BFR算法  189
7.3.5  BFR算法中的数据处理  191
7.3.6  习题  192
7.4  CURE算法  193
7.4.1  CURE算法的初始化  194
7.4.2  CURE算法的完成  195
7.4.3  习题  195
7.5  非欧空间下的聚类  196
7.5.1  GRGPF算法中的簇表示  196
7.5.2  簇表示树的初始化  196
7.5.3  GRGPF算法中的点加入  197
7.5.4  簇的分裂及合并  198
7.5.5  习题  199
7.6  流聚类及并行化  199
7.6.1  流计算模型  199
7.6.2  一个流聚类算法  200
7.6.3  桶的初始化  200
7.6.4  桶合并  200
7.6.5  查询应答  202
7.6.6  并行环境下的聚类  202
7.6.7  习题  203
7.7  小结  203
7.8  参考文献  205
第8章  Web广告  207
8.1  在线广告相关问题  207
8.1.1  广告机会  207
8.1.2  直投广告  208
8.1.3  展示广告的相关问题  208
8.2  在线算法  209
8.2.1  在线和离线算法  209
8.2.2  贪心算法  210
8.2.3  竞争率  211
8.2.4  习题  211
8.3  广告匹配问题  212
8.3.1  匹配及完美匹配  212
8.3.2  最大匹配贪心算法  213
8.3.3  贪心匹配算法的竞争率  213
8.3.4  习题  214
8.4  Adwords问题  214
8.4.1  搜索广告的历史  215
8.4.2  Adwords问题的定义  215
8.4.3  Adwords问题的贪心方法  216
8.4.4  Balance算法  217
8.4.5  Balance算法竞争率的一个下界  217
8.4.6  多投标者的Balance算法  219
8.4.7  一般性的Balance算法  220
8.4.8  Adwords问题的最后论述  221
8.4.9  习题  221
8.5  Adwords的实现  221
8.5.1  投标和搜索查询的匹配  222
8.5.2  更复杂的匹配问题  222
8.5.3  文档和投标之间的匹配算法  223
8.6  小结  224
8.7  参考文献  226
第9章  推荐系统  227
9.1  一个推荐系统的模型  227
9.1.1  效用矩阵  227
9.1.2  长尾现象  228
9.1.3  推荐系统的应用  230
9.1.4  效用矩阵的填充  230
9.2  基于内容的推荐  231
9.2.1  项模型  231
9.2.2  文档的特征发现  231
9.2.3  基于Tag的项特征获取  232
9.2.4  项模型的表示  233
9.2.5  用户模型  234
9.2.6  基于内容的项推荐  235
9.2.7  分类算法  235
9.2.8  习题  237
9.3  协同过滤  238
9.3.1  相似度计算  238
9.3.2  相似度对偶性  241
9.3.3  用户聚类和项聚类  242
9.3.4  习题  243
9.4  降维处理  243
9.4.1  UV分解  244
9.4.2  RMSE  244
9.4.3  UV分解的增量式计算  245
9.4.4  对任一元素的优化  247
9.4.5  一个完整UV分解算法的构建  248
9.4.6  习题  250
9.5  NetFlix竞赛  250
9.6  小结  251
9.7  参考文献  253
索引  254

编辑推荐

《大数据•互联网大规模数据挖掘与分布式处理》由拉贾拉曼Anand Rajarama、厄尔曼Jeffrey David Ullman所著,主要关注极大规模数据的挖掘。由于重点强调数据的规模,所以《大数据•互联网大规模数据挖掘与分布式处理》的例子大都来自web本身或者web上导出的数据。另外,《大数据•互联网大规模数据挖掘与分布式处理》从算法的角度来看待数据挖掘,即数据挖掘是将算法应用于数据,而不是使用数据来“训练”某种类型的机器学习引擎。

作者简介

《大数据•互联网大规模数据挖掘与分布式处理》由斯坦福大学的“web 挖掘”课程的内容总结而成,由拉贾拉曼、厄尔曼所著,主要关注极大规模数据的挖掘。 《大数据•互联网大规模数据挖掘与分布式处理》主要内容包括分布式文件系统、相似性搜索、搜索引擎技术、频繁项集挖掘、聚类算法、广告管理及推荐系统。其中相关章节有对应的习题,以巩固所讲解的内容。读者更可以从网上获取相关拓展材料。
《大数据•互联网大规模数据挖掘与分布式处理》适合本科生、研究生及对数据挖掘感兴趣的读者阅读。

图书封面


 大数据下载 精选章节试读 更多精彩书评



发布书评

 
 


精彩书评 (总计11条)

  •     读技术书于我而言就像高中物理老师说的那样:一看就懂、一说就糊、一写就错。为了不马上遗忘昨天刚刚看完的这本书,决定写点东西以帮助多少年之后还有那么一点点记忆。好吧,开写。1. 总体来说,数据挖掘时数据模型的发现过程。而数据建模的方法可以归纳为两种:数据汇总和数据特征提取。其中数据汇总主要包括聚类和PageRank,数据特征提取主要包括相似项发现以及频繁项集。2. 相似性发现:在大量集合中发现相似的集合。首先将集合表示为集合矩阵的形式,因为集合矩阵的数据量特别大导致可能无法全部放入内存所以需要通过合理的方式压缩数据。解决方案是使用最小哈希签名矩阵来表示集合矩阵(原理和计算见P50-54)。但是即使签名矩阵中的行数得到了压缩,但是因为列数很庞大所以如果每两个集合都进行比较而计算相似度的话计算量依然很庞大。在这里,作者提到了一种局部敏感哈希算法,采用行条化策略,用来构建候选对(P56-57)。使得候选对较少,计算量大幅度下降。上面所述为Jaccard距离的相似性问题,对于余弦距离的相似性问题主要表示为:集合矩阵--->梗概矩阵-->局部敏感哈希算法(行条化策略)3. 频繁项集:在购物篮中出现次数大于一定阈值的项对。1)基本概念:支持读,可信度2)频繁项对发现算法:A-priori算法核心:只有i,j都是频繁项,{i,j}才可能是频繁项。PCY算法核心:i,j都是频繁项同时{i,j}哈希到一个频繁桶中才 可能作为候选频繁相对。4. PageRank:V‘ = BMV+(1-B)e/n的迭代。其中B是一个常量,一般选为0.8~1,;M是链接转移矩阵。大数据的应对措施是使用Map-Reduce工具处理。
  •     从总体安排来看,书的结构还是不错的。没看过英文的,但是中文版的行文真的不好,磕磕绊绊看了一半以后实在是没有兴趣看后面的了。之前了解的pagerank看了以后了解了,之前不了解的adwords还是不了解,
  •     本来是计划读英文版《Mining of Massive Datasets》的,但看到打折,而且译者在序言中信誓旦旦地说翻译的很用心,就买了中文的。结果读了第一章就读不下去了,中文表述太烂了,很多句子让人产生无限歧义,磕磕绊绊,叫人生厌。因此决定再次放弃这样的中文翻译书。

精彩短评 (总计73条)

  •     似乎不太适合作为入门的书籍,因为在没有看其他相关大数据的书籍之前,看这个不是特别顺利,建议提前看一些更低阶的书。但是讲的东西很实用,内容也很充实,涉及了很多当下大数据应用的技术,深入的难度对于计算机和数学专业的童鞋应该可以理解。总之是不错的一本书。
  •     书是真没怎么看懂。不如直接看课程对应PPT,比书上清晰多了。另:价钱太坑
  •     看了看想到一个点子
  •     鉴于中文翻译缩水不准的情况,本掉千辛万苦找来英文原版,一看到目录,本屌就硬了,尼玛作者太牛逼了!
  •     读完一次,信息量很大,基本上囊括了当前顶尖互联网公司采用的技术和算法。有些章节显的有些艰深,许是我基础不够的缘故。值得放在手边,随时翻阅。
  •     内容主方法,对于数据挖掘有较深入的解说,对我论文帮助很大哈,A+
  •     从头至尾翻了一遍 作为不懂map-reduce的初学者 对书中很多东西不理解 抱着科普的态度刷了一遍 回头可能会再看 借助一些其他资料
  •     名字有些哗众取宠。其实本书就是介绍了一些基本的数据挖掘的概念,但是只有很少的几节才给出了在Massive Data时该做的处理和优化;本书还是比较适合有着一定经验的人来填补自己的知识空缺,或者放在办公桌旁偶尔查阅。最后,这本书翻译的真的很烂。
  •     算法扛不住
  •     大家都读,跟风
  •     很好的书
  •     《大数据:互联网大规模数据挖掘与分布式处理》导读建议:一、此为算法书,需要一定算法基础,非科普书,一般人读起来不会那么顺畅,需要努力啃读。二、此书并非虚幻的大数据概念书,直接关注大数据的规模对算法应用造成的实际问题。三、在应用背景方面,本书也没有完全展开,所以对应用有了解较好。
  •     读此书需要相当的基础,除非你真的要从事相关开发工作,否则没必要读此书。
  •     our textbook
  •     还看不懂
  •     不知道为什么这本书少一章,就是最后推荐的那章,电子书上是有的
  •     大家经典。
  •     对大数据有了解
  •     了解一些基本原理,数学知识涉及比较多。
  •     用来大概学习概念……我的大牛同事说翻译得不好……
  •     只给大概的方法,极浅的入门型,要深度学的话感觉一开始看这个好浪费时间。
  •     包装精美 纸张很好
  •     入门不错
  •     这是一本bigdata 经典的书籍,原书为mining of massive datasets!只不过书只翻译到第九章,后面的就没有翻译了!而且里面的例子大多只讲了一下思想,没有具体的实现,让新手看起来很困惑!
  •     题目很好,缺乏仔细的东西。
  •     类似杂志
  •     还是中文书读起来亲切迅捷。很好地工程入门书。
  •     技术书,条理清晰,内容全。
  •     王斌老师翻的另外一本书,整体质量不如《信息检索》,很多地方还是得去看原版才能明白,中文版缺斤少两,少了10,11,12三章,书涉及的内容很多,一个小章对应着很多paper,只能算科普式的介绍,做技术细节还是算了吧。最后,不得不吐槽一下这个书的价格,这么薄却这么贵。3.5颗大星。
  •     Web上导出的数据
  •     大数据是种趋势呀
  •     翻译太烂!翻译太烂!翻译太烂!
  •     对于互联网环境下的数据挖掘和分布式处理方法与技术给出了较为深入的介绍,可以配合数据挖掘:概念与技术等其他书籍学习效果更好。
  •     翻译不行。
  •     本书粗略带领你认输数据挖掘的简单世界,兴趣入门可以读
  •     介绍数据挖掘基本概念的书。但是对我这种只想了解一下的太难了,对于从业者可能又不够用。不过基本概念其实讲的挺清楚的。
  •     知道了不少东西 嗯哼
  •     翻译出很多歧义。。
  •     偏向于理论的入门学习,如果想找代码上的灵感还是绕行吧总的来说浅显易懂,比较好读书的纸张质量也很不错
  •     国外著作、外国思维。整体感觉不错、但不是一般人能读懂的。
  •     关注大数据挖掘性能优化,有思路很新。翻译太烂
  •     快速的读了一遍,感觉还凑合,没有想象中那么好。
  •     读到最后又都是公式了,不专业搞这个需要毅力才读的下去。
  •     都是一些已经存在的东西,只不过用在了所谓的大数据上面罢了
  •     基础要求很高,适合作为实现时的工具参考书
  •     很火的方向
  •     买了3本,这本是用来当工具书给数据分析、系统分析和程序员学习的。以后招数据分析师直接从这上面出题来考,呵呵!图灵系的书还是具备专业实用性的。后端的要好好学学。
  •     翻译太差,不如看英文版
  •     对这本书很满意,可以学到很多东西。
  •     开发涉及数据方面的可引用阅读
  •     一般般还算可以吧!总体满意
  •     读的第二版。希望有人一起交流
  •     昨天晚上下的单,刚刚收到,速度挺快的.粗略看了一下,这本书挺适合我这种初学菜鸟的口味
  •     中文翻译质量。。。
  •     Killing time
  •     据说是斯坦福非常受欢迎的一门课的教材。太难打标签了,因为薄薄一本书里,涵盖了MR(批量处理),流数据处理,PageRank(谷歌起家算法),LSH-频繁项分析(两种极重要计算相似度方法),聚类,搜索广告(一个行业),推荐(又一个行业)等诸多领域。值得多读两遍。
  •     可以视作非常全面的文献概述
  •     很硬的干货,读起来挺累
  •     所以也不怎么好看懂,慢慢来吧
  •     虽然比较难懂,但是细想之后却在情理之中
  •     内容比较杂,但是感到很有趣味。
  •     这个书很好,我已经读过了啊
  •     翻译的很屎,原版应该没这么次。好笑的是,这译者居然在引言说自己有“完美主义倾向”信誓旦旦为自己的认真表态了,呵呵……
  •     还是相当不错的一本书,尤其是里面对于大规模相似度计算受益良多
  •     看来我还没有达到烟酒僧的水平
  •     大部分章节只能用两个字形容:直译
  •     哦,看到评论说翻译很差,幸好没买中文翻译。。。。
  •     推荐一下,值得有一定基础的人学习,推荐一下
  •     1、这本书有配套PPT。2、不需要预先有什么知识,很易入门。
  •     这是一个数据为王的时代,前几天我还看到了cousera上的公开课
  •     算法 我是门外汉 从我的角度感觉翻译以及原文的质量都很不错 而且我买了之后 貌似就一直在涨价这本书 偷笑 嘿嘿
  •     有些地方还是非常晦涩,可能翻译存在问题。。很多部分都是泛泛而谈,还是需要自己深入。 一本导论性质的书。
  •     看了一些,准备再看一遍
 

外国儿童文学,篆刻,百科,生物科学,科普,初中通用,育儿亲子,美容护肤PDF图书下载,。 零度图书网 

零度图书网 @ 2024