ITPub博客

首页 > 大数据 > Hadoop > Hadoop高级数据分析 使用Hadoop生态系统设计和构建大数据系统

Hadoop高级数据分析 使用Hadoop生态系统设计和构建大数据系统

原创 Hadoop 作者:qinghuawenkang 时间:2018-11-28 15:33:40 0 删除 编辑

大数据应用与技术丛书
Hadoop 高级数据分析
使用 Hadoop 生态系统设计和构建大数据系统
[美] Kerry Koitzsch 著
王建峰 王瑛琦
于金峰 译
北 京
Pro Hadoop Data Analytics Designing and Building Big Data Systems Using the Hadoop Ecosystem
By Kerry Koitzsch
EISBN
978-1-4842-1909-6
Original English language edition published by Apress Media.
Copyright © 2017 by Apress Media. Simplified Chinese-Language edition copyright © 2018 by
Tsinghua University Press.
All rights reserved.
本书中文简体字版由 Apress 出版公司授权清华大学出版社出版。未经出版者书面许可,不得以任何方
式复制或抄袭本书内容。
北京市版权局著作权合同登记号 图字: 01-2017-5752
本书封面贴有清华大学出版社防伪标签,无标签者不得销售。
版权所有,侵权必究。侵权举报电话:
010-62782989 13701121933
图书在版编目 (CIP) 数据
Hadoop 高级数据分析 使用 Hadoop 生态系统设计和构建大数据系统 / (美)克里·柯伊兹(Kerry
Koitzsch) 著;王建峰,王瑛琦,于金峰 译. —北京:清华大学出版社, 2018
(大数据应用与技术丛书)
书名原文: Pro Hadoop Data Analytics: Designing and Building Big Data Systems Using the Hadoop
Ecosystem
ISBN 978-7-302-48730-2
Ⅰ. ①H… Ⅱ. ①克… ②王… ③王… ④于… Ⅲ. ①数据处理软件 Ⅳ. ①TP274
中国版本图书馆 CIP 数据核字(2017)第 271344 号
责任编辑:王 军 韩宏志
封面设计:孔祥峰
版式设计:思创景点
责任校对:牛艳敏
责任印制:沈 露
出版发行:清华大学出版社
网 址: http://www.tup.com.cn, http://www.wqbook.com
地 址:北京清华大学学研大厦 A 座 邮 编: 100084
社 总 机: 010-62770175 邮 购: 010-62786544
投稿与读者服务: 010-62776969, c-service@tup.tsinghua.edu.cn
质 量 反 馈: 010-62772015, zhiliang@tup.tsinghua.edu.cn
印 装 者: 三河市铭诚印务有限公司
经 销:全国新华书店
开 本: 185mm×260mm 印 张: 15.25 字 数: 334 千字
版 次: 2018 年 1 月第 1 版 印 次: 2018 年 1 月第 1 次印刷
印 数: 1~4000
定 价: 59.80 元
————————————————————————————————————————————
产品编号: 075322-01

大数据类型多样、数量庞大、变化快速,这些特征对大数据分析师提出了新挑战。作为一
种应对方案,大数据分析技术广泛应用于物联网、云计算等新兴领域,能够帮助企业用户在合
理时间内处理海量数据,并为改善经营决策提供有效帮助。目前,存在多种大数据分析工具,
相关技术正在不断走向成熟。 Hadoop 作为一种优秀的开源框架,基于该架构的数据分析应用具
有显著技术优势和应用前景,目前与 Hadoop 大数据分析相关的出版物中,大多偏重于理论和
技术介绍,有关具体应用实践方面的书籍相对偏少。
为了满足应用需求,本书以设计并实现用于获取、分析、可视化大数据集的软件系统为目
标,以应用案例为背景,系统地介绍利用 Hadoop 及其生态系统进行大数据分析的各种工具和
方法;本书讲述 Hadoop 大数据分析的基本原理,呈现构建分析系统时所使用的标准架构、算
法和技术,对应用案例进行了深入浅出的剖析,为读者掌握大数据分析基础架构及实施方法提
供了详明实用的方案。
本书在注重 Hadoop 数据分析理论的同时,与大数据分析案例实践相结合,以生物、电信、
资源勘查等行业真实案例为主线,详细讲解 Hadoop 高级数据分析的过程。使读者可以自己动
手实践,亲自体会开发的乐趣及大数据分析的强大魅力。通过本书的学习,读者能够更加快速
且有效地掌握 Hadoop 数据分析方法并积累实践经验。阅读本书,可以帮助读者了解并掌握
Hadoop 高级数据分析技术的具体操作方法,让读者真正理解其核心概念和基本原理。
在此要感谢清华大学出版社的编辑们,他们为本书的翻译投入了巨大的热情并付出了很多
心血。没有你们的帮助和鼓励,本书不可能顺利付梓。
对于这本经典之作,译者本着以行业标准术语为翻译基础,以网络释义词典为补充的方法,
在翻译过程中力求“信、达、雅”,但是鉴于译者水平有限、时间仓促,书中难免会出现一些错
误和不当之处,恳请读者批评指正。
本书全部章节由王建峰、王瑛琦、于金峰翻译。参与本书翻译工作的还有博士研究生何鸣、
张耘、陈田田等,硕士研究生赵新宇、李浩然等参与了本书的校对工作,在此一并致谢。
译 者 序
Kerry Koitzsch 在计算机科学、 图像处理和软件工程等领域拥有超过二十年的工作经验,
致力于研究 Apache Hadoop 和 Apache Spark 技术。 Kerry 擅长软件咨询,精通一些定制的大
数据应用,包括分布式搜索、图像分析、立体视觉和智能图像检索系统。 Kerry 目前就职于
Kildane 软件技术股份有限公司,该公司是加州桑尼维尔市的一个机器人系统和图像分析软
件提供商。
作者简介
Simin Boschma 在计算机工程设计方面拥有超过二十年的经验,曾从事程序设计和合作伙
伴管理工作,也曾在硅谷、惠普、 SanDisk 等高科技公司从事商业软硬件产品开发。另外, Simin
还拥有超过十年的技术撰写、审查及出版技术经验。 Simin 目前就职于加州桑尼维尔市的 Kildane
软件技术股份有限公司。
技术审校者简介
感谢编辑 Celestin Suresh John 和 Prachi Mehta,是他们给予了宝贵的帮助。没有他们,本书
就无法顺利完成。同时感谢技术审校者 Simin Bochma 的专业协助。
致 谢
Apache Hadoop 软件库逐渐受到重视。它是许多公司、政府机构、科研设施进行高级分布
式开发的基础。 Hadoop 生态系统现在包含几十个组件用于搜索引擎、数据库和数据仓库进行图
像处理、深度学习及自然语言处理。随着 Hadoop2 的出现,不同的资源管理器可用于提供更高
级别的复杂性和控制力。竞争对手、替代品以及 Hadoop 技术和架构的继承/变种比比皆是,包
括 Apache Flink、 Apache Spark 等。软件专家和评论员多次宣布“Hadoop 的死亡”。
我们必须正视一个问题: Hadoop 死了吗?这取决于 Hadoop 本身的感知界限。我们是否认
为 Apache Spark 是 Hadoop 批处理文件方法的内存继承者,是 Hadoop 家族的一部分,仅仅因为
Apache Spark 也使用了 Hadoop 文件系统 HDFS?存在很多“灰色区域”的其他例子,其中较新
的技术取代或增强了原有的“Hadoop 经典”功能。分布式计算是一个不断移动的目标, 是 Hadoop
和 Hadoop 生态系统的分界线,在短短几年间已经发生了显著变化。在本书中,我们试图展示
Hadoop 及其相关生态系统的一些多样的、动态的方面,并试图说服你,尽管 Hadoop 发生变化,
但它依然非常活跃、与当前的软件开发相关并且使数据分析程序员特别感兴趣。
前 言
部分 概念
第 1 章 概述:用 Hadoop 构建数据分析
系统············································ 3
1.1 构建 DAS 的必要性························4
1.2 Hadoop Core 及其简史 ···················4
1.3 Hadoop 生态系统概述 ····················5
1.4 AI 技术、认知计算、深度学习
以及 BDA········································6
1.5 自然语言处理与 BDAS ··················6
1.6 SQL 与 NoSQL 查询处理···············6
1.7 必要的数学知识······························7
1.8 设计及构建 BDAS 的循环过程······7
1.9 如何利用 Hadoop 生态系统
实现 BDA······································10
1.10 “图像大数据” (IABD)基本
思想 ·············································10
1.10.1 使用的编程语言 ···················· 12
1.10.2 Hadoop 生态系统的多语言
组件
··········································· 12
1.10.3 Hadoop 生态系统架构 ········· 13
1.11 有关软件组合件与框架的
注意事项 ·····································13
1.12 Apache Lucene、 Solr 及其他:
开源搜索组件 ·····························14
1.13 建立 BDAS 的架构 ·····················15
1.14 你需要了解的事情······················15
1.15 数据可视化与报表······················17
1.15.1 使用 Eclipse IDE 作为开发
环境
··········································· 18
1.15.2 本书未讲解的内容 ················ 19
1.16 本章小结······································21
第 2 章 Scala 及 Python 进阶················23
2.1 动机:选择正确的语言定义
应用 ···············································23
2.2 Scala 概览······································24
2.3 Python 概览 ···································29
2.4 错误诊断、调试、配置文件及
文档 ···············································31
2.4.1 Python 的调试资源 ···················· 32
2.4.2 Python 文档 ································· 33
2.4.3 Scala 的调试资源 ······················· 33
2.5 编程应用与示例····························33
2.6 本章小结 ·······································34
2.7 参考文献 ·······································34
第 3 章 Hadoop 及分析的标准工具集 ····35
3.1 库、组件及工具集:概览 ············35
3.2 在评估系统中使用深度学习方法····38
3.3 使用 Spring 框架及 Spring Data····44
3.4 数字与统计库: R、 Weka 及
其他 ···············································44
3.5 分布式系统的 OLAP 技术············44
3.6 用于分析的 Hadoop 工具集:
Apache Mahout 及相关工具··········45
3.7 Apache Mahout 的可视化··············46
3.8 Apache Spark 库与组件·················46
3.8.1 可供选择的不同类型的 shell ·· 46
3.8.2 Apache Spark 数据流 ················· 47
3.8.3 Sparkling Water 与 H2O
机器学习
······································ 48
3.9 组件使用与系统建立示例 ············48
3.10 封包、测试和文档化示例
系统··············································50
3.11 本章小结 ·····································51
3.12 参考文献 ·····································51
第 4 章 关系、 NoSQL 及图数据库 ······· 53
4.1 图查询语言: Cypher 及
Gremlin··········································55
4.2 Cypher 示例···································55
4.3 Gremlin 示例 ·································56
4.4 图数据库: Apache Neo4J·············58
4.5 关系数据库及 Hadoop 生态
系统 ···············································59
4.6 Hadoop 以及 UA 组件 ··················59
4.7 本章小结 ·······································63
4.8 参考文献 ·······································64
第 5 章 数据管道及其构建方法············· 65
5.1 基本数据管道 ·······························66
5.2 Apache Beam 简介 ························67
5.3 Apache Falcon 简介·······················68
5.4 数据源与数据接收:使用
Apache Tika 构建数据管道···········68
5.5 计算与转换····································70
5.6 结果可视化及报告························71
5.7 本章小结 ·······································74
5.8 参考文献 ·······································74
第 6 章 Hadoop、 Lucene、 Solr 与
高级搜索技术 ····························75
6.1 Lucene/Solr 生态系统简介············75
6.2 Lucene 查询语法 ···························76
6.3 使用 Solr 的编程示例 ···················79
6.4 使用 ELK 栈(Elasticsearch、
Logstash、 Kibana)·························85
6.5 Solr 与 Elasticsearch:特点与
逻辑 ···············································93
6.6 应用于 Elasticsearch 和 Solr 的
Spring Data 组件····························95
6.7 使用 LingPipe 和 GATE 实现定制
搜索 ···············································99
6.8 本章小结 ·····································108
6.9 参考文献 ·····································108

第 7 章 分析技术及算法概览 ···············111
7.1 算法类型综述 ····························· 111
7.2 统计/数值技术 ···························· 112
7.3 贝叶斯技术 ································· 113
7.4 本体驱动算法 ····························· 114
7.5 混合算法:组合算法类型 ·········· 115
7.6 代码示例 ····································· 116
7.7 本章小结 ····································· 119
7.8 参考文献 ····································· 119
第 8 章 规则引擎、系统控制与系统
编排········································ 121
8.1 规则系统 JBoss Drools 介绍·······121
8.2 基于规则的软件系统控制 ··········124
8.3 系统协调与 JBoss Drools············125
8.4 分析引擎示例与规则控制 ··········126
8.5 本章小结 ·····································129
8.6 参考文献 ·····································129
第 9 章 综合提升:设计一个完整的分析
系统·········································131
9.1 本章小结 ·····································136
9.2 参考文献 ·····································136

第 10 章 数据可视化:可视化与交互
分析······································ 139
10.1 简单的可视化····························139
10.2 Angular JS 和 Friends 简介 ·······143
10.3 使用 JHipster 集成 Spring XD
和 Angular JS ·····························143
10.4 使用 d3.js、 sigma.js 及其他
工具············································152
10.5 本章小结····································153
10.6 参考文献····································153
第Ⅳ部分 案例研究与应用
第 11 章 生物信息学案例研究:
分析显微镜载玻片数据········· 157
11.1 生物信息学介绍 ························157
11.2 自动显微镜简介 ························159
11.3 代码示例:使用图像填充
HDFS ·········································162
11.4 本章小结····································165
11.5 参考文献····································165
第 12 章 贝叶斯分析组件:识别信用
卡诈骗 ·································· 167
12.1 贝叶斯分析简介························167
12.2 贝叶斯组件用于信用卡诈骗
检测 ···········································169
12.3 本章小结····································172
12.4 参考文献····································172
第 13 章 寻找石油:使用 Apache Mahout
分析地理数据 ······················· 173
13.1 基于领域的 Apache Mahout 推理
介绍 ···········································173
13.2 智能制图系统和 Hadoop
分析 ···········································179
13.3 本章小结····································180
13.4 参考文献····································180
第 14 章 “图像大数据”系统:一些
案例研究 ·······························181
14.1 图像大数据简介 ························181
14.2 使用 HIPI 系统的第一个代码
示例············································184
14.3 BDA 图像工具包利用高级语言
功能············································187
14.4 究竟什么是图像数据分析? ·····187
14.5 交互模块和仪表板 ····················189
14.6 添加新的数据管道和分布式
特征查找····································189
14.7 示例:分布式特征查找算法·····190
14.8 IABD 工具包中的低级图像
处理程序····································194
14.9 术语············································194
14.10 本章小结··································195
14.11 参考文献 ··································195
第 15 章 构建通用数据管道·················199
15.1 示例系统的体系架构和描述·····199
15.2 如何获取和运行示例系统·········200
15.3 管道构建的五大策略 ················200
15.3.1 从数据源和接收装置
工作
········································· 200
15.3.2 由中间向外发展 ··················· 200
15.3.3 基于企业集成模式(EIP)的
开发
·········································· 200
15.3.4 基于规则的消息管道开发 ··· 201
15.3.5 控制+数据(控制流)管道 ······ 202
15.4 本章小结····································202
15.5 参考文献····································203
第 16 章 大数据分析的总结与展望 ····· 205
16.1 总结 ···········································205
16.2 大数据分析的现状 ····················206
16.3 “孵化项目”和“初期
项目” ········································208
16.4 未来 Hadoop 及其后续思考······209
16.5 不同观点:目前 Hadoop 的
替代方案····································211
16.6 在“未来 Hadoop”中使用机器
学习和深度学习技术 ················211
16.7 数据可视化和 BDA 的前沿
领域············································212
16.8 结束语········································212
附录 A 设置分布式分析环境················215
附录 B 获取、安装和运行示例分析
系统 ·········································227

第Ⅰ部分 概念
本书第Ⅰ部分描述基本概念、结构、分布式分析软件系统的使用,以及该分布式系
统的好处和使用它时的一些必要工具。 同时介绍一些在建立系统时需要用到的分布式基
础架构,包括 Apache Hadoop 及其生态系统。


本书将设计并实现用于获取、分析、可视化大数据集的软件系统。全书将使用缩略词
BDA 或 BDAS(Big Data Analytics System,大数据分析系统)描述此类软件。当然,首先需
要对大数据本身进行解释。作为计算机程序员和架构师,我们知道现在通常所说的“大数
据”已经伴随我们很长一段时间了——大约有十多年。事实上,因为“大数据”一直以来
就是一个相对的、多维度的术语,并非仅仅根据数据容量进行定义。复杂性、速度和准确
性——当然,也包含数据容量,构成了现代“大数据集合”的所有维度。
本章将讨论基于 Hadoop 的 BDAS 到底是什么,为什么它们非常重要,可以采用什么
样的数据源、数据接收装置和仓库,以及哪些候选应用适合基于 Hadoop 的分布式系统方
法,哪些应用不适合。我们还将简要讨论在构建此类系统时,能够替代 Hadoop/Spark 环境
的其他环境。
软件开发总让人感到有种紧迫感, BDAS 的开发也不例外。即使是在这个蓬勃发展的
新兴行业的初期, BDA 已经被要求以更快的速度处理和分析越来越多的数据,而且需要更
深层次的理解能力。当我们考察软件系统构建和开发的具体细节时,无论对于抽象的计算
机科学,还是对于计算机技术的应用来说,以更广泛的方式处理越来越多的数据始终是一
个关键目标。同样,对于大数据应用和大数据系统来说,这条规则也不例外。这样当我们
在思考可用的全局数据源为何在过去几年呈现爆炸式增长时,就不会感到奇怪,如图 1-1
所示。

第 1 章
概述: 用 Hadoop 构建数据分析系统
由于软件组件和廉价现货处理能力的快速发展以及软件开发本身的快速发展,期望为
其应用建立 BDA 的架构师和程序员对在 BDA 领域所面对的大量技术和策略选择问题常感
到无所适从。本章将对 BDA 进行总体概述,并试图确定一些在构建 BDAS 时常常面对的
技术问题。
1.1 构建 DAS 的必要性
由于传统的业务分析方法不能满足现代分析应用所面临的处理大容量、复杂性、多格
式和快速数据的需求,因此 DAS(Distributed Analytical System,分布式分析系统)应运而生。
DAS 环境除了软件以外,还以另外一种方式发生了戏剧性的变化。硬件开销——计算和存
储开销大幅下降。类似 Hadoop 之类的工具应用于由相对低廉的机器和磁盘所构成的集群
环境中,过去对大型数据项目来说必须具备的分布式处理已成为平常之事。同时,从实现
分布式计算来看,目前存在大量的支持软件(框架、库、工具包)。的确,从技术栈(可选集)
中选择可用技术已经成为一个严峻的问题,解决该问题的关键在于详细考察应用需求和可
用资源。
从历史来看,硬件技术决定了软件组件的能力,在数据分析领域尤其如此。传统数据
分析的主要工作针对基于文件的数据集或直接连接到关系数据库,实现统计的可视化(直方
图、饼图、表格报告等)。计算引擎通常在单一服务器上采用批处理方式实现。随着分布式
计算新时代的到来,利用计算机集群实现对大数据问题的分而治之成为计算的标准方式:
其可扩展能力使得我们能够超越单台计算机的能力限制,尽可能多地增加所需(或者说我们
能够负担得起)的硬件现货。类似 Ambari、 Zookeeper 和 Curator 之类的软件工具帮助我们
管理集群并提供可扩展能力,以及实现集群资源的高可用性。
1.2 Hadoop Core 及其简史
某些软件思想已经存在很长时间,以至于已经无法说它们是计算机的历史,而应当说
它们是计算机的古董。“MapReduce(映射-规约)”问题求解方法可以追溯到第二古老的计算
机编程语言 LISP(List Processing,列表处理),可追溯到 20 世纪 50 年代, map、 reduce、 send
以及 lambda 是 Lisp 语言的标准函数。几十年后,我们现在所熟知的基于 Java 开源代码的
分布式处理框架 Apache Hadoop 并非是“从头开始”的新东西。它源于 Apache Nutch,一
种开源的 Web 搜索引擎,而 Nutch 则基于 Apache Lucene。有趣的是, R 统计库(本书后续
章节将深入讨论)也受到 Lisp 的影响,最初是用 LISP 语言编写的。
在开始讨论 Hadoop 生态系统前,首先简单介绍一下 Hadoop Core 组件。顾名思义,
Hadoop Core 是 Hadoop 框架的基础(见图 1-1)。支持组件、架构,当然还包括附属库、
问题求解组件以及被称为 Hadoop 生态系统的子框架,它们都建立在 Hadoop Core 基础
之上,如图 1-2 所示。请注意在本书中,我们将不会讨论 Hadoop 1,因为它已经被新的
实现 YARN(另一种资源协调器)所取代。 同时也请注意, 在 Hadoop 2 系统中, MapReduce

并未消失,只是被模块化并抽象化为一种组件,以便能够更好地与其他数据处理模块协
同工作。


1.3 Hadoop 生态系统概述
Hadoop 及其生态系统加上随之不断壮大的框架和库,始终是 BDA 领域不容忽视的力
量。本书其他部分将帮助读者对 BDA 所面临的挑战制定一个集中化解决方案,同时提供最
低限度的背景和上下文,帮助读者学习在 BDA 求解中可以用到的新方法。 Hadoop 及其生
态系统通常可以划分为如图 1-3 所示的主要分类或功能块。读者将会注意到图中还包含几
个额外的用于关联组件以及实现安全功能的模块。你也可以根据自己的需求为 BDAS 添加
一些支持库和框架。

注意
在本书中,我们将反复强调开放的第三方组件,例如 Apache 组件和前面提到的库。但
这并不意味着你不能集成自己喜欢的图数据库或关系数据库作为 BDAS 的数据源。我们还
将强调开源组件的灵活性和模块化,用最少的附加软件“组合件” 将数据管道组件整合起
来。 在讨论中, 我们将使用 Spring 框架的 SpringData 组件以及 Apache Camel, 提供集成“组
合件” 用于支持组件链接。
1.4 AI 技术、认知计算、深度学习以及 BDA
BDA 不再只是简单的统计分析。 随着 BDAS 及其支持框架的不断发展, 机器学习(Machine
Learning, ML)、人工智能(Artificial Intelligence, AI)、图像及信号处理等技术以及其他一
些复杂的技术(包括被称为“认知计算”的技术)逐渐成熟并成为数据分析工具包的标准
组件。
1.5 自然语言处理与 BDAS
实践表明,自然语言处理(Natural Language Processing, NLP)组件能够在大量不同类型
的领域中发挥重要作用,从对收据及发票的扫描及解释,到对医院里药房和医疗记录中处
方数据的复杂处理,以及其他许多采用非结构化和半结构化数据的领域。在处理此类“混
合与匹配”类型的数据源时,其中条形码、签名、图像与信号、地理数据(GPS 定位)以及
其他数据类型混杂在一起, Hadoop 成为一种自然的选择。在处理各种不同类型的海量文件
分析时, Hadoop 也是一种强有力的手段。
本书还将在不同章节讨论被称为“语义网”的技术,例如分类与本体、基于规则的
控制、自然语言处理组件等。现在可以说自然语言处理技术已经跳出了研究领域,进入
实际应用开发领域,包含大量的工具包和库可供选择。本书将讨论一些自然语言处理工
具包,包括基于 Python 的自然语言工具包(Natural Language Toolkit, NLTK)、 Stanford 自
然语言处理以及一种基于 Apache Hadoop 的用于海量文档分析的开源平台 Digital Pebble’s
Behemoth。
1.6 SQL 与 NoSQL 查询处理
如果数据不被查询,则无法体现其价值。查询数据集的过程,无论是采用 Oracle 或
MySQL 等关系数据库生成的包含键-值对集合的结果集,还是从 Neo4j 或 Apache Giraph 等
图数据库生成的顶点与边的结果表示,均需要对数据开展过滤、排序、分组、组织、比较、
划分及评估等工作。这些工作导致查询语言(例如 SQL)的发展,也导致了与查询语言相关
联的“NoSQL”组件和诸如 HBase、 Cassandra、 MongoDB、 CouchBase 等数据库的变化。

本书将主要采用 REPL(Read-Eval-Print Loops)、交互式 shell(例如 IPython)以及其他交互式
工具来表示查询,无论它们与何种软件组件关联,我们都会尽量将查询与大家所熟知的 SQL
概念关联起来。例如,一些类似 Neo4j(在后续章节中将详细讨论)之类的图数据库有它们自
己的类 SQL 查询语言。本书将尝试并坚持尽可能采用传统的类 SQL 查询,但在此过程中
也会指出一些能够替代 SQL 范式的方法。
1.7 必要的数学知识
本书尽量不涉及数学概念和方法。然而有些时候,数学方程式却是必不可少的。有时
理解要解决的问题和实现方案的最好方式是采用数学方式和路线;再次指出,在某些情况
下“必要的数学知识”将成为解决困惑的关键因素。数据模型、神经网络、单个或多分类
器和贝叶斯图技术至少需要了解这些系统的底层动力机制。同时,对程序员和架构师来说,
必要的数学知识几乎总是能够转换为有用的算法,进而成为可用的实现方法。
1.8 设计及构建 BDAS 的循环过程
目前当考虑构建 BDAS 时存在一些好的消息。 Apache Spark 及其内存计算模型是主要
的积极因素之一,但也存在其他的原因告诉我们为什么构建 BDAS 非常困难。涉及的主要
原因如下:
● 大量框架和集成开发环境(IDE)可用于辅助开发。
● 若有需要,大量成熟并经过严格检验的组件可用于帮助构建 BDAS 和公司支持的
BDAS 产品。成熟的框架(例如 Spring Framework、Spring Data 子框架、Apache Camel
以及其他大量产品)可提供可靠的核心基础设施,有助于分布式系统的开发。
● 存在包含大量开发者论坛和聚会的重要的在线和个人 BDA 开发社区。在 BDA 设
计和开发中,如果遇到架构或技术问题,用户社区中的某些人能够为你提供有益的
帮助。
本书中,我们将使用下列包含 10 个步骤的过程来定义并构建 BDA 示例系统。该过程
仅仅是一个建议方案。你可以采用下面列出的过程并根据自己的实际情况加以完善,增加
或删除结构或步骤,或者提出自己的开发过程。是否采用或完善取决于你自己的考虑。在
规划或组织 BDA 项目,以及在开发或建立这些项目的过程中遇到问题时,你会发现采用该
过程是非常有效的。
读者可能会注意到定义、实现、测试及文档化都被融合到整个过程中。在整个开
发周期中,当需求和使用的技术相对稳定时,此处描述的过程特别适于快速迭代开发
过程。
定义和构建 BDAS 的基本步骤如下。整个周期的描述如图 1-4 所示。

图 1-4 设计及构建 BDAS 的循环过程 1. 识别并获取 BDA 系统的需求
开发初期需要建立一个有关技术、资源、工具和策略以及要实现目标所需其他组成部
件的大纲。初始的目标集合(往往最易发生变化)需要被明确地固定下来,排好顺序,并加
以定义。随着对项目需求理解的不断深入,目标及其他需求是最容易发生变化的。 BDAS
具有特殊的需求(可能包括 Hadoop 集群中应当包括什么内容、特定的数据来源、用户接口、
报表、仪表板等需求)。建立一个涉及数据源类型、数据库接收装置、必要的语法分析、转
换、验证以及数据安全关注点的列表,以便使需求能够适应 BDA 技术所具有的灵活、可变
属性,这样能够确保你以模块化、组织化的方式对系统进行修改。对计算和过程中的组件
加以区分,决定是采用批处理,还是采用流处理方式(或者同时采用两种方式),画出计算
引擎的工作流图。这些工作都将有助于定义和理解系统的“业务逻辑”。
2. 定义初始技术栈
初始技术栈将包括满足上一步所定义需求的 Hadoop Core 以及合适的生态系统组件。
如果需要支持数据流,或者需要使用本书后续部分讨论的基于 Spark 的机器学习库,则可
以包括 Apache Spark。记住你需要使用的编程语言。如果使用 Hadoop,可以将 Java 语言包
含在技术栈中。如果使用 Apache Spark,则采用 Scala 语言。后续章节中将讨论的 Python
包含大量有趣的特殊应用。若有特殊需求,则还可以采用其他语言。

3. 定义数据源、输入/输出数据格式以及数据清洗处理
在需求获取阶段(步骤 0),将建立初始的数据源/数据接收装置类型列表,并建立有助
于定义数据管道的顶层流程图。在 BDAS 中,可以定义外部数据源,包括图像、地理位置、
时间戳、日志文件等。因此,在开展初始设计工作时,有必要在手中保留一份数据源(以及
数据接收装置)类型的当前列表。
4. 定义、收集和组织初始数据集
项目中可能包含初始数据,这些数据可能包括测试和训练数据(关于训练数据,本书后
续章节将讨论更多与其相关的内容)以及先前系统的遗留数据,或者根本没有数据。仔细考
虑一下数据集的最小数量(数量、种类、容量),并获取或建立需要的数据。请注意当添加
新代码时,为完成适当的测试工作,可能需要添加新的数据集。应当将初始数据集在数据
管道的每个模块中都测试一下,确保整个处理畅通可行。
5. 定义需要完成的计算工作
以概念形式呈现的业务逻辑来自需求阶段,但这些逻辑是什么以及如何实现将随着时
间不断发生变化。在该阶段,定义要对数据元素执行的输入、输出、规则和转换策略。这
些定义将在步骤 6 中实现。
6. 利用计算引擎对使用的数据集合开展预处理工作
有时数据集合需要经过预处理:验证、安全检查、清洗、转换为更适合处理的格式,
当然也可以包含相关的其他步骤。建立必须满足的预处理目标的列表,在开发过程中需要
持续不断地关注相关的问题,随着开发的不断深入,对列表中的对象进行必要的修改。
7. 定义计算引擎步骤;定义结果的格式
需要持续不断地关注业务逻辑、数据流、精确的结果、算法以及实现的正确性,关注
计算引擎的效率,发现存在的问题并加以改进。
8. 将过滤的结果放入数据接收装置的结果库中
数据接收装置是保存数据管道最终输出结果的数据仓库。在输出数据被生成报表或
展示前,将采取几个步骤用于开展过滤或转换工作。分析获得的最终结果可以存储在文
件、数据库、临时库、报表或其他由需求所定义的存储形式中。记住来自用户接口或执
行仪表板的用户行为,可能对格式、容量、输出的展现具有影响。其中一些交互结果可
能需要持久存储在数据库中。应当为数据输出、报表、展现和持久性建立一个特定的需
求列表。
9. 定义并建立输出报表、仪表板以及其他输出展现和控制
输出的展现及报表,其建立是为能够清晰地展示所有分析计算工作的结果。 BDAS 的

组件通常采用或至少部分采用 JavaScript 并且可能会采用复杂的可视化库,用于帮助不同
种类的仪表板、报表和其他输出的展示。
10. 文档、测试、细化改善以及重复
若有必要,在完成需求、栈、算法、数据集合及其他部分的细化工作后,我们可以再
次考虑完成的步骤。文档最初包含最后七个步骤中的各种注意事项,但随着开发的不断深
入,这些初始文档往往需要细化和重写。需要在每次循环中建立测试、细化并持续改进。
每个开发循环可以生成一个版本、一个迭代过程,或采用你所喜欢的方式组织程序循环迭
代工作。
如上所述,是构建 BDAS 的基本步骤。系统化地使用这些迭代过程将确保你能够设计
并建立与本书描述的实例相媲美的 BDAS。
1.9 如何利用 Hadoop 生态系统实现 BDA
Hadoop 系统对 BDA 的实现是通过连接数据管道结构中所有必要的成分(数据源、
转换、基础架构、持久性以及可视化)来实现的,同时允许这些组件以分布式方式操作。
Hadoop Core(某些情况下采用 Apache Spark, 或者甚至同时采用 Hadoop 和 Storm 组成的
混合系统)通过类似 Zookeeper、 Curator 以及 Ambari 等组件支持分布式系统架构和集群
(节点)协作。在 Hadoop Core 的顶层,生态系统提供复杂的库来支持分析、可视化、持
久性和报表的实现。
不应当将 Hadoop 生态系统仅仅看成 Hadoop Core 功能的附属库。生态系统为 Hadoop
Core 提供集成的、 无缝连接的组件, 目标在于解决特定的分布式问题。 例如, Apache Mahout
提供了分布式机器学习算法工具包。
利用经过周详考虑构建的应用程序接口(API),可方便地实现 Hadoop 引擎及其他计算
单元与数据源的连接。利用 Apache Camel、 Spring Framework、 Spring Data 和 Apache Tika
的“关联”能力,我们能够实现所有组件与应用的数据流引擎的连接。
1.10 “图像大数据” (IABD)基本思想
图像——图片和信号是传播最广泛、有用的、复杂的“大数据类型”信息的来源。
图像通常被认为是由包含原子单元的二维数组构成,其中原子单元被称为像素,事实
上(不含一些相关的元数据),这种格式是类似于 Java 的计算机编程语言所采用的图像表示
方法,且与 Java 高级图像处理(Java Advanced Imaging, JAI)、 OpenCV、 BoofCV 等图像处
理库关联。然而,生态系统从此二维数组中“抽取出”需要的部分:线段和形状、颜色、
元数据、上下文信息、边界、曲线以及这些部分之间的关系。逐渐明了的是图像(相关的数
据,例如来自传感器、来自麦克风或测距仪的时间序列和“信号”等数据)是大数据最具有

代表性的类型,可以说图像的分布式 BDA 是由生态系统实现的。毕竟,多数情况下,当我
们驾驶汽车时,我们需要完成的是复杂的基于分布式系统的三维立体视觉处理。
图像作为大数据源的好处在于,它不再像过去那样处理非常困难。先进的库可用于实
现 Hadoop 与其他需要的组件之间的接口,例如图像数据库或类似 Apache Kafka 这类的消
息组件。低层次的库,包括 OpenCV 或 BoofCV 等,如果需要的话,能够提供图像处理原
语。编写的代码小巧方便。例如,可以利用如下的 Java 类编写一个简单的、带滚动条的图
像浏览器(如代码清单 1-1 所示)。
代码清单 1-1 Hello image world :如图 1-5 所示的图像可视化 Stub( 存根 ) Java 代码
package com.kildane.iabt;
import java.awt.image.RenderedImage;
import java.io.File;
import java.io.IOException;
import javax.media.jai.JAI;
import javax.imageio.ImageIO;
import javax.media.jai.PlanarImage;
import javax.media.jai.widget.ScrollingImagePanel;
import javax.swing.JFrame;
/**
* Hello IABT world!
* The worlds most powerful image processing toolkit (for its size)?
*/
public class App
{
public static void main(String[] args)
{
JAI jai = new JAI();
RenderedImage image = null;
try{
image = ImageIO.read(new File("/Users/kerryk/Documents/SA1_057_62_
hr4.png"));
} catch (IOException e) {
e.printStackTrace();
}
if(image == null){ System.out.println("Sorry, the image was null"); return; }
JFrame f = new JFrame("Image Processing Demo for Pro Hadoop Data Analytics");
ScrollingImagePanel panel = new ScrollingImagePanel(image, 512, 512);
f.add(panel);
f.setSize(512, 512);
f.setVisible(true);
System.out.println("Hello IABT World, version of JAI is: " + JAI.getBuildVersion());
}
}

图 1-5 高级第三方库,使得图像可视化组件的构建方便容易,仅包含为数不多的几行代码

然而,构建简单的图像浏览器仅仅是图像 BDA 的开始。后续的工作还包括低层图像处
理、特征获取、转换为分析所需的适当的表达形式,最后将结果导出到报表、仪表板或用
户定制的结果展示方式上。
在本书第 14 章中,我们将更详尽地探索 IABD(Images as Big Data,图像大数据)的概念。
1.10.1 使用的编程语言
首先,简单讨论一下编程语言。 Hadoop 及其生态系统最初是用 Java 语言开发的,目
前 Hadoop 子系统几乎能够绑定所有语言,包括 Scala 和 Python 语言。这使得 Hadoop 非常
容易在一个应用中建立需要的多语言系统,以便能够利用多种语言的有用特点。
1.10.2 Hadoop 生态系统的多语言组件
在现代 BDA 领域中,采用单一语言的系统很少见。本书所讨论的较早开发的组件和支
持库,一般都是采用一种编程语言编写的(例如,Hadoop 本身采用 Java 编写,而 Apache Spark
采用 Scala 编写),一般来说, BDAS 是由不同的组件构成的,有时在同一个应用中同时使
用 Java、 Scala、 Python 以及 JavaScript 等语言。此类多语言、模块化的系统通常被称为多
语言系统。
目前程序员已经习惯采用多语言系统。多语言方法的广泛使用主要是为了满足应用的
需要:编写用于网络的仪表板适用于 JavaScript 等语言,例如在必要时,可单独采用 Java
Swing 编写仪表板或者采用 Web 模式。主要是要考虑手边开发的应用采用何种语言效果更
好、开发效率更高。本书我们将接纳多语言思想。一般地,针对基于 Hadoop 的组件采用
Java,基于 Spark 的组件采用 Scala,在必要时采用 Python 和脚本,为前端、仪表板以及图
形绘图示例的开发采用基于 JavaScript 的工具集。

1.10.3 Hadoop 生态系统架构
Hadoop Core 提供了建立分布式系统功能的基础环境,附带的库和框架被认为是
“Hadoop 生态系统”,提供到 API 和功能模块的有用连接,用于解决应用问题并建立分布
式系统。
可以将 Hadoop 生态系统形象化为一种类似“太阳系”结构的系统,生态系统独立的
组件与中心 Hadoop 组件关联, Hadoop Core 起到类似太阳系中心的“太阳”的作用,如
图 1-6 所示。除了为 Hadoop 集群本身提供管理和记录功能外(例如, Zookeeper 和 Curator),
Hive 及 Pig 等标准组件提供数据仓库功能, Mahout 等辅助库还能提供标准机器学习算法
支持。

图 1-6 简化的 Hadoop 生态系统“太阳系”图
Apache ZooKeeper(zookeeper.apache.org)是一种为基于 Hadoop 及基于 Spark 系统的不
同类型系统提供分布式协调服务的组件。它能够提供命名服务、组成员、锁等,提供分
布式异步机制,以及高可用性和集中注册机制。 ZooKeeper 具有一种包含“Z 节点”的层
次化命名空间数据模型。 Apache ZooKeeper 是一种开源软件,并由称为 Apache Curator
的 有趣的辅助 组件,一种 客户端包装 器提供支持 ,也是一种 丰富的框架 用于 支 持
ZooKeeper ——中心组件。后续在设置运行 Kafka 消息系统的配置时,将讨论 ZooKeeper
和 Curator。
1.11 有关软件组合件与框架的注意事项
对任何建筑项目来说,“组合件”是必需的,软件项目也不例外。事实上,某些软件组
件, 例如自然语言处理(NLP)组件 Digital Pebble Behemoth(后续我们将讨论相关细节)就自称
为“组合件”。幸运的是, 目前存在一些一般意义上的集成库和软件包, 非常适合建立 BDA,
如表 1-1 所示。

1-1 一些集成库和软件包

名称 位置 描述
Spring Framework http://projects.spring.io/spring-framework 基于 Java 的应用开发框架,包含用于
支持几乎所有应用开发需求的库
Apache Tika tika.apache.org 从多种文件类型中检测并获取元数据
Apache Camel Camel.apache.org 一种用于实现企业集成模式(EIP)的
“组合件”组件
Spring Data http://projects.spring.io/spring-data/ 数据访问工具包,与 Spring 框架的其
他部分紧密耦合
Behemoth https://github.com/DigitalPebble/behemoth 海量文档分析“组合件”


为更有效地使用 Apache Camel,了解企业集成模式(EIP)是非常有益的。关于 EIP,有
几本好书,如
Enterprise Integration Patterns: Designing, Building, and Deploying Messaging
Solution
(由 Pearson 公司于 2004 年出版),了解其内容对使用 Apache Camel 非常重要。
1.12 Apache Lucene、 Solr 及其他:开源搜索组件
搜索组件作为查询引擎本身,对分布式计算是非常重要的,特别是对 BDA。事实上,
有时类似 Apache Lucene 或 Apache Solr 之类的搜索引擎是查询引擎实现的关键部分。通
过图 1-7,可以看到这些组件之间的交互。它表明 Lucene 的 Solr 组件有自己的生态系统,
虽然该生态系统没有 Hadoop 生态系统那样庞大。尽管如此, Lucene 生态系统包括一些与
BDA 相关的软件资源。除 Lucene 和 Solr 外, Lucene 生态系统还包括 Nutch,一种可扩展
的、便于升级的 Web 爬虫(nutch.apache.org)。 NGDATA 的百合花(Lily)项目是一种非常有
趣的软件框架,我们可以用它无缝地使用 HBase、 ZooKeeper、 Solr 及 Hadoop。百合花的
客户端可以使用基于 Avro 的协议,实现与百合花的连接。 Apache Avro 是一种数据序列
化系统,可提供一种紧凑的、快速的二进制代码格式,包含与动态语言的简单集成。

图 1-7 Hadoop 和其他与搜索相关的 Apache 组件之间的关系图
1.13 建立 BDAS 的架构
构建 BDAS 的部分问题在于软件开发与搭建建筑物存在很多差异。尽管具有一定的
相似性,但这种近似仅仅是一种隐喻。在设计软件时,我们往往会使用一些隐喻和相似
性来考虑我们应当做什么。我们将软件开发称为软件构建,因为软件开发过程与搭建房
屋具有一定的相似性,应用于构建商业中心的一些基本原则也可以应用于软件系统的设
计开发过程。
我们希望通过对技术历史的学习,减少重复像我们前辈那样的错误。作为学习的结果,
产生了“最佳实践”、软件“模式”以及“错误模式”等方法,例如敏捷开发或迭代开发
等,以及包含其他技术和策略的包罗万象的工具。这些资源可帮助我们在软件需求开发过
程中提高质量、降低开销,提供有效的及可管理的解决方案。
“软件架构”这一隐喻出现问题,源于有关软件开发的一些现实问题。如果你在构建
一个豪华宾馆时,突然决定要增加休闲健身房或在每个套间中增加壁炉,问题就出现了。
重新设计房间平面格局或者要使用什么品牌的地毯等问题的决策都非常困难,对初期设想
的改变将会付出巨大的代价。有时,我们需要冲出建筑隐喻的樊篱,考察软件架构与建筑
隐喻存在差异的地方。
主要的差异与软件本身的动态、可变动属性相关。需求会变化,数据会变化,软件技
术在快速更新。客户会根据自身需要改变其思想。有经验的软件工程师对这种弹性的、可
塑的软件属性习以为常,相关的实现(软件及数据的灵活性)将影响从工具包到方法的所有
组成部分,特别是对敏捷-类型开发方法论,它假定需求的快速变化是理所当然的事情。
上述抽象的思想将影响我们实际的软件架构选择策略。简而言之,在设计 BDAS 时,
经受住时间考验的标准架构原则仍然可以使用。例如,我们可以在所有标准的 Java 编程项
目中采用组织化原则。可以使用企业集成模式(EIP)帮助组织和集成项目中涉及的不同组
件。可以继续使用传统的 n-层、客户机-服务器或点对点原则组织系统。
作为架构师,我们必须意识到作为一般性的分布式系统以及作为特殊性的 Hadoop 是
如何改变实际系统建立的固定模式。架构师必须仔细考虑应用到 Hadoop 技术的模式,例
如 MapReduce 模式及错误模式。这类知识非常关键。为此,在下一节中,我们将告诉读者,
在建立有效的 Hadoop BDA 时,什么是需要了解的事情。
1.14 你需要了解的事情
在撰写本书时,我们期望本书读者有一些相关的基础知识。我们假设读者是有经验
的程序员和/或架构师,你应当熟悉 Java,了解 Hadoop 并且熟悉 Hadoop 2 核心(包括
YARN)、 Hadoop 生态系统,了解从头开始建立 Java 类应用的基本机制。以上假设意味
着, 读者应当熟悉集成开发环境(例如 Eclipse, 稍后将加以讨论), 了解类似 Ant 和 Maven
之类的构建工具,你手头有一个大型的 BDA 应用。同时,我们还假设读者对需要解决
的技术问题非常了解:包括选择编程语言、技术栈,了解应用涉及的数据源、数据格式

以及数据接收装置。你已经熟悉并掌握 Python 以及 Scala 编程语言,当然我们将给出有
关这些语言的简单介绍——下一章将介绍一些有关其特殊应用的思想。 Hadoop 生态系
统包含大量组件,本书涉及的内容并未完全涵盖,后面的表 1-3 将列出本书涉及的
Hadoop 生态系统的组件。
我们的假设不仅涉及读者的编程能力,我们还假设读者是战略思考者:读者能够理
解在软件技术变化、进化、变异时,良好的策略与方法(计算机科学领域或者其他科学
领域)使得读者能够适应新技术和新问题。作为一个战略思考者,你对数据格式非常感
兴趣。
数据格式并不是大数据科学中最具魅力的地方, 但数据格式是架构师和软件工程师
最应当关注的问题之一,因为从某种意义上说,数据源及其格式是所有数据管道中最重
要的部分:初始化软件组件或预处理器从数据源获取数据,并开展清洗、验证、证实、
确保安全性等工作,之后这些数据将在管道的计算引擎阶段进行处理。 Hadoop 是本书
讨论的 BDA 的关键组件,本书将给予最大的关注。读者应当非常了解 Hadoop Core 和
Hadoop 生态系统的基本组件。
典型生态系统 组件主要包括 Hive、Pig、HBase 等, 以及诸如 Apache Camel、Spring
框架、 Spring 数据子框架、 Apache Kafka 消息系统等连接组件。如果读者对使用关系数据
库类型的数据源比较有兴趣,了解 JDBC 以及 Spring 框架、 JDBC 标准、 Java 编程实践非
常有助于此类问题的解决。JDBC 在组件设计中大有卷土重来的趋势, 例如 Apache Phoenix,
该组件是关系型与基于 Hadoop 技术的融合。 Phoenix 针对 HBase 数据能够提供快速查询能
力,在查询中采用标准 SQL 语法。 Phoenix 可以作为一种嵌入式 JDBC 驱动的客户端,因
此可以用简单的 Java 代码访问 HBase 集群。 Apache Phoenix 同时还能提供对模式的定义、
事务和元数据的支持。表 1-2 列出数据库类型及一些来自业界的示例。
1-2 数据库类型及一些来自业界的实例

数据库类型 示例 位置 描述
关系类型 mysql mahout.apache.org 此类需要复杂的框架和系统支持
的数据库类型, 已出现很长时间了
文档类型 Apache Jackrabbit jackrabbit.apache.org 基于 Java 的内容库
图类型 Neo4j Neo4j.com 多用途图形数据库
基于文件 Lucene Lucene.apache.org 通用统计
混合类型 Solr+Camel Lucene.apache.org/
Solr, Camel.apache.org
Lucene、 Solr 作为整体集成在一起


注意
配置并有效使用 Hadoop 的最好参考书之一是 Apress 出版发行的由 Jason Venner 和
Sameer Wadkhar 合写的
Pro Apache Hadoop
表 1-3 简单汇总了后续讨论中的一些工具集。
1-3 Hadoop 生态系统中用到的 BDA 组件示例

名称 供应商 位置 描述
Mahout Apache mahout.apache.org 应用于 Hadoop 的机器学习
MLlib Apache Spark.apache.org/mllib 应用于 Apache Spark 的机器学习
R https://www.r-projects.org 通用统计分析
Weka 新西兰维
卡托大学
http://www.cs.waikato.ac.nz/
ml/weka/
(基于 Java)的统计分析与数据挖掘
H2O H2O H2O.ai 基于 JVM 的机器学习
scikit_learn scikit-learn.org Python 机器学习
Spark Apache spark.apache.org 开源集群计算框架
Kafka Apache kafka.apache.org 分布式消息系统


1.15 数据可视化与报表
数据可视化与报表是数据管道结构中最终需要完成的步骤,具有与前面各个阶段同样
重要的地位。数据可视化允许系统终端用户对数据进行交互式查看和操纵。它可以是基于
Web 的,使用 RESTful 应用编程接口和浏览器,使用移动设备或独立于应用的设计,运行
于高性能图形显示器上。表 1-4 给出了用于数据可视化的标准库。
1-4 用于数据可视化的标准库

名称 位置 描述
D3 D3.org JavaScript 数据可视化
Ggplot2 http://ggplot2.org Python 数据可视化
matplotlib http://matplotlib.org Python 基本绘图库
Three.js http://threejs.org JavaScript 三维图形与绘图库
Angular JS https://angularjs.org 允许使用 JavaScript 建立模块化数据可视化组件的工具集。 特
别有用的是, AngularJS 与 Spring 框架和其他数据管道组件能
够很好地集成


利用上述库或类似的库,建立仪表板或前端用户接口是非常方便的。大多数高级的
JavaScript 库都包含高效的 API,用于连接数据库、 RESTful Web 服务或 Java/Scala/Python
应用。
采用 Hadoop 的 BDA 有些特殊。对 Hadoop 系统架构师来说, Hadoop BDA 提供标准
的主流架构模式、错误模式及策略。例如, BDAS 可以使用标准 ETL(获取-转换-加载)概念
进行开发,并使用“在同一片云端”开发分析系统的架构概念。标准系统建模技术仍然有
用,包括采用“应用层”方法加以设计。
一种应用层设计的示例可以包含“服务层” (提供应用的“计算引擎”或“业务逻

辑” )以及数据层(用于存储及调整输入输出数据,包含数据源和接收装置以及系统用户
访问的输出层,将内容提供给输出设备)。当输出的内容提供给 Web 浏览器时,通常也
被称为“Web 层”。
平台的问题
在本书中,我们给出了一些运行在 Mac OS X 环境的示例。这么做是出于设计的需要。
我们采用 Mac 环境的主要原因在于:这种选择是在 Linux/Unix 语法(毕竟,它是 Hadoop
生存的环境)与具有一定规模的开发环境之间的一种协调和妥协办法,在此开发者可以试验
其思想,不需要大型 Hadoop 集群,或者仅需要单个台式机来实现。当然,这并不意味着
读者不能在 Cygwin 上的 Windows 或类似环境中运行 Hadoop。
图 1-8 给出了一个简化的数据管道, 该数据管道处理在考虑使用 BDA 时采用的“Hello
World
程序。 对应的是数据分析人员都比较熟悉的简单的主流 ETL(获取-转换-加载)过程。
管道中不同的连续阶段将先前的输出内容进行转换,直到数据到达最终的数据接收装置或

结果库。

图 1-8 简化的数据管道
1.15.1 使用 Eclipse IDE 作为开发环境
Eclipse IDE(集成开发环境)已经存在了很长一段时间,在大多数采用 Java 或 Scala 的
开发中心中,对于使用 Eclipse 作为现代应用开发环境始终存在争议。目前,有许多可以
替代 Eclipse 作为集成开发环境的产品,读者可以选择任意一款产品,扩展本书所提供的
示例系统。或者如果你愿意,只要你拥有最新版本的 Apache Maven,你甚至可以采用普
通的文本编辑器,从命令行运行系统。附录 A 给出了如何在各种集成开发环境或平台上
配置和运行示例系统的方法,当然也包括当前的 Eclipse 环境。顺便说一下,对于将模块
化的、基于 Java 的组件(也包括采用其他语言,如 Scala 或 JavaScript 语言实现的组件)进
行组织和管理以构建 BDAS 来说, Maven 是一种非常有效的工具,可以直接将此类组件
集成到 Eclipse 集成开发环境中。对通过命令行建立、测试、运行 BDAS 的情况, Maven
同样非常有效。
我们发现在开发本书所提供的某些混合应用示例时, 采用 Eclipse 集成开发环境是非常
不错的选择,但这也许仅仅反映的是个人喜好。请读者自行将示例导入到所选的集成开发
环境中。图 1-9 显示了一种 Eclipse IDE。

图 1-9 一种应用于开发的有用的集成开发环境:内置 Maven 和 Scala 的 Eclipse IDE
数据源与应用开发
大多数情况下,在主流的应用开发中,我们仅能遇到一些基础类型的数据源:关系类
型、各种文件格式(包括原始的无结构文本)、以逗号分隔的值甚至图像(也许是流数据,甚
至是从类似 Neo4j 图数据库中导出的奇怪数据)。在 BDA 世界中,可能存在信号、图像、
非结构数据等多种类型,这些数据可能会包含从传感器获得的空间或 GPS 信息、时间戳,
以及大量的其他数据类型、元数据和数据格式。通过本书的学习,特别是通过本书提供的
示例, 你将接触到大量常见或罕见的数据格式, 并了解如何执行针对数据的标准 ETL 操作。
必要时,我们将讨论数据验证、压缩以及从一种数据格式转换为另一种数据格式的方法。
1.15.2 本书未讲解的内容
既然我们已经给出了本书编写的目标,现在我们有必要阐述本书未包含什么。
本书的编写目标并不是用来介绍 Apache Hadoop、 BDA 组件或 Apache Spark。目前已
经有大量介绍 Hadoop
Hadoop 生态系统以及 Apache Spark 技术特点和机制的书籍,新近
出现的 Apache Spark 技术可用于替换原先应用于 Hadoop 的 MapReduce 组件,支持批处理
和内存处理。
本书将描述有用的 Hadoop 生态系统组件,特别是那些与本书后续部分建立的示例系
统有关的组件。这些组件将作为我们构建的 BDAS 或 BDA 组件的基础,因此本书将不会
深入讨论这些组件的功能。至于那些标准的 Hadoop 兼容组件,如 Apache Lucene、 Solr、
Apache Camel 或 Spring 框架,可以参阅相关的大量书籍或互联网教程。
本书也不会详细讨论相关的方法论问题(例如迭代或敏捷开发方法),尽管这些方法论

对建立 BDAS 非常重要。无论你选择何种开发方法,希望本书所讨论的系统都能给你带来
益处。
如何建立 BDA 评估系统
本节将给出一个建立 BDA 评估系统的简略方案。在成功实现后,这一方案将帮助你获
得本书后续部分讨论的示例和评估代码。单独组件具有完整的安装指导,可以在其各自的
Web 网站上获得。
(1) 如果你尚未开始工作, 首先需要设置基本开发环境。包括 Java 8.0、Maven 和 Eclipse
集成开发环境。要获得最新的 Java 安装指导,可访问 oracle.com。不要忘记相应地设置适
当的环境变量, 例如 JAVA_HOME。 下载并安装 Maven(Maven.apache.org), 设置 M2_HOME
环境变量。 为确保正确安装 Maven, 在命令行输入 mvn -version。 同样, 在命令行输入 which
mvn 确保 Maven 如你所熟知的那样执行。
(2) 确认安装了 MySQL。从 www.mysql.com/downloads 网站下载合适的安装包。利用
本书中的示例模式和数据测试相应的功能。确保可以运行“mysql”和“mysqld”。
(3) 安装 Hadoop Core 系统。本书的示例使用的是 Hadoop 版本 2.7.1。如果你使用的是
Mac,可以使用 HomeBrew 安装 Hadoop,或者从 Web 网站下载并按指导安装。在 bash_profile
文件中设置 HADOOP_HOME 环境变量。
(4) 确保正确地安装了 Apache Spark。对单机集群, 按照 http://spark.apache.org/docs/latest/
sparkstandalone.html#installing-spark-standalone-to-a-cluster 的指令进行实验。Spark 是评估系
统的关键组件。确保在 bash_profile 文件中设置了 SPARK_HOME 环境变量。图 1-10 显示
了生成的状态页。

图 1-10 在 localhose:8080 成功安装并执行 Apache Spark 生成的状态页
为确保 Spark 系统正确执行,在 SPARK_HOME 目录下运行程序:
./bin/run-example SparkPi 10
你将看到类似图 1-11 所示的结果。

图 1-11 期望得到的终端结果图
(5) 安装 Apache Mahout(mahout.apache.org)。它是一种非常有用的分布式分析工具包。
为 MAHOUT_HOME 等设置适当的环境变量。运行 Mahout 测试程序确认其被正确安装。
(6) 安装 Apache Kafka(kafka.apache.org)消息系统。该系统在本书提供的示例中具有重
要的作用。第 3 章将列出设置所需的完整步骤,并提供针对 Kafka 系统的综合性练习。
(7) 安装熟悉的 NoSQL 和图数据库。包括 Cassandra(cassandra.apache.org)和 MongoDB
(https://www.mongodb.org/downloads#production)等。如果读者对本书提供的图形分析部分感
兴趣, Neo4j(http://neo4j.com)是一种可以采用的流行的图数据库。本书的图形分析示例均
基于 Neo4j。本书将选择 Cassandra 作为 NoSQL 数据库。
安装完上述组件后,恭喜你完成了基本组件安装工作。现在你已经拥有了一个基本的
软件环境,为你开展 BDAS 工作奠定了基础。从该基本系统出发,我们将探讨独立的模块,
并根据需要为 BDAS 提供的功能编写扩展代码。
1.16 本章小结
本章是介绍性章节,我们回顾了大数据不断变化的环境,以及用于获取、分析、存
储、可视化的各种方法,了解了我们身处的不断增长的大数据环境。了解到大数据源类
型多样、数量庞大,它们对雄心勃勃的大数据分析师提出了新的挑战性问题。当前,大
数据分析师所面对的主要挑战之一是在不同的库及工具包、技术栈、可用的 BDA 方法中

做出正确的选择。
我们也简单讨论了 Hadoop 框架,包括核心组件和与之相关的生态系统组件。尽管简
单,但分析 Hadoop 及其生态系统能使作为大数据分析师的我们了解其基本功能,接着探
讨了有效地设计和实现基于 Hadoop 的分析系统(或者说 BDAS)的架构和策略。这些系统具
有可扩展性和灵活性,能够解决范围广泛的分析问题。
有关对大数据工具包的选择问题,数据分析师有大量可选的工具,需要具有能够从大
量令人眼花缭乱的特征中选出适合技术的能力;能够提供有效的总体技术栈是成功开发和
部署的关键。
通过学习本书你将了解到,上述设计和实现步骤可获得可行的数据管道架构,获得适
用于广泛问题领域的系统。系统十分灵活,如果技术发生了变化,我们可以“换出”模块
组件。我们可能发现一种机器学习或图形处理库更适于使用,于是用其替换当前应用库。
模块化设计允许你自由地、方便地换出组件。后续章节介绍“图形大数据”时,将看到实
际应用。
下一章将简要介绍和回顾两种最流行的大数据分析语言 Scala 和 Python,并列举一些
使用这两种语言的例子。

购买地址:

http://product.dangdang.com/25203126.html


来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/26421423/viewspace-2221971/,如需转载,请注明出处,否则将追究法律责任。

下一篇: 没有了~
请登录后发表评论 登录
全部评论
分享计算机前沿技术和国外计算机先进技术书籍。

注册时间:2011-11-08

  • 博文量
    54
  • 访问量
    100969