[翻译][Spark In Action 中文版][Spark 实战 ]1.6 总结

1.6 总结

■  Apache Spark是一种令人兴奋的新技术,它迅速取代Hadoop的MapReduce作为首选大数据处理平台。
■  Spark程序的速度可以比MapReduce快100倍。
■  Spark支持Java,Scala,Python和R语言。
■  使用Sp[……]

[yol出品] 全文阅读 >>

[翻译][Spark In Action 中文版][Spark 实战 ]1.5 启动spark-in-action的虚拟机

1.5 启动spark-in-action的虚拟机

为了方便您设置Spark学习环境,我们准备了一个虚拟机(VM),您将在本书中使用它。 它将允许您运行所有的例子从书中没有惊喜,由于不同版本的Java,Spark或您的操作系统。 例如,在Windows上运行Spark示例时可能会遇到问[……]

[yol出品] 全文阅读 >>

[翻译][Spark In Action 中文版][Spark 实战 ]1.4 Spark 生态

1.4 Spark 生态

我们已经提到了Hadoop生态系统,包括接口,分析,集群管理和基础设施工具。 一些最重要的如图1.6所示。
图1.6不是完整的7你可能会说我们没有添加一个工具,但是一个完整的工具列表将很难适应这一节。 但我们认为,这个列表代表了Hadoop生态系统中最突出的[……]

[yol出品] 全文阅读 >>

[翻译][Spark In Action 中文版][Spark 实战 ]1.3 Spark 程序流

1.3 Spark 程序流

让我们看看一个典型的Spark程序是什么样子。 假设一个300 MB的日志文件存储在一个三节点HDFS集群中。 HDFS自动将文件拆分为128 MB部分(Hadoop术语中的块),并将每个部分放在集群的单独节点上(见图1.3)。 让我们假设Spark在YAR[……]

[yol出品] 全文阅读 >>

[翻译][Spark In Action 中文版][Spark 实战 ]1.2 Spark 组件

1.2 Spark 组件

Spark由多个专用组件组成。 这些是Spark Core,Spark SQL,Spark Streaming,Spark GraphX和Spark MLlib,如图1.2所示。
这些组件使Spark成为一个功能齐全的统一平台:它可以用于以前必须使用几个不同框架[……]

[yol出品] 全文阅读 >>

[翻译][Spark In Action][Spark 实战 ]1.1.1 Spark 发展史

1.1.1 Spark 发展史

虽然过去十年看到Hadoop的广泛采用,Hadoop不是没有它的缺点。 它是强大的,但它处理速度很慢。 这为新技术(如Spark)开辟了道路,以解决Hadoop面临的相同问题,但Spark 更高效。 在接下来的几页中,我们将讨论Hadoop的缺点,以及Spark[……]

[yol出品] 全文阅读 >>

[翻译][Spark In Action][Spark 实战 ]1.1 Spark是什么

1.1  Spark 是什么

Apache Spark 是一种令人兴奋的新技术,它迅速取代Hadoop 的MapReduce 作为首选大数据处理平台。

Hadoop 是一个开源的,分布式的Java 计算框架,由Hadoop 分布式文件系统(HDFS)和MapReduce 的执行引擎组成。[……]

[yol出品] 全文阅读 >>

[翻译][Spark In Action]Spark 实战 开篇首要

我们从这本书开始介绍Apache Spark及其丰富的API。了解第1部分中的信息对于编写高质量的Spark程序非常重要,并且是本书其余部分的良好基础。
第1章大致描述了Spark的主要特性,并将它们与Hadoop的MapReduce和Hadoop生态系统中的其他工具进行了比较。它还包括我们为您准备的spark-in-action虚拟机的说明,您可以使用它来运行书中的示例。


本文http://www.paymoon.com:8001/index.php/2016/12/27/spark-in-action-first-step/

如果转载请联系 龙遥Yol  i@paymoon.com


第2章进一步探讨VM,教你如何使用Spark的命令行界面(spark-shell),并使用几个例子来解释弹性分布式数据集(RDDs) – Spark中的中心抽象。
在第3章中,您将学习如何将Eclipse设置为编写独立的Spark应用程序。然后你将编写一个这样的应用程序来分析GitHub日志并通过将它提交到Spark集群来执行应用程序。
第4章更详细地探讨了Spark核心API。具体来说,它展示了如何使用键值对,并解释了Spark中数据分区和混排的工作原理。它还教你如何分组,排序和连接数据,以及如何使用累加器和广播变量。

[……]

[yol出品] 全文阅读 >>