Apache Spark 是专为大规模数据处理儿设计的快速通用的计算引擎。Spark是UC Berkeley AMP Lab所开源的类Hadoop MapReduce的通用并行计算框架,Spark拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是Job中间输出结果可以保存到内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce算法。Spark是Scala编写,方便快速编程。
都是分布式计算框架,Spark基于内存,MR基于HDFS。Spark处理数据的能力一般是MR的十倍以上,Spark中除了基于内存计算外,还有DAG有向无环图切分任务的执行先后顺序。
Local
多用于本地测试,如在eclipse,idea中写程序测试
Standalone
Standalone是Spark自带的一个资源调度框架,它支持完全分布式
Yarn
Hadoop生态圈里面的一个资源调度框架,Spark也是可以基于Yarn来计算的
Mesos
资源调度框架
要基于Yarn来进行资源调度,必须实现AppalicationMaster接口,Spark实现了这个接口,所以可以基于Yarn
RDD的五大特性:
RDD是由一系列的partition组成的函数是作用在每一个partition(split)上的RDD之间有一系列的依赖关系分区器是作用在K,V格式的RDD上RDD提供一系列最佳的计算位置注:textFile方法底层封装的是MapReduce读取文件的方式,读取文件之前先split,默认split大小是一个block大小。
RDD的弹性(容错)体现在哪里?
partition数量,大小没有限制RDD之间依赖关系,可以基于上一个RDD重新计算出RDDRDD的分布式体现在哪里?
RDD是由Partition组成,Partition是分布在不同节点上的RDD提供计算最佳位置,体现了数据本地化。体现了大数据中“计算移动数据不移动”的理念创建SparkConf对象
可以设置值运行模式及资源需求可以设置Application Name //创建SparkConf对象 SparkConf conf = new SparkConf(); //设置本地启动及应用名称 conf.setMaster("local").setAppName("Test");创建SparkContext对象
//创建JavaSparkContext对象 JavaSparkContext context = new JavaSparkContext(conf);基于Spark的上下文创建一个RDD,对RDD进行处理
//读取文件 JavaRDD<String> rdd = context.textFile("test.txt");程序中要有Action类算子来触发Transformation类算子执行
关闭Spark上下文对象SparkContext
//关闭SparkContext context.stop();关闭Spark上下文对象SparkContext
//关闭SparkContext context.stop();