0


大数据经典技术解析:Hadoop+Spark大数据分析原理与实践

作者:禅与计算机程序设计艺术

1.简介

大数据时代已经来临。随着互联网、移动互联网、物联网等新兴技术的出现,海量数据开始涌现。而在这些海量数据的基础上进行有效的处理,成为迫切需要解决的问题之一。Apache Hadoop和Apache Spark是目前主流开源大数据框架。由于其易于部署、高容错性、并行计算能力强、适应数据量大、可编程、社区支持广泛等特点,大大提升了大数据应用的效率和效果。本文通过对Hadoop和Spark两个最著名的大数据框架的技术原理与实现过程进行解析,帮助读者了解大数据分析的核心原理及其各自的优缺点,并且通过一些具体实例让读者感受到大数据分析的魅力。

2.关键词

Apache Hadoop、Apache Spark、HDFS、YARN、MapReduce、Hive、Pig、Tez、Zookeeper、Flume、Sqoop、Kafka等。

3.环境准备

本文将以CentOS7.2系统为例进行安装部署。假设读者具有Linux知识,能够自己安装配置所需的软件。以下是安装部署准备工作:
安装Java开发工具包(JDK)
$ sudo yum -y install java-1.8*
配置Maven源,否则可能无法下载相关依赖库
$ cd /etc/yum.repos.d
$ sudo wget http://mirrors.aliyun.com/apache/maven/maven-3/3.3.9/binaries/apache-maven-3.3.9-bin.tar.gz
$ tar xzf apache-maven-3.3.9-bin.tar.gz
$ echo ‘export MAVEN_HOME=/etc/mvn’ >> ~/.bashrc
$ source ~/.bash


本文转载自: https://blog.csdn.net/universsky2015/article/details/132095357
版权归原作者 禅与计算机程序设计艺术 所有, 如有侵权,请联系我们删除。

“大数据经典技术解析:Hadoop+Spark大数据分析原理与实践”的评论:

还没有评论