windows 安装 配置 hadoop2.7.2 spark2.2.3 初学入门

本文详细介绍了如何在Windows系统中安装和配置Hadoop 2.7.2以及Spark 2.2.3。内容包括:设置Hadoop的环境变量、配置core-site.xml、hadoop-env.cmd等文件,启动和测试Hadoop集群,以及上传文件到集群。接着讲解了Spark的下载、解压和配置环境变量,最后通过启动spark-shell验证安装成功。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Hadoop

1.下载安装包,不赘述了。我解压路径为:E:\soft\hadoop-2.7.2 

2.修改etc文件夹下的文件:

core-site.xml:

<configuration>
<!-- 指定HADOOP所使用的文件系统schema(URI),HDFS的老大(NameNode)的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
<!-- 指定hadoop运行时产生文件的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/E:/soft/hadoop-2.7.2/workplace/tmp</value>
</property>
</configuration>

 

hadoop-env.cmd:

set JAVA_HOME=C:\PROGRA~1\Java\jdk1.8.0_144

我的JDK安装目录是C:\Program Files\Java\jdk1.8.0_144, 由于Program Files中间有空格,这里会报错,所以用PROGRA~1代替Program Files。如果你的jdk路径没有空格,那么就直接用你自己的路径就好。

 

hadoop-env.sh ,mapred-env.sh, yarn-env.sh࿱

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值