Spark2.4.0-CDH6.3 错误解决过程

本文档介绍了在CDH6.3中遇到的Spark2.4.0与Hive2.1、Hadoop3.0等组件的兼容性问题。详细描述了启动Spark集群的步骤,包括配置JAVA_HOME、设置 slaves 文件、调整Spark默认端口。还讨论了由于组件依赖低版本Hadoop导致的错误,提供了通过maven依赖树分析和修改pom.xml映射解决问题的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.背景

最近环境切换到CDH6.3,用到Spark2.4,Hive2.1,Hadoop3.0,Beam等组件,Beam中嵌套了很多组件的原生API。

2.安装

2.1 Spark

具体步骤略,照着网上文档按步骤就可以安装好,下面步骤,展示如何启动Master,Worker进程。

安装目录:/opt/cloudera/parcels/CDH/lib/spark,操作主目录。

spark-env.sh

在此配置文件末尾添加JAVA_HOME环境变量

export JAVA_HOME=/usr/local/jdk

slaves

这个文件如果没有,自己创建一个,文件内容配置Worker节点的主机名,每个节点都配置下文件。

示例:

m4.server
nlp.server

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

李孟聊人工智能

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值