学习Spark之前一定要学习Hadoop?

学习Spark之前一定要学习Hadoop?

我看的网上有许多同学问这个问题。
首先我在这里回答下这个问题

不需要。不需要。不需要。

spark和hadoop有关系,但是不是前后需要的关系。但是学了hadoop也没什么坏处,而且对以后的发展也有很大的帮助。

我在这里分享一下我是如何学习spark的吧,首先学习spark必须先学习一门编程语言,像我学习spark时学的scala语言,scala语言是一种基于java语言,它对java语言进行了代码上的简化,但功能不变。这里有一些我学习scala语言时看的视频,同学们可以可以看看,学习spark肯定有帮助。
scala零基础学习

www.bilibili.com/video/BV1Q5411t74z

还有一些学习spark时看的视频。
spark入门到精通

www.bilibili.com/video/BV1Xz4y1m7cv

spark实战项目

www.bilibili.com/video/BV13y4y1k7Bq

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值