学习Spark之前一定要学习Hadoop?
我看的网上有许多同学问这个问题。
首先我在这里回答下这个问题
不需要。不需要。不需要。
spark和hadoop有关系,但是不是前后需要的关系。但是学了hadoop也没什么坏处,而且对以后的发展也有很大的帮助。
我在这里分享一下我是如何学习spark的吧,首先学习spark必须先学习一门编程语言,像我学习spark时学的scala语言,scala语言是一种基于java语言,它对java语言进行了代码上的简化,但功能不变。这里有一些我学习scala语言时看的视频,同学们可以可以看看,学习spark肯定有帮助。
scala零基础学习
www.bilibili.com/video/BV1Q5411t74z
还有一些学习spark时看的视频。
spark入门到精通
www.bilibili.com/video/BV1Xz4y1m7cv
spark实战项目
www.bilibili.com/video/BV13y4y1k7Bq