思想在拧紧 2022-03-11 14:21 采纳率: 100%
浏览 72
已结题

如何选择spark版本?(操作系统-ubuntu)

ubuntu16.04系统中已经安装hadoop2.7。为安装spark,选择了版本spark-2.1.0-bin-hadoop2.7.tgz,但安装结束后,看到相关安装文章指出以下内容,不知我这样安装会不会造成系统内hadoop版本冲突?

由于我们已经自己安装了Hadoop,所以,在“Choose a package type”后面需要选择“Pre-build with user-provided Hadoop [can use with most Hadoop distributions]”,因为这个选项的Spark可以应用于任意Hadoop版本,所以,就可以应用到我们已经安装的Hadoop版本。然后,点击“Download Spark”后面的“spark-1.6.2-bin-without-hadoop.tgz”下载即可。http://dblab.xmu.edu.cn/blog/931-2/

  • 写回答

0条回答 默认 最新

    报告相同问题?

    问题事件

    • 系统已结题 3月19日
    • 创建了问题 3月11日