轉載好文章(安裝spark叢集的前提一定要安裝scala):https://blog.csdn.net/weixin_36394852/article/details/76030317
注意:此指令隻複制檔案夾 目錄下的内容,不直接将目錄及内容複制到其他主機
rsync -av /usr/scala-2.11.7/ SparkWorker2:/usr/scala-2.11.7/
scp指令是可以将目錄及目錄下的内容都複制過去的。
配合zookeeper的高可用spark分布式叢集(親測可用):
https://blog.csdn.net/nuc2015/article/details/81913293
Spark啟動指令是和hadoop的啟動指令一樣:
切到spark-2.2.0目錄下:
sbin/start-all.sh
![](https://img.laitimes.com/img/__Qf2AjLwojIjJCLyojI0JCLiAzNfRHLGZkRGZkRfJ3bs92YsYTMfVmepNHL6FERNFzaE10dRpHW4Z0MMBjVtJWd0ckW65UbM5WOHJWa5kHT20ESjBjUIF2X0hXZ0xCMx81dvRWYoNHLrdEZwZ1Rh5WNXp1bwNjW1ZUba9VZwlHdssmch1mclRXY39CXldWYtlWPzNXZj9mcw1ycz9WL49zZuBnL4QzNwUjM1kDMwEjNwkTMwIzLc52YucWbp5GZzNmLn9Gbi1yZtl2Lc9CX6MHc0RHaiojIsJye.png)
進入spark-shell指令:
Scala退出shell視窗:
指令:
:q