天天看點

Spark-2.2.0安裝和部署(分布式叢集搭建,親測可用)Scala退出shell視窗:

轉載好文章(安裝spark叢集的前提一定要安裝scala):https://blog.csdn.net/weixin_36394852/article/details/76030317

注意:此指令隻複制檔案夾 目錄下的内容,不直接将目錄及内容複制到其他主機

rsync -av /usr/scala-2.11.7/ SparkWorker2:/usr/scala-2.11.7/
           

scp指令是可以将目錄及目錄下的内容都複制過去的。

配合zookeeper的高可用spark分布式叢集(親測可用):

https://blog.csdn.net/nuc2015/article/details/81913293

Spark啟動指令是和hadoop的啟動指令一樣:

切到spark-2.2.0目錄下:

sbin/start-all.sh
           
Spark-2.2.0安裝和部署(分布式叢集搭建,親測可用)Scala退出shell視窗:

進入spark-shell指令:

Spark-2.2.0安裝和部署(分布式叢集搭建,親測可用)Scala退出shell視窗:

Scala退出shell視窗:

指令:   

:q
           

繼續閱讀