選擇自定義服務:(注意:合理配置設定主機,不要都按在一台,以免壓力過大)
點選添加服務即可(HDFS、YARN (MR2 Included)、Zookeeper、namenode和resourcemanager的HA、Hive、HBase、Sqoop2、Flume、Oozie、Hue、Kafka、Spark、Spark2)
異常現象:
記憶體排程過閥:預設是0.8---》修改為1
Java 堆棧大小:修改為預設值1
1)在測試:建立目錄:hdfs dfs -mkdir /input
mkdir: Permission denied: user=root, access=WRITE, inode="/":hdfs:supergroup:drwxr-xr-x
解決辦法:
1.修改配置:在hdfs的配置裡有個權限的檢查
hdfs--》配置--》檢查hdfs權限--》把√去掉--》重新開機服務
2) spark部分:
1:Deploy Client Configuration failed.--》Error: JAVA_HOME is not set and could not be found.
解決:修改spark-env檔案:
添加export JAVA_HOME=/opt/modules/jdk1.8.0_144
2:Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/fs/FSDataInputStream
解決:修改spark-env檔案:
添加export SPARK_DIST_CLASSPATH=$(hadoop classpath)