配置權限是
R w x
1 0 1
的用法是轉化為二級制。是5
777位三段都是滿權限
解壓指令:tar -zxvf 檔案名 tar -czvf是壓縮
解壓jdk并且進行重命名
放在profile.d中
輸入指令差生腳本檔案Vi java.sh
Export是把臨時變量變為系統變量。
$$是把包含其中的系統變量内容進行引用,然後在改變系統變量的時候調用以前的加上現在需要增加的,再進行覆寫,就不會丢失之前的系統變量
執行腳本檔案修改系統變量
顯示如下則jdk配置成功
yum install 意思是:下載下傳并安裝
yum install -y mysql mysql-server 完全安裝後結果如下
啟動資料庫服務
Service mysqld start
設定mysql的使用者名密碼
完全關閉防火牆如下操作(前面一句是當時關掉重新開機會重新打開,第二句是重新開機後不開啟,是以兩句都需要輸入一遍)
登入mysql
Show tables;
Select
删除無用使用者
更改使用者名通配符
問題:這裡還是連接配接不上,原因是$不是通配符,應該把它換成%這個。就可以成功連接配接了
重新整理權限
Linux配置tomcat
解壓下載下傳的tomcat
進入tomcat檔案夾
問題:cd /tomcat進不去,必須輸入cd tomcat/才能進入
進入bin開啟tomcat
修改端口号(友善以後不用再IP上輸入:8080才能顯示tomcat官網)
找到這裡修改為80即可
對于登入tomcat官網。
可以進行如下配置
在conf中的
添加彩色的這些話
重新關閉開啟tomcat服務即可
權限配置設定
重新建立檔案夾test
建立使用者組wy
将使用者wy放入使用者組
絕對路徑查找
給使用者wy設定密碼
更改權限所屬
Test歸屬wy
權限更改
Ssh安裝配置過程
下載下傳安裝
安裝完成
輸入ssh+IP位址
進行秘鑰連接配接,連接配接成功如下
會生成ssh隐藏目錄
免秘鑰登入
通過複制id_rsa.pub檔案 為一個authorized_keys
将一台IP的root - .ssh - 中的authorized_keys複制到另外一台中,即可實作
問題(複制過去的時候記得另起一行)
Hadoop安裝配置過程
解壓檔案
。
進入cd /etc/profile.d/
編寫腳本檔案 vi hadoop.sh
内容如下
Source hadoop.sh執行腳本檔案進行更改系統變
驗證hadoop是否配置成功
問題:在編寫hadoop.sh時候,一不小心把PATH變量覆寫了,導緻PATH出現錯誤,ls等指令無法使用。通過别人的初始環境PATH以及指令export PATH=********進行還原,再運作正确的java.sh 以及 hadoop.sh腳本檔案完成對PATH的修複
技巧:虛拟機提前快照。之後可以進行回複到原先沒有錯誤的情況
配置hdfs
Core-site配置
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.5.121:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/hadoop/tmp</value>
</property>
</configuration>
Hdfs-site配置
<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>/hadoop/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/hadoop/dfs/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.permissions.enabled</name>
<value>false</value>
</property>
</configuration>
建立三個臨時檔案
Namenode格式化
進入sbin
開啟hadoop
浏覽器輸入192.168.5.121:50070
Hdfs建立一個檔案
存進一個檔案