老熟女激烈的高潮_日韩一级黄色录像_亚洲1区2区3区视频_精品少妇一区二区三区在线播放_国产欧美日产久久_午夜福利精品导航凹凸

hadoop&spark安裝(上)-創新互聯

硬件環境:

網站設計制作過程拒絕使用模板建站;使用PHP+MYSQL原生開發可交付網站源代碼;符合網站優化排名的后臺管理系統;成都網站設計、成都網站建設收費合理;免費進行網站備案等企業網站建設一條龍服務.我們是一家持續穩定運營了十載的創新互聯網站建設公司。

hddcluster1 10.0.0.197 redhat7

hddcluster2 10.0.0.228 centos7  這臺作為master

hddcluster3 10.0.0.202 redhat7

hddcluster4 10.0.0.181 centos7

軟件環境:

關閉所有防火墻firewall

openssh-clients

openssh-server

java-1.8.0-openjdk

java-1.8.0-openjdk-devel

hadoop-2.7.3.tar.gz

流程:

  1. 選定一臺機器作為 Master

  2. 在 Master 節點上配置 hadoop 用戶、安裝 SSH server、安裝 Java 環境

  3. 在 Master 節點上安裝 Hadoop,并完成配置

  4. 在其他 Slave 節點上配置 hadoop 用戶、安裝 SSH server、安裝 Java 環境

  5. 將 Master 節點上的 /usr/local/hadoop 目錄復制到其他 Slave 節點上

  6. 在 Master 節點上開啟 Hadoop

#節點的名稱與對應的 IP 關系
[hadoop@hddcluster2 ~]$ cat /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
10.0.0.228      hddcluster2
10.0.0.197      hddcluster1
10.0.0.202      hddcluster3
10.0.0.181      hddcluster4
創建hadoop用戶
su  # 上述提到的以 root 用戶登錄
useradd -m hadoop -s /bin/bash   # 創建新用戶hadoop
passwd hadoop                     #設置hadoop密碼
visudo                            #root ALL=(ALL) ALL 這行下面添加hadoop ALL=(ALL) ALL
#登錄hadoop用戶,安裝SSH、配置SSH無密碼登陸
[hadoop@hddcluster2 ~]$ rpm -qa | grep ssh
[hadoop@hddcluster2 ~]$ sudo yum install openssh-clients
[hadoop@hddcluster2 ~]$ sudo yum install openssh-server
[hadoop@hddcluster2 ~]$cd ~/.ssh/     # 若沒有該目錄,請先執行一次ssh localhost
[hadoop@hddcluster2 ~]$ssh-keygen -t rsa              # 會有提示,都按回車就可以
[hadoop@hddcluster2 ~]$ssh-copy-id -i ~/.ssh/id_rsa.pub localhost # 加入授權
[hadoop@hddcluster2 ~]$chmod 600 ./authorized_keys    # 修改文件權限
[hadoop@hddcluster2 ~]$ssh-copy-id -i ~/.ssh/id_rsa.pub  hadoop@hddcluster1
[hadoop@hddcluster2 ~]$ssh-copy-id -i ~/.ssh/id_rsa.pub  hadoop@hddcluster3
[hadoop@hddcluster2 ~]$ssh-copy-id -i ~/.ssh/id_rsa.pub  hadoop@hddcluster4
#解壓hadoop文件到/usr/local/hadoop
[hadoop@hddcluster2 ~]$sudo tar -zxf hadoop-2.7.3.tar.gz -C /usr/local/
[hadoop@hddcluster2 ~]$sudo mv /usr/local/hadoop-2.7.3 /usr/local/hadoop
[hadoop@hddcluster2 ~]$sudo chown -R hadoop:hadoop /usr/local/hadoop
cd /usr/local/hadoop
./bin/hadoop version
#安裝java環境
[hadoop@hddcluster2 ~]$sudo yum install java-1.8.0-openjdk java-1.8.0-openjdk-devel
[hadoop@hddcluster2 ~]$ rpm -ql java-1.8.0-openjdk-devel | grep '/bin/javac' 
/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.111-2.b15.el7_3.x86_64/bin/javac
[hadoop@hddcluster2 ~]$ vim ~/.bashrc
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.111-2.b15.el7_3.x86_64
export HADOOP_HOME=/usr/local/hadoop
export HADOOP_INSTALL=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
export HADOOP_PREFIX=$HADOOP_HOME
export HADOOP_OPTS="-Djava.library.path=$HADOOP_PREFIX/lib:$HADOOP_PREFIX/lib/native"
#測試java環境
source ~/.bashrc
java -version
$JAVA_HOME/bin/java -version  # 與直接執行 java -version 一樣
#修改hadoop文件配置
[hadoop@hddcluster2 hadoop]$ pwd
/usr/local/hadoop/etc/hadoop
[hadoop@hddcluster2 hadoop]$ cat core-site.xml







        
                fs.defaultFS
                hdfs://hddcluster2:9000
        
        
                hadoop.tmp.dir
                file:/usr/local/hadoop/tmp
                Abase for other temporary directories.
        



[hadoop@hddcluster2 hadoop]$ cat hdfs-site.xml









        
                dfs.namenode.secondary.http-address
                hddcluster2:50090
        
        
                dfs.replication
                3
        
        
                dfs.namenode.name.dir
                file:/usr/local/hadoop/tmp/dfs/name
        
        
                dfs.datanode.data.dir
                file:/usr/local/hadoop/tmp/dfs/data
        

[hadoop@hddcluster2 hadoop]$ 

[hadoop@hddcluster2 hadoop]$ cat mapred-site.xml








        
                mapreduce.framework.name
                yarn
        
        
                mapreduce.jobhistory.address
                hddcluster2:10020
        
        
                mapreduce.jobhistory.webapp.address
                hddcluster2:19888
        

[hadoop@hddcluster2 hadoop]$ 

[hadoop@hddcluster2 hadoop]$ cat yarn-site.xml 






        
                yarn.resourcemanager.hostname
                hddcluster2
        
        
                yarn.nodemanager.aux-services
                mapreduce_shuffle
        



[hadoop@hddcluster2 hadoop]$ 

[hadoop@hddcluster2 hadoop]$ cat slaves 
hddcluster1
hddcluster2
hddcluster3
hddcluster4
$cd /usr/local
$sudo rm -r ./hadoop/tmp     # 刪除 Hadoop 臨時文件
$sudo rm -r ./hadoop/logs/*   # 刪除日志文件
$tar -zcf ~/hadoop.master.tar.gz ./hadoop   # 先壓縮再復制
$cd ~
$scp ./hadoop.master.tar.gz hddcluster1:/home/hadoop
$scp ./hadoop.master.tar.gz hddcluster3:/home/hadoop
$scp ./hadoop.master.tar.gz hddcluster4:/home/hadoop
在salve節點上操作,安裝軟件環境并配置好.bashrc

sudo tar -zxf ~/hadoop.master.tar.gz -C /usr/local
sudo chown -R hadoop /usr/local/hadoop
[hadoop@hddcluster2 ~]$hdfs namenode -format       # 首次運行需要執行初始化,之后不需要
接著可以啟動 hadoop 了,啟動需要在 Master 節點上進行啟動命令:
$start-dfs.sh
$start-yarn.sh
$mr-jobhistory-daemon.sh start historyserver
通過命令 jps 可以查看各個節點所啟動的進程。正確的話,
在 Master 節點上可以看到 NameNode、ResourceManager、SecondrryNameNode、JobHistoryServer 進程,
另外還需要在 Master 節點上通過命令 hdfs dfsadmin -report 查看 DataNode 是否正常啟動,如果 Live datanodes 不為 0 ,則說明集群啟動成功。
[hadoop@hddcluster2 ~]$ hdfs dfsadmin -report
Configured Capacity: 2125104381952 (1.93 TB)
Present Capacity: 1975826509824 (1.80 TB)
DFS Remaining: 1975824982016 (1.80 TB)
DFS Used: 1527808 (1.46 MB)
DFS Used%: 0.00%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
Missing blocks (with replication factor 1): 0

-------------------------------------------------
Live datanodes (4):
也可以通過 Web 頁面看到查看 DataNode 和 NameNode 的狀態:http://hddcluster2:50070/。如果不成功,可以通過啟動日志排查原因。
在 Slave 節點操作可以看到 DataNode 和 NodeManager 進程
測試hadoop分布式實例
首先創建 HDFS 上的用戶目錄:
hdfs dfs -mkdir -p /user/hadoop
將 /usr/local/hadoop/etc/hadoop 中的配置文件作為輸入文件復制到分布式文件系統中:
hdfs dfs -mkdir input
hdfs dfs -put /usr/local/hadoop/etc/hadoop/*.xml input
通過查看   的DataNode 的狀態(占用大小有改變),輸入文件確實復制到了 DataNode 中。
接著就可以運行 MapReduce 作業了:
hadoop jar /usr/local/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar grep input output 'dfs[a-z.]+'
等待執行完畢后的輸出結果:
hadoop啟動命令:
start-dfs.sh
start-yarn.sh
mr-jobhistory-daemon.sh start historyserver
hadoop關閉命令:
stop-dfs.sh
stop-yarn.sh
mr-jobhistory-daemon.sh stop historyserver

PS:如果集群有一兩臺無法啟動的話,先嘗試一下刪除hadoop臨時文件

cd /usr/local

sudo rm -r ./hadoop/tmp

sudo rm -r ./hadoop/logs/*

然后執行

hdfs namenode -format

再啟動

本文參考了一下網站并實驗成功:

http://www.powerxing.com/install-hadoop-cluster/

另外有需要云服務器可以了解下創新互聯scvps.cn,海內外云服務器15元起步,三天無理由+7*72小時售后在線,公司持有idc許可證,提供“云服務器、裸金屬服務器、高防服務器、香港服務器、美國服務器、虛擬主機、免備案服務器”等云主機租用服務以及企業上云的綜合解決方案,具有“安全穩定、簡單易用、服務可用性高、性價比高”等特點與優勢,專為企業上云打造定制,能夠滿足用戶豐富、多元化的應用場景需求。


名稱欄目:hadoop&spark安裝(上)-創新互聯
當前鏈接:http://www.xueling.net.cn/article/djsgcc.html

其他資訊

在線咨詢
服務熱線
服務熱線:028-86922220
TOP
主站蜘蛛池模板: 一级毛片真人实干 | 在线播放日韩 | 成人网页在线 | 久色欧美| 91爱插插| 久久亚洲精品国产亚洲老地址 | 东方欧美亚洲色图 | 国产免费片 | 国产韩日 | 国产精品午夜福利在线观看地址 | 午夜久久久精品一区二区三区 | 美女裸体永久免费视频网站 | av专区在线观看 | 亚洲精品中文字幕乱码4区 亚洲国产欧美国产综合一区 | wwwwww黄| 国产黄色一级片 | 午夜免费看 | 国产性受xxxx黑人xyx性爽 | 97夜夜澡人人双人人人喊 | 蜜桃最新网站 | 亚洲卡1卡2卡三卡4卡5卡6卡 | 成年人免费观看视频网站 | 亚洲超碰在线 | 国产精品入口夜色视频大尺度 | 成人国产精品一区在线观看播放 | 欧美色视频在线观看 | 一区视频在线免费观看 | 日本韩国黄色一区二区三区 | 国产精品毛片一区二区在线看 | 久久夜色撩人精品国产 | 国产成人久久AV一区二区 | 5555www色欧美视频 | 久久久999精品免费 国产欧美久久久久 | 7194中文乱码一二三四芒果 | 国产一级持黄大片99久久 | 性欧美丰满熟妇XXXX性 | 午夜爽爽爽男女免费观看影院 | 欧美日韩精品一区二区在线观看 | 国产亚洲精品福利在线无卡一 | 被公侵犯的漂亮人妻 | 久久精品亚 |