老熟女激烈的高潮_日韩一级黄色录像_亚洲1区2区3区视频_精品少妇一区二区三区在线播放_国产欧美日产久久_午夜福利精品导航凹凸

重慶分公司,新征程啟航

為企業提供網站建設、域名注冊、服務器等服務

Hadoop2.7.5+Spark2.2.1分布式集群怎么搭建

這篇文章主要介紹“Hadoop2.7.5+Spark2.2.1分布式集群怎么搭建”,在日常操作中,相信很多人在Hadoop2.7.5+Spark2.2.1分布式集群怎么搭建問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”Hadoop2.7.5+Spark2.2.1分布式集群怎么搭建”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!

創新互聯建站專注于河北網站建設服務及定制,我們擁有豐富的企業做網站經驗。 熱誠為您提供河北營銷型網站建設,河北網站制作、河北網頁設計、河北網站官網定制、成都微信小程序服務,打造河北網絡公司原創品牌,更為您提供河北網站排名全網營銷落地服務。

一、運行環境
CentOS 6.5
Spark 2.2.1
Hadoop 2.7.5
Java JDK 1.8
Scala 2.12.5

二、節點IP及角色對應關系

節點名 IP Spark角色 hadoop角色
hyw-spark-1 10.39.60.221 master、worker master
hyw-spark-2
10.39.60.222 worker slave
hyw-spark-3 10.39.60.223 worker slave



三、基礎環境配置
undefined
undefined
undefined
undefined
undefined
undefined
undefined

undefined
undefined
undefined
undefined
undefined
undefined

undefined
undefined
undefined
undefined
undefined
undefined
undefined
undefined
undefined
undefined
undefined
undefined
undefined
undefined
undefined
undefined
undefined
undefined
undefined

四、jdk安裝(在hadoop用戶下執行)
undefined
undefined
undefined
undefined

undefined
undefined
undefined
undefined
undefined
undefined
undefined
undefined

undefined
undefined
undefined
undefined
undefined

五、scala安裝(在hadoop用戶下執行)
undefined
undefined
undefined
undefined
undefined
undefined

undefined
undefined
undefined
undefined
undefined
undefined
undefined

undefined
undefined
undefined

六、hadoop集群安裝(在hadoop用戶下執行)
undefined
undefined
undefined
undefined
undefined
undefined
undefined

undefined
undefined
undefined
undefined
undefined
undefined
undefined

undefined
undefined
undefined
undefined
undefined
undefined
undefined
undefined

undefined
undefined
undefined
undefined
undefined
undefined
undefined
undefined
undefined
undefined
undefined
undefined

  1.    

  2.         fs.defaultFS

  3.         hdfs://hyw-spark-1:9000

  4.     

  5.     

  6.         hadoop.tmp.dir

  7.         file:/usr/local/hadoop/tmp

  8.     

6.4.4、$vim hdfs-site.xml
將文件末尾修改為

  1.     

  2.         dfs.replication

  3.         3

  4.     

6.4.5、$vim mapred-site.xml
將文件末尾 修改為

  1.     

  2.         mapreduce.framework.name

  3.         yarn

  4.     



6.4.6、$vim yarn-site.xml
將文件末尾修改為

  1.     

  2.         yarn.nodemanager.aux-services

  3.         mapreduce_shuffle

  4.     

  5.     

  6.         yarn.resourcemanager.hostname

  7.         hyw-spark-1

  8.     

6.4.7、$vim slaves
添加如下內容
hyw-spark-1
hyw-spark-2
hyw-spark-3
6.4.8、拷貝文件到slave節點(總共7個文件)
$scp hadoop-env.sh yarn-env.sh core-site.xml hdfs-site.xml mapred-site.xml yarn-site.xml slave hadoop@hyw-spark-2:/usr/local/spark/etc/spark/
$scp hadoop-env.sh yarn-env.sh core-site.xml hdfs-site.xml mapred-site.xml yarn-site.xml slave hadoop@hyw-spark-3:/usr/local/spark/etc/spark/

6.5、啟動hadoop集群
6.5.1、格式化NameNode
在Master節點上,執行如下命令
$hdfs namenode -format
成功的話,會看到 “successfully formatted” 和 “Exitting with status 0” 的提示,若為 “Exitting with status 1” 則是出錯。
6.5.2、啟動HDFS(NameNode、DataNode)
在Master節點上,執行如下命令
$start-dfs.sh
使用jps命令在Master上可以看到如下進程:
8757 SecondaryNameNode
7862 DataNode
7723 NameNode
8939 Jps
使用jps命令在兩個Slave上可以看到如下進程:
7556 Jps
7486 DataNode
6.5.3啟動Yarn(ResourceManager 、NodeManager)
在Master節點上,執行如下命令
$start-yarn.sh
使用jps命令在Master上可以看到如下進程:
9410 Jps
8757 SecondaryNameNode
8997 ResourceManager
7862 DataNode
9112 NodeManager
7723 NameNode
使用jps命令在兩個Slave上可以看到如下進程:
7718 Jps
7607 NodeManager
7486 DataNode
6.5.4通過瀏覽器查看HDFS信息
瀏覽器訪問http://10.39.60.221:50070,出現如下界面
Hadoop2.7.5+Spark2.2.1分布式集群怎么搭建

七、spark安裝(在hadoop用戶下執行)
7.1、下載文件到/opt目錄下,解壓文件到/usr/local
$cd /opt
$sudo tar -xzvf spark-2.2.1-bin-hadoop2.7.tgz  -C /usr/local
$cd /usr/local
$sudo mv spark-2.2.1-bin-hadoop2.7/ spark
$sudo chown -R hadoop:hadoop spark

7.2、設置環境變量
$sudo vi /etc/profile
添加如下內容
export SPARK_HOME=/usr/local/spark
PATH=$JAVA_HOME/bin:$PATH:$HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$SCALA_HOME/bin:$SPARK_HOME/bin:$SPARK_HOME/sbin
更新環境變量
source /etc/profile

7.3、配置文件修改
以下操作均在master節點配置,配置完成后scp到slave節點
$cd /usr/local/spark/conf
7.3.1、$cp spark-env.sh.template spark-env.sh
$vim spark-env.sh
添加如下內容
export JAVA_HOME=/opt/jdk1.8
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
export SCALA_HOME=/usr/local/scala
export SPARK_MASTER_IP=10.39.60.221
export SPARK_WORKER_MEMORY=1g
7.3.2、$cp slaves.template slaves
$vim slaves
添加如下內容
hyw-spark-1
hyw-spark-2
hyw-spark-3
7.3.3拷貝文件到slave節點
$scp -r spark-env.sh slaves hadoop@hyw-spark-2:/usr/local/spark/conf/
$scp -r spark-env.sh slaves hadoop@hyw-spark-3:/usr/local/spark/conf/

7.4、啟動spark
7.4.1、啟動Master節點
Master節點上,執行如下命令:
$start-master.sh
使用jps命令在master節點上可以看到如下進程:
10016 Jps
8757 SecondaryNameNode
8997 ResourceManager
7862 DataNode
9112 NodeManager
9832 Master
7723 NameNode
7.4.2、啟動worker節點
Master節點上,執行如下命令:
$start-slaves.sh
使用jps命令在三個worker節點上可以看到如下進程:
7971 Worker
7486 DataNode
8030 Jps

7.5、通過瀏覽器查看spark信息
瀏覽器訪問http://10.39.60.221:8080,出現如下界面
Hadoop2.7.5+Spark2.2.1分布式集群怎么搭建





到此,關于“Hadoop2.7.5+Spark2.2.1分布式集群怎么搭建”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續學習更多相關知識,請繼續關注創新互聯網站,小編會繼續努力為大家帶來更多實用的文章!


分享題目:Hadoop2.7.5+Spark2.2.1分布式集群怎么搭建
URL鏈接:http://www.xueling.net.cn/article/ppisdi.html

其他資訊

在線咨詢
服務熱線
服務熱線:028-86922220
TOP
主站蜘蛛池模板: 2020国产成人精品视频 | 最新国产精品久久精品 | 亚洲无人区码一码二码三码的含义 | 日韩精品成人免费观看视频 | 中文无字幕一区二区三区 | 亚洲最大无码中文字幕 | 亚洲午夜av久久乱码 | 成人av一级 | 国产a级理论片无码老男人 亚洲成人国产 | 性色AV一区二区三区V视界影院 | 中文字幕精品视频 | 最新国内精品自在自线视频 | 亚洲AV色香蕉一区二区蜜桃小说 | 欧美一级片在线观看 | 日韩一区二区观看 | 国产精品香蕉在线观看首页 | 肉丝一区二区 | 色妞色视频一区二区三区四区 | 日韩一卡在线 | 午夜在线视频免费 | 免费夜里18款禁用b站软粉色 | 欧美麻豆久久久久久中文 | 91精品国产综合久久小美女 | 一区二区三区三区在线 | 日韩精品一区二区三区中文精品 | 国产成aⅴ人高清精品久久久 | 日本高清一级 | 国产精品亚洲人在线观看 | 国产午夜免费福利 | 国产精在线| 日韩亚洲综合在线 | 国产一区二区美女 | 6699私人影院| 久久精品国内一区二区三区 | 天堂无码人妻精品av一区 | 999精品国产人妻无码系列 | 免费观看欧美猛交视频黑人 | 另类zoofilia杂交videos | 中文字幕免费中文 | 亚洲成人a级片 | 日本e片色视频 |