老熟女激烈的高潮_日韩一级黄色录像_亚洲1区2区3区视频_精品少妇一区二区三区在线播放_国产欧美日产久久_午夜福利精品导航凹凸

重慶分公司,新征程啟航

為企業提供網站建設、域名注冊、服務器等服務

HDFS2.7.0中hdfsnamenode-format的示例分析

這篇文章將為大家詳細講解有關HDFS2.7.0中hdfs namenode -format的示例分析,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。

10年積累的網站建設、成都網站制作經驗,可以快速應對客戶對網站的新想法和需求。提供各種問題對應的解決方案。讓選擇我們的客戶得到更好、更有力的網絡服務。我雖然不認識你,你也不認識我。但先做網站設計后付款的網站建設流程,更有霍山免費網站建設讓你可以放心的選擇與我們合作。

執行hadoop namenode -format后

實際上是執行

/root/hadoop-2.7.0-bin/bin/hdfs namenode -format

下面就來分析這個腳本

---

bin=`which $0`
bin=`dirname ${bin}`
bin=`cd "$bin" > /dev/null; pwd`

打印

bin=/root/hadoop-2.7.0-bin/bin

---

DEFAULT_LIBEXEC_DIR="$bin"/../libexec

打印’

DEFAULT_LIBEXEC_DIR=/root/hadoop-2.7.0-bin/bin/../libexec

---

cygwin=false
case "$(uname)" in
CYGWIN*) cygwin=true;;
esac

這個不會執行,過濾

---

接下來執行一個腳本

HADOOP_LIBEXEC_DIR=${HADOOP_LIBEXEC_DIR:-$DEFAULT_LIBEXEC_DIR}
. $HADOOP_LIBEXEC_DIR/hdfs-config.sh

實際上執行的是

/root/hadoop-2.7.0-bin/libexec/hdfs-config.sh

這個腳本其實是調用另外一個腳本,調用的哪個腳本?讀者可以自己去探索一下:)

---回到hdfs腳本

function print_usage(){
  echo "Usage: hdfs [--config confdir] [--loglevel loglevel] COMMAND"
  echo "       where COMMAND is one of:"
  echo "  dfs                  run a filesystem command on the file systems supported in Hadoop."
  echo "  classpath            prints the classpath"
  echo "  namenode -format     format the DFS filesystem"
  echo "  secondarynamenode    run the DFS secondary namenode"
  echo "  namenode             run the DFS namenode"
  echo "  journalnode          run the DFS journalnode"
  echo "  zkfc                 run the ZK Failover Controller daemon"
  echo "  datanode             run a DFS datanode"
  echo "  dfsadmin             run a DFS admin client"
  echo "  haadmin              run a DFS HA admin client"
  echo "  fsck                 run a DFS filesystem checking utility"
  echo "  balancer             run a cluster balancing utility"
  echo "  jmxget               get JMX exported values from NameNode or DataNode."
  echo "  mover                run a utility to move block replicas across"
  echo "                       storage types"
  echo "  oiv                  apply the offline fsimage viewer to an fsimage"
  echo "  oiv_legacy           apply the offline fsimage viewer to an legacy fsimage"
  echo "  oev                  apply the offline edits viewer to an edits file"
  echo "  fetchdt              fetch a delegation token from the NameNode"
  echo "  getconf              get config values from configuration"
  echo "  groups               get the groups which users belong to"
  echo "  snapshotDiff         diff two snapshots of a directory or diff the"
  echo "                       current directory contents with a snapshot"
  echo "  lsSnapshottableDir   list all snapshottable dirs owned by the current user"
  echo "      Use -help to see options"
  echo "  portmap              run a portmap service"
  echo "  nfs3                 run an NFS version 3 gateway"
  echo "  cacheadmin           configure the HDFS cache"
  echo "  crypto               configure HDFS encryption zones"
  echo "  storagepolicies      list/get/set block storage policies"
  echo "  version              print the version"
  echo ""
  echo "Most commands print help when invoked w/o parameters."
  # There are also debug commands, but they don't show up in this listing.
}
if [ $# = 0 ]; then
  print_usage
  exit
fi

這個太簡單,就是一個函數而已,告訴用途

---

接下來到了最關鍵的時刻了,就是執行命令

if [ "$COMMAND" = "namenode" ] ; then

  CLASS='org.apache.hadoop.hdfs.server.namenode.NameNode'
  HADOOP_OPTS="$HADOOP_OPTS $HADOOP_NAMENODE_OPTS"

其中

HADOOP_OPTS= -Djava.net.preferIPv4Stack=true -Dhadoop.log.dir=/root/hadoop-2.7.0-bin/logs -Dhadoop.log.file=hadoop.log -Dhadoop.home.dir=/root/hadoop-2.7.0-bin -Dhadoop.id.str=root -Dhadoop.root.logger=INFO,console -Djava.library.path=/root/hadoop-2.7.0-bin/lib/native -Dhadoop.policy.file=hadoop-policy.xml -Djava.net.preferIPv4Stack=true -Dhadoop.security.logger=INFO,RFAS -Dhdfs.audit.logger=INFO,NullAppender

---

剩下的一段是cgwin,忽略

---

export CLASSPATH=$CLASSPATH
HADOOP_OPTS="$HADOOP_OPTS -Dhadoop.security.logger=${HADOOP_SECURITY_LOGGER:-INFO,NullAppender}"

賦值語句不多說

---

接下來的一個if-else語句,實際上執行的是最后一個分支

else
  # run it

  exec "$JAVA" -Dproc_$COMMAND $JAVA_HEAP_MAX $HADOOP_OPTS $CLASS "$@"
fi

廬山真面目要出來了,打印執行語句

/usr/java/jdk1.8.0_45/bin/java -Dproc_namenode -Xmx1000m -Djava.net.preferIPv4Stack=true -Dhadoop.log.dir=/root/hadoop-2.7.0-bin/logs -Dhadoop.log.file=hadoop.log -Dhadoop.home.dir=/root/hadoop-2.7.0-bin -Dhadoop.id.str=root -Dhadoop.root.logger=INFO,console -Djava.library.path=/root/hadoop-2.7.0-bin/lib/native -Dhadoop.policy.file=hadoop-policy.xml -Djava.net.preferIPv4Stack=true -Dhadoop.security.logger=INFO,RFAS -Dhdfs.audit.logger=INFO,NullAppender -Dhadoop.security.logger=INFO,NullAppender org.apache.hadoop.hdfs.server.namenode.NameNode -format

關于“HDFS2.7.0中hdfs namenode -format的示例分析”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,使各位可以學到更多知識,如果覺得文章不錯,請把它分享出去讓更多的人看到。


分享標題:HDFS2.7.0中hdfsnamenode-format的示例分析
本文來源:http://www.xueling.net.cn/article/gcihog.html

其他資訊

在線咨詢
服務熱線
服務熱線:028-86922220
TOP
主站蜘蛛池模板: 天天天操天天天干 | 激情偷乱人伦小说视频在线 | 亚洲国产婷婷影院 | 欧美激情精品久久久久久黑人 | 久热这里只有精品6 | 欧美疯狂xxx免费视频 | 国产精品99久久久久久www | 精品欧美一二三区 | 亚欧洲乱码视频一二三区 | 亚洲欧美日韩系列中文字幕 | 国内精品偷拍视频 | 欧美不卡高清一区二区三区 | 中国xxxx真实自拍 | 亚洲欧美另类久久久精品能播放的 | 伊人蕉久中文字幕无码专区 | 色涩视频在线观看 | 国内精品自线在拍2020不卡 | 国产三级精品三级在线专区 | 国产熟妇的荡欲午夜视频 | 天天操天天艹 | 日日夜精品视频 | 国产欧美网站 | 91九色视频地址 | 午夜理论片yy6080私人影院 | 亚洲日韩AV无码一区二区三区 | 黄色片日本人 | 人妻熟妇乱又伦精品HD | 99国产精品久久久久久久久久 | 无线乱码一二三区免费看 | 久色青青 | 视频一区二区中文字幕日韩 | www.女女网导航.com | 25岁高中生在线观看完整免费版 | AV潮喷大喷水系列无码 | free性欧美1819hd | 国产精品美女久久久浪潮av | 情侣黄网站免费看 | 亚洲人成网线在线播放va | 成人在线不卡 | 亚洲欧洲国产精品一区 | 青青草视频免费在线播放 |