365bet亚洲版登录-bet官网365入口

365bet亚洲版登录拥有超过百间客房,bet官网365入口的文化历经几十年的传承和积淀形成的核心内容获得业界广泛的认可,365bet亚洲版登录是目前信誉最高的娱乐场所,同国内外几百家网上内容供应商建立了合作关系。

大数据工具Hadoop快速入门3安装

前提

ubuntu、openssh-server和java安装ok

账号

sudo addgroup hadoop_sudo adduser --ingroup hadoop_ hduser_su - hduser_ssh-keygen -t rsa -P ""cat $HOME/.ssh/id_rsa.pub >> $HOME/.ssh/authorized_keysssh localhost

图片 1图片.png图片 2图片.png

下载安装

图片 3图片.png

挑选新型二进制版本。会张开类似

mv hadoop-2.9.2.tar.gz /optcd /optsudo tar xzf hadoop-2.9.2.tar.gzmv hadoop-2.9.2 hadoop

参照他事他说加以考察资料

  • python测量检验开荒品种实战-目录
  • python工具书籍下载-持续更新
  • python 3.7极速入门教程 - 目录
  • 讨论qq群630011153 144081101
  • 原著地址
  • 正文涉及的python测量检验开辟库 多谢点赞!
  • [正文相关海量书籍下载](

配置

专一hadoop不会从系统中读取变量,必定要在那么些文件中配置:

在~/.bashrc添加:

export HADOOP_HOME=/opt/hadoopexport JAVA_HOME=/usr/lib/jvm/java-8-oracleexport PATH=$PATH:$HADOOP_HOME/bin

HDFS配置

$HADOOP_HOME/etc/hadoop/hadoop-env.sh,修改下边部分。

export JAVA_HOME=/usr/lib/jvm/java-8-oracle

$HADOOP_HOME/etc/hadoop/core-site.xml

在<configuration></configuration>里面加多:

<name>hadoop.tmp.dir</name><value>/app/hadoop/tmp</value><description>Parent directory for other temporary directories.</description></property><property><name>fs.defaultFS </name><value>hdfs://localhost:54310</value><description>The name of the default file system. </description></property>

创办目录

sudo mkdir -p /app/hadoop/tmpsudo chown -R hduser_:hadoop_ /app/hadoop/tmpsudo chmod 750 /app/hadoop/tmp

Map Reduce配置

$ vi /etc/profile.d/hadoop.shexport HADOOP_HOME=/opt/hadoop$ sudo chmod +x /etc/profile.d/hadoop.sh# sudo cp $HADOOP_HOME/etc/hadoop/mapred-site.xml.template $HADOOP_HOME/etc/hadoop/mapred-site.xml$ vi $HADOOP_HOME/etc/hadoop/mapred-site.xml# 在<configuration></configuration>部分添加<property><name>mapreduce.jobtracker.address</name><value>localhost:54311</value><description>MapReduce job tracker runs at this host and port.</description></property>$ sudo mkdir -p /usr/local/hadoop_store/hdfs/namenode$ sudo mkdir -p /usr/local/hadoop_store/hdfs/datanode$ sudo chown -R hduser_:hadoop_ /usr/local/hadoop_store$ vi $HADOOP_HOME/etc/hadoop/hdfs-site.xml<configuration> <property> <name>dfs.replication</name> <value>1</value> <description>Default block replication. The actual number of replications can be specified when the file is created. The default is used if replication is not specified in create time. </description> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/usr/local/hadoop_store/hdfs/namenode</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/usr/local/hadoop_store/hdfs/datanode</value> </property></configuration>$ $HADOOP_HOME/bin/hdfs namenode -format # 格式化$ $HADOOP_HOME/sbin/start-dfs.sh # 启动$ $HADOOP_HOME/sbin/start-yarn.sh$ jps # 查看进程$ $HADOOP_HOME/sbin/stop-dfs.sh # 停止$ $HADOOP_HOME/sbin/stop-yarn.sh

图片 4图片.png

本文由365bet亚洲版登录发布于计算机网络,转载请注明出处:大数据工具Hadoop快速入门3安装

您可能还会对下面的文章感兴趣: