5、Hadoop 数据配置

    技术2022-07-10  147

    上传文件的命令 scp -P 22 mysql57-community-release-el7-11.noarch.rpm root@192.168.16.120:/usr/java/ 192.168.99.120 s200 192.168.99.121 s201 192.168.99.122 s202 192.168.99.123 s203 在hadoop-env.sh 配置一条hadoop配置文件所在目录 export HADOOP_CONF_DIR=/opt/hadoop-2.7.1/etc/hadoop/ 执行命令 source hadoop-env.sh habse配置 export JAVA_HOME=/usr/java/jdk1.8.0_171 <!--使用完全分布式--> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <!--指定hbase数据在hdfs上的存放路径--> <property> <name>hbase.rootdir</name> <value>hdfs://mycluster/hbase</value> </property> <!--配置zk地址--> <property> <name>hbase.zookeeper.quorum</name> <value>s200:2181,s201:2181,s202:2181,s203:2181</value> </property> <!--配置zk本地地址--> <property> <name>hbase.zookeeper.property.dataDir</name> <value>/usr/bigdata/zk</value> </property> #spark export SPARK_HOME=/usr/bigdata/spark export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

     

    Processed: 0.009, SQL: 9