启动spark服务,解决端口占用的踩坑过程及使用Phoenix操作hbase数据表

    技术2022-07-11  69

    前言

    在尝试运行sparksql,发现spark服务没有启动,且发现其端口占用!

    问题处理过程

    在liunx系统中,搜索以下是否有spark服务?

    [root@A ~]# ps -ef|grep spark root 16970 25666 0 18:19 pts/2 00:00:00 grep --color=auto spark

    没有,就去启动spark服务

    启动spark服务

    [root@A sbin]# cd /home/software/spark2.2/sbin/

    找到start-thriftserver.sh 脚本,进行启动

    [root@A sbin]# ./start-thriftserver.sh  starting org.apache.spark.sql.hive.thriftserver.HiveThriftServer2, logging to /home/software/spark2.2/logs/spark-root-org.apache.spark.sql.hive.thriftserver.HiveThriftServer2-1-cdh03.out

    打开日志,查看是否启动成功?

    20/07/01 17:52:36 ERROR thrift.ThriftCLIService: Error starting HiveServer2: could not start ThriftBinaryCLIService org.apache.thrift.transport.TTransp
    Processed: 0.016, SQL: 9