博客
关于我
phoenix的安装
阅读量:592 次
发布时间:2019-03-11

本文共 1711 字,大约阅读时间需要 5 分钟。

Phoenix 简化指南:在 HBase 集群上安装和配置 Phoenix

作为 HBase 的一款高性能的 SQL 接口,Phoenix 为大数据处理提供了诸多优势。本文将详细介绍 Phoenix 的安装和配置步骤,帮助您顺利完成在 HBase 集群环境下的部署。


1. 准备工作

首先,您需要准备以下环境配置:

  • 操作系统:推荐使用 Linux 系统(如 Ubuntu 或 CentOS)。
  • 软件版本
    • JDK 1.8.0 及以上版本。
    • HBase 1.2.x(此指南使用 Apache 类似版本)。
    • Hadoop 2.6.0-cdh5.7.x 及以上版本。

2. 安装步骤

2.1上传并解压包文件

使用以下命令将 Phoenix 压缩包上传到 HBase 集群节点,并进行解压处理:

[hadoop@bd-node11 packages]$ tar -zvxf apache-phoenix-4.14.1-HBase-1.2-bin.tar.gz

2.2 将 Phoenix 文件移动到目标目录并创建软链接

推荐将 Phoenix 解压后移动到一个指定的工作目录,并为其创建符号链接:

[hadoop@bd-node11 packages]$ mv apache-phoenix-4.14.1-HBase-1.2-bin phoenix

您可以根据需求决定是否将 Phoenix 目录移动到特定位置或创建软链接。


3. 配置指南

3.1 基础文件传输

将 Phoenix 核心文件和相关 JAR 包复制到 HBase 集群的各个节点 lib 文件夹:

[hadoop@bd-node11 ~]$ scp phoenix-core-4.14.1-HBase-1.2.jar phoenix-client-4.14.1-HBase-1.2.jar *

注意:如果有多个节点,请重复上述命令以确保所有节点都获取到最新文件。

3.2 配置 HBase 群

将 HBase 的配置文件 hbase-site.xml 拷贝到 Phoenix 的 bin 目录下:

[hadoop@bd-node11 ~]$ cp /opt/hbase/conf/hbase-site.xml /opt/phoenix/bin/

如果 Phoenix bin 目录已有文件,请备份并替换或更新配置信息。

3.3 导入 Hadoop 集群配置

将 Hadoop 的核心配置文件 core-site.xml 和 HDFS 配置文件 hdfs-site.xml 复制到 Phoenix 的 bin 目录下:

[hadoop@bd-node11 ~]$ cp /opt/hadoop/etc/hadoop/core-site.xml /opt/phoenix/bin/[hadoop@bd-node11 ~]$ cp /opt/hadoop/etc/hadoop/hdfs-site.xml /opt/phoenix/bin/

3.4 设置环境变量

最后,将 Phoenix 添加到系统环境变量中:

export PHOENIX_HOME=/opt/phoenixexport PHOENIX_CLASSPATH=${PHOENIX_HOME}/lib=:${PHOENIX_HOME}/binexport PATH ${PHOENIX_HOME}/bin:$PATH

4. 测试运行

完成所有配置后,访问 Phoenix 以下 URL 进行测试:

[hadoop@bd-node11 bin]$ pwd→ /opt/phoenix/bin[hadoop@bd-node11 bin]$ ./sqlline.py bd-node11

通过这一步骤,您可以验证 Phoenix 是否正确配置且能够连接到 HBase 集群。


同时,建议定期监控 Phoenix 主要日志文件,确保其运行状态良好。如遇到问题,可参考官方文档或社区支持获取进一步解决方案。

如果需要自动化、容器化或高可用性集群部署,建议结合 Docker 或 Kubernetes 进行优化配置。

转载地址:http://pnltz.baihongyu.com/

你可能感兴趣的文章
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_生成插入Sql语句_实际操作02---大数据之Nifi工作笔记0041
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_不带分页处理_01_QueryDatabaseTable获取数据_原0036---大数据之Nifi工作笔记0064
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_无分页功能_02_转换数据_分割数据_提取JSON数据_替换拼接SQL_添加分页---大数据之Nifi工作笔记0037
查看>>
NIFI从PostGresql中离线读取数据再导入到MySql中_带有数据分页获取功能_不带分页不能用_NIFI资料太少了---大数据之Nifi工作笔记0039
查看>>
nifi使用过程-常见问题-以及入门总结---大数据之Nifi工作笔记0012
查看>>
NIFI分页获取Mysql数据_导入到Hbase中_并可通过phoenix客户端查询_含金量很高的一篇_搞了好久_实际操作05---大数据之Nifi工作笔记0045
查看>>