半小时搞定Hadoop+Mysql+Hive+Python
半小时搞定 Hadoop+Mysql+Hive
#操作系统/Linux #数据存储/MYSQL
1. 说明
搭建过 Hadoop 集群的小伙伴一定知道,如果不用 docker,半小时配好 Hadoop+Mysql+Hive(后简称 Hive)肯定是胡吹,有了 Docker 镜像,没有说明文档,配好了也不一定会用。本文将介绍如何在半小时内,让 Hive 在你的 Linux 系统上运行起来,并且可以通过 Python 程序访问其中数据。
2. 使用集群
Hadoop 需要安装 Java 虚拟机,创建 Hadoop 用户,下载安装 Hadoop 软件,修改多个配置文件,启动服务等,有时由于操作系统不同还需要重编 Hadoop 源码。没亲亲自搭建过可以参考这篇 Python海量数据处理之_Hadoop(一)集群搭建。整个 Hadoop 系统就非常复杂,涉及各种类型 Node 的概念及原理。本文主要介绍对 HIVE 的使用方法,只需要 Hadoop 可用,因此使用了 Hadoop,MySQL 及 Hive 都正常安装和配置好的 dokcer image.
首先,查找可用的 Hive 的 docker 镜像
1 | $ docker search hive |
将 teradatalabs/cdh5-hive 镜像拉到本地,该镜像约 1.78G
1 | $ docker pull teradatalabs/cdh5-hive |
运行 docker 镜像,请注意这里使用了参数 -P,它将 docker 中开启的所有端口映射到宿主机,端口号与 docker 内部不同,用 docker ps 可查看映射的端口号,用浏览器打开 50070 所映射的宿主机端口,可查看 hadoop 状态。
1 | $ docker run --rm -d --name hadoop-master -P -h hadoop-master teradatalabs/cdh5-hive |
进入已启动的 docker 容器
1 | $ docker exec -it hadoop-master bash |
进入 docker 容器之后,先用 hadoop 命令查看数据存储情况
1 | > hadoop fs -ls / |
试连接 mysql 数据库,默认密码是 root
1 | > mysql -uroot -proot |
进入 hive
1 | > hive |
用 HSQL 建立数据库,并查看当前数据库列表,并退出的 hive。其它的操作与 mysql 类似,此处不再重复。
1 | > create database testme; |
此时,退出 hive,在 docker 中用 hadoop 命令就可以看到新建的数据库 testme.db 文件
1 | > hadoop fs -ls /user/hive/warehouse/ |
3. 使用 python 程序读取 Hive 数据
首先,要安装 python 对 Hive Server2 的支持库,注意 impala 包名为 impalacli 而非 impala。
1 | $ pip install thrift-sasl==0.2.1 |
然后使用 impala 库连接 Hive Server2 服务,修改其中的 IP 和端口,端口为 docker 中 10000 端口向外映射的宿主机端口,将 default 库作为待操作的数据库。新建了数据表,并执行了查询操作。可以看到,HSQL 的使用方法和 MySQL 类似。
1 | from impala.dbapi import connect |