1.1.3 Hive工作流程

HQL通过CLI、JDBC客户端、HWI接口提交,通过Compiler编译并运用Metastore中的数据进行类型检测和语法分析,进而得到执行计划,产生以有向无环图(Directed Acyclic Graph,DAG)描述的一系列MapReduce作业;DAG描述了作业之间的依赖关系,执行引擎按照作业的依赖关系将作业提交至Hadoop执行。Hive的具体工作流程如图1.3所示。

图1.3 Hive工作流程

Hive工作流程中各步骤的详细描述如表1-2所示。

表1-2 Hive工作流程中各步骤的详细描述