Hive 安装
-
Hive 安装
Hive,Pig和HBase等所有Hadoop子项目都支持Linux操作系统。因此,您需要安装任何Linux风格的OS。对于Hive安装,执行以下简单步骤。 -
步骤1:验证JAVA安装
在安装Hive之前,必须在系统上安装Java。让我们使用以下命令来验证Java安装:如果您的系统上已经安装了Java,则会看到类似以下响应:如果您的系统中未安装Java,请按照以下步骤安装Java。安装Java步骤一:通过访问以下链接https://www.oracle.com/java/technologies/javase-downloads.html下载Java(JDK <最新版本>-X64.tar.gz)。然后将jdk-8u71-linux-x64.tar.gz下载到您的系统上。步骤二:通常,您可以在“下载”文件夹中找到下载的Java文件。验证它并使用以下命令解压缩jdk-8u71-linux-x64.gz文件。步骤三:为了使Java对所有用户可用,您必须将其移动到“/usr/local/”位置。打开root,然后键入以下命令。步骤四:要设置PATH和JAVA_HOME变量,请将以下命令添加到〜/.bashrc文件。现在将所有更改应用于当前正在运行的系统。现在,如上所述,从终端使用命令java -version
验证安装。 -
步骤2:验证Hadoop安装
在安装Hive之前,必须在系统上安装Hadoop。让我们使用以下命令验证Hadoop的安装:如果您的系统上已经安装了Hadoop,那么您将收到类似以下响应:如果您的系统上未安装Hadoop,请继续执行以下步骤:下载Hadoop使用以下命令从Apache Software Foundation下载并解压缩Hadoop 3.3.0。以伪分布式模式安装Hadoop以下步骤用于以伪分布式模式安装Hadoop 3.3.0。步骤一:设置Hadoop您可以通过将以下命令附加到〜/ .bashrc文件来设置Hadoop环境变量。现在将所有更改应用于当前正在运行的系统。第二步:Hadoop配置您可以在“$HADOOP_HOME/etc/hadoop”位置找到所有Hadoop配置文件。您需要根据Hadoop基础结构在这些配置文件中进行适当的更改。为了使用Java开发Hadoop程序,您必须通过用系统中Java的位置替换JAVA_HOME值来重置hadoop-env.sh文件中的Java环境变量。下面给出的是您必须编辑以配置Hadoop的文件列表。core-site.xmlcore-site.xml文件包含的信息,如用于Hadoop的实例,分配给文件系统的存储器,存储器限制用于存储所述数据的端口号,以及读/写缓冲器的大小。打开core-site.xml,并在<configuration>和</configuration>标记之间添加以下属性。hdfs-site.xml在hdfs-site.xml文件中包含的信息,如复制数据的值,名称节点的路径,你的本地文件系统的数据管理部路径。它表示您要存储Hadoop下文的位置。让我们假设以下数据。打开此文件,并在此文件的<configuration>,>/configuration>标记之间添加以下属性。注意:在上面的文件中,所有属性值都是用户定义的,您可以根据Hadoop基础结构进行更改。
yarn-site.xml该文件用于将yarn配置到Hadoop中。打开yarn-site.xml文件,并在此文件的<configuration>,</configuration>标记之间添加以下属性。mapred-site.xml该文件用于指定我们使用的MapReduce框架。打开mapred-site.xml文件,并在此文件的<configuration>,>/configuration>标记之间添加以下属性。 -
验证Hadoop安装
以下步骤用于验证Hadoop安装。步骤一:命名节点设置如下所示,使用命令“hdfs namenode -format”设置名称节点。预期结果如下。第二步:验证Hadoop DFS以下命令用于启动dfs。执行此命令将启动Hadoop文件系统。预期的输出如下:第三步:验证yarn脚本以下命令用于启动yarn脚本。执行此命令将启动yarn守护程序。预期的输出如下:步骤四:在浏览器上访问Hadoop访问Hadoop的默认端口号是50070(3.x版本的hadoop改成9870)。使用以下URL在浏览器上获取Hadoop服务。步骤五:验证集群的所有应用程序访问群集的所有应用程序的默认端口号是8088。使用以下URL访问此服务。 -
步骤3:下载Hive
在本教程中,我们将使用hive-3.1.2。您可以通过访问以下链接https://mirrors.tuna.tsinghua.edu.cn/apache/hive/hive-3.1.2/apache-hive-3.1.2-bin.tar.gz下载它。让我们假设它已下载到/ Downloads目录中。在这里,我们为本教程下载名为“apache-hive-3.1.2-bin.tar.gz”的Hive存档。以下命令用于验证下载:成功下载后,您将看到以下响应: -
步骤4:安装Hive
要在系统上安装Hive,需要执行以下步骤。让我们假设Hive归档文件已下载到/Downloads目录中。提取和验证Hive存档,以下命令用于验证下载并提取配置单元存档:成功下载后,您将看到以下响应:将文件复制到/usr/local/hive目录我们需要从超级用户“su-”复制文件。以下命令用于将文件从提取的目录复制到“/usr/local/hive”目录。为Hive设置环境您可以通过将以下行添加到〜/.bashrc文件来设置Hive环境:以下命令用于执行〜/.bashrc文件。 -
步骤5:配置配置单元
要使用Hadoop配置Hive,您需要编辑hive-env.sh文件,该文件位于$HIVE_HOME/conf目录中。以下命令重定向到Hive config文件夹并复制模板文件:通过添加以下行来编辑hive-env.sh文件:配置单元安装成功完成。现在,您需要一个外部数据库服务器来配置Metastore。我们使用Apache Derby数据库。 -
步骤6:下载并安装Apache Derby
请按照下面给出的步骤下载并安装Apache Derby:下载Apache Derby以下命令用于下载Apache Derby。下载需要一些时间。以下命令用于验证下载:成功下载后,您将看到以下响应:提取和验证Derby存档以下命令用于提取和验证Derby存档:成功下载后,您将看到以下响应:将文件复制到/usr/local/derby目录我们需要从超级用户“su -”复制。以下命令用于将文件从提取的目录复制到/usr/local/derby目录:为Derby设置环境您可以通过将以下行添加到〜/.bashrc文件来设置Derby环境:以下命令用于执行〜/.bashrc文件:创建一个目录来存储Metastore在$DERBY_HOME目录中创建一个名为data的目录以存储Metastore数据。初始化数据库Derby安装和环境设置现已完成。 -
步骤7:配置Hive的Metastore
配置Metastore意味着向Hive指定数据库的存储位置。您可以通过编辑$HIVE_HOME/conf目录中的hive-site.xml文件来实现。首先,使用以下命令复制模板文件:编辑hive-site.xml并在<configuration>和</configuration>标记之间添加以下行: -
步骤8:验证Hive安装
在运行Hive之前,您需要在HDFS中创建/tmp文件夹和一个单独的Hive文件夹。在这里,我们使用/user/hive/warehouse文件夹。您需要为这些新创建的文件夹设置写权限,如下所示:现在,在验证Hive之前在HDFS中进行设置。使用以下命令:以下命令用于验证Hive的安装:成功安装Hive后,您将看到以下响应:执行以下示例命令以显示所有表: