Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
Hive 安装问题:Hive Metastore 数据库未初始化
我尝试在树莓派 2 上安装 Hive 我通过解压缩压缩的 Hive 包安装 Hive 并在我创建的 hduser 用户组下手动配置 HADOOP HOME 和 HIVE HOME 运行 hive 时 出现以下错误消息 蜂巢 错误 Statu
Hadoop
installation
hive
DERBY
Hive 函数替换列值中的逗号
我有一个配置单元表 其中字符串列的值为 12 345 有没有什么方法可以在插入此配置单元表期间删除逗号的配置单元函数 您可以使用regexp replace string INITIAL STRING string PATTERN stri
hive
HiveQL
在hive中如何将字符串转换为数组?
我使用的是蜂巢1 1 hive gt select country from releases limit 1 OK us ca fr 目前 国家在 hive 中是字符串类型 如何将其转换为数组 String 我尝试了下面的方法 但它抛出错
Hadoop
hive
在 HIVE 中选择该月的第一天
我正在使用 Hive 它与 SQL 类似 但对于 SQL 用户来说语法可能略有不同 我看过其他的stackoverflow 但它们似乎在SQL中具有不同的语法 我试图通过此查询获取该月的第一天 这给了我今天的一天 例如 如果今天是 2015
sql
hive
HiveQL
Hive 左外连接长期运行
Hortonworks HDP 2 3 0 Hive 0 14 Table T1 partition on col1 no bucket ORC 应用程序 1 2 亿行和 6GB 数据大小Table T2 partition on col2
hive
MapReduce
queryoptimization
HiveQL
reduce
ClassNotFoundException:org.apache.spark.SparkConf 与配置单元上的 Spark
我正在尝试使用 SPARK 作为配置单元执行引擎 但出现以下错误 Spark 1 5 0 已安装 我正在使用 Hive 1 1 0 版本和 Hadoop 2 7 0 版本 hive emp表在 hive 中创建为 ORC 格式表 hive
Hadoop
apachespark
hive
如果行数超过 15,则向表中插入与打开行数相等的行数
My table id sum type 1 3 1 1 6 1 1 6 2 1 3 1 1 3 1 1 6 1 These 1 3 1 是空行 类型始终为 1 总和可以不同 These 1 6 2 是封闭的行 输入 1 sum 空行的总和
sql
hive
如何跳过 Hive 外部表中的 CSV 标头?
我正在使用 Cloudera 的 Hive 版本 并尝试通过 csv 文件创建外部表 其中包含第一列中的列名称 这是我用来执行此操作的代码 CREATE EXTERNAL TABLE Test RecordId int FirstName
hive
如何从 hive cli 运行 hive 脚本
我现在有 hive 脚本 custsales hql 我想从 hive cli 运行它 hive pract5 gt run user training hdfs location custsales hql 但它不执行 请指导 我知道我们
Hadoop
hive
hivecli
java.lang.RuntimeException:无法实例化 org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient
我在 ubuntu 14 0 上安装了 Hadoop 2 7 1 和 apache hive 1 2 1 版本 为什么会出现这个错误 是否需要安装任何元存储 当我们在终端上输入 hive 命令时 xml 的内部是如何调用的 这些 xml 的
apache
Hadoop
hive
Hive“ANALYZE TABLE”如何从java执行
我需要计算配置单元表中的行数 为此 我正在使用查询 ANALYZE TABLE p 7 COMPUTE STATISTICS noscan 我想通过java获取结果 我正在尝试以下操作 代码并没有运气 我得到的错误是 Exception i
Hadoop
JDBC
hive
Spark CDH 5.7 上的 Hive - 无法创建 Spark 客户端
我们在使用 Spark 引擎执行 Hive 查询时收到错误 执行spark任务失败 出现异常 org apache hadoop hive ql metadata HiveException 创建失败 Spark 客户端 失败 执行错误 返
apachespark
hive
Hive 命令行 如果不是在后台执行 MapReduce 作业,则选择查询所花费的时间不正确
我正在运行配置单元查询 如下所示 Select count group name from table name group by group name 状态 正在运行 在应用程序 ID XXXX 的 YARN 集群上执行 VERTICES
hive
如何在 Hadoop Hive 中获取给定时间戳的一周第一天的日期?
除了编写自定义 UDF 来支持此问题之外 是否还有任何已知的方法可以实现此目的 我目前使用的是 Hive 0 13 从 Hive 1 2 开始 你还可以这样做 select next day date sub 2019 01 01 7 MO
date
Hadoop
hive
HiveQL
dayofweek
在 Hive HQL 中将字符串转换为时间戳
我有一个像 08 03 2018 02 00 00 这样的字符串 我试图将其转换为时间戳值 我正在使用下面的代码 unix timestamp 08 03 2018 02 00 00 yyyy MM dd T HH mm ss SSSXXX
hive
timestamp
SimpleDateFormat
HUE
hivequery
更改配置单元中的列类型
我昨天刚开始学习 hive 我一直致力于更改 hive 中列的类型 我想问列类型的更改是否对它们有某种限制 因为我只能进行特定类型的更改 例如我可以将 int 转换为 double string 转换为 double double 转换为
Hadoop
hive
使用字符串分区键与整数分区键的 Hive/Impala 性能
是否建议将数字列用作分区键 当我们对数字列分区和字符串列分区进行选择查询时 性能会有什么差异吗 好吧 如果你查阅 Impala 官方文档 就会有所不同 我不会详细说明 而是粘贴文档中的部分 因为我认为它说得很好 虽然使用 STRING 列作
apachespark
hive
impala
使用 PIG 从 Hive 表解析嵌套 XML 字符串
我正在尝试使用 PIG 从 Hive 表中的字段而不是从 XML 文件中提取一些 XML 这是我读过的大多数示例的假设 XML 来自排列如下的表 ID XML string XML 字符串包含 n 行 始终包含最多 10 个属性中的至少一个
xml
Hadoop
xpath
hive
apachepig
尝试覆盖 Hive 分区时写入 __HIVE_DEFAULT_PARTITION__ 的行已损坏
当尝试使用 Spark 2 3 覆盖 Hive 表中的分区时 我看到一些非常奇怪的行为 首先 我在构建 SparkSession 时设置以下设置 config spark sql sources partitionOverwriteMode
apachespark
hive
apachesparksql
无法使用 beeline 连接到 hive,用户 root 无法冒充匿名
我正在尝试使用 beeline 连接到配置单元 connect jdbc hive2 localhost 10000我被要求提供用户名和密码 Connecting to jdbc hive2 localhost 10000 Enter us
Hadoop
hive
beeline
«
1
2
3
4
5
6
7
...52
»