Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
“skip.header.line.count”=“1”在 SparkSession 的 Hive 中不起作用
我正在尝试使用 SparkSession 将 CSV 数据加载到 Hive 表中 我想在加载到配置单元表时跳过标题数据 并且设置 tblproperties skip header line count 1 也不起作用 我正在使用以下代码
scala
csv
apachespark
hive
[Hive]查询 hive 数据库时出现“ArrayIndexOutOfBoundsException”
当我查询配置单元基础 hive 0 11 0 和 hive 0 12 0 时 我总是得到 ArrayIndexOutOfBoundsException 但有时不会 这是错误 java lang RuntimeException Hive R
Java
hive
Spark 返回错误 libsnappyjava.so:无法从共享对象映射段:不允许操作
我刚刚将 Spark 1 6 0 提取并设置到全新安装了 hadoop 2 6 0 和 hive 0 14 的环境中 我已经验证了 hive beeline 和 mapreduce 在示例上运行良好 然而 一旦我跑sc textfile 在
Java
Hadoop
apachespark
hive
snappy
在不改变数据类型string的情况下计算hive中string类型两列的时间差
我正在尝试计算一行中字符串数据类型的两列之间的时间差 如果它们之间的时间差小于 2 小时 则选择该行的第一列 否则如果时间差大于 2 小时 则选择该行的第二列 可以通过将列转换为日期时间格式来完成 但我希望结果仅采用字符串形式 我怎样才能做
sql
database
hive
HiveQL
hivequery
hive 0.14 更新和删除查询配置错误
在阿帕奇中hive 0 14我们可以通过支持更新和删除查询ACID配置 hive configuration hive support concurrency true hive enforce bucketing true hive ex
Hadoop
hive
避免以编程方式启动使用创建的上下文的 HiveThriftServer2
在 Spark 2 0 0 中 我们尝试使用 ThriftServer 从 Spark 临时表中查询数据 首先 我们创建了启用了 Hive 支持的 SparkSession 目前 我们使用 sqlContext 启动 ThriftServe
Hadoop
apachespark
hive
apachesparksql
apachespark20
如何将 json 字符串数据类型列转换为 hive 中的映射数据类型列?
我需要从所有行中获取所有唯一的键值 每行都有不同的键和值请找到上面的专栏图片 例如 一排看起来像 START TIME 1549002807568 PARSING QUERY FORMED 1549002807586 CUBES WITH
json
hive
HiveQL
对 STRUCT 数据类型使用 Like 运算符
我有一个包含结构数组的表 有没有办法使用 like 运算符过滤此列中的记录 hive gt desc location location list array
sql
Arrays
struct
hive
HiveQL
hive hadoop 上可用的数据可视化工具
请推荐一些可以在 Hive Hadoop 上运行的可视化工具 唯一的事情是 它应该接受Hive 这取决于您想要的数据分析和可视化类型 如果您打算使用专有工具 那么Tableau http www tableausoftware com so
Hadoop
HQL
hive
datavisualization
SemanticException 分区规范 {col=null} 包含非分区列
我正在尝试使用以下代码在配置单元中创建动态分区 SET hive exec dynamic partition true SET hive exec dynamic partition mode nonstrict create exter
Dynamic
hive
partitioning
Microsoft Hive ODBC 驱动程序 2.1.5 超时
我最近升级到 Microsoft hive odbc 驱动程序版本 2 01 05 1006 于 2016 年 12 月 8 日发布 我的代码适用于驱动程序的先前版本 1 0 现在 当运行我的代码时 我不断收到以下错误 错误 HY000 M
hive
ODBC
connectiontimeout
Hive alter table 更改列名称为重命名的列提供“NULL”
我曾尝试将表中的现有列重命名为新列 但名称更改后 新列只给我 NULL 值 Parquet 中表的存储格式 例如 user 是 Test 表中字符串数据类型的列 插入了值为 John 的示例记录 Select user from Test
Hadoop
hive
Bigdata
HiveQL
parquet
行排序时优化 Hive GROUP BY
我有以下 非常简单 Hive 查询 select user id event id min time as start max time as end count as total count interaction 1 as clicks
sql
Hadoop
hive
queryoptimization
HiveQL
如何在 Hive 中使用日期按周动态分区表
有一个 结果 表 其中包含 ID 和日期列 创建表结果 Id int 日期字符串 行格式分隔字段以 结尾 存储为文本文件 Id Date 11 2012 04 06 12 2012 05 08 13 2013 02 10 14 2013 0
hive
将配置单元行分组到此行的数组中
我有一个如下表 User String Alias String JohnDoe John JohnDoe JDoe Roger Roger 我想将用户的所有别名分组在一个数组中 在一个新表中 如下所示 User String Alias
hive
HiveQL
在配置单元中支持外部表的数组列类型的最佳方法是什么?
所以我有制表符分隔数据的外部表 一个简单的表格如下所示 create external table if not exists categories id string tag string legid string image strin
Hadoop
hive
选择 Hive 中的前 2 行
我正在尝试根据配置单元 版本 0 11 中的工资从我的员工列表中检索前 2 个表 由于它不支持TOP功能 有什么替代方案吗 或者我们有定义一个UDF吗 是的 在这里你可以使用LIMIT 您可以通过以下查询尝试一下 SELECT FROM e
Hadoop
hive
HiveQL
如何将小型 ORC 文件组合或合并为较大的 ORC 文件?
SO 和网络上的大多数问题 答案都讨论使用 Hive 将一堆小 ORC 文件合并为一个较大的文件 但是 我的 ORC 文件是按天分隔的日志文件 我需要将它们分开 我只想每天 汇总 ORC 文件 HDFS 中的目录 我最有可能需要用 Java
Java
hive
HDFS
ORC
将HIVE查询结果中的空值或NULL值替换为特定值
当查询未返回所选列之一的任何结果时 我尝试显示默认值 其他 我将向您展示这个例子 此查询返回空值os agent SO 第一行 select country os agent SO count from clicks data where
Hadoop
replace
null
hive
从 Hive 表读取数据创建的 Spark DataFrame 的分区数
我对 Spark 数据帧分区数量有疑问 如果我有 Hive 表 员工 其中包含列 姓名 年龄 ID 位置 CREATE TABLE employee name String age String id Int PARTITIONED BY
hive
apachesparksql
«
1 ...
3
4
5
6
7
8
9
...52
»