Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
Sqoop Hive 退出,状态为 1
当我执行时 sqoop import connect jdbc mysql localhost testdb table test hive table test hive import m 1 我收到以下错误消息 13 04 21 16
Hadoop
hive
SQOOP
Hive 和 PIG/Grunt shell 挂在 cygwin 上
我在 Windows 7 机器 32 位 上以本地模式运行 Hadoop 我已将 HIVE PIG Hadoop Java6 全部安装在 C 驱动器上 我使用的 Cygwin 版本 2 819 我已将 C 安装在 cygwin 上 我可以从
windows7
Hadoop
Cygwin
hive
apachepig
Hive “alter table <表名称> 连接”如何工作?
I have n large 我想要合并的小尺寸 orc 文件的数量k small 大型 orc 文件的数量 这是使用完成的alter table table name concatenateHive 中的命令 我想了解 Hive 是如何实
Hadoop
hive
HiveQL
ORC
Hive 将字符串转换为字符数组
例如 如何将字符串转换为字符数组 abcd gt a b c d 我知道分割方法 SELECT split abcd a b c d 最后一个空格有错误吗 或任何其他想法 这实际上不是一个错误 蜂巢分割功能 https github com
hive
HiveQL
将 Spark 设置为 Hive 的默认执行引擎
Hadoop 2 7 3 Spark 2 1 0 和 Hive 2 1 1 我正在尝试将 Spark 设置为配置单元的默认执行引擎 我将 SPARK HOME jars 中的所有 jar 上传到 hdfs 文件夹 并将 scala libr
Hadoop
apachespark
hive
Hadoop2
Hive/SparkSQL:如何将 Unix 时间戳转换为时间戳(而不是字符串)?
我以为这很容易 在 Hive SparkSQL 中 如何将 unix 时间戳 注 1 转换为timestamp数据类型 注1 即自1970年1月1日起的秒 毫秒数 我想from unixtime 会这样做 但它返回一个字符串 而不是时间戳
hive
apachesparksql
当我使用“STORED AS AVRO”子句创建 Hive 表时,Avro 架构存储在哪里?
至少有两种不同的方法来创建由 Avro 数据支持的 Hive 表 基于 Avro 模式创建表 在本例中 存储在 hdfs 中 创建表 users from avro schema 行格式 SERDE org apache hadoop hi
hive
schema
Avro
MetaStore
无法在后面的 set 语句中引用 Hive 日期变量
我正在尝试将日期存储到配置单元变量中 但稍后无法使用它 hive gt select to date date sub last day FROM UNIXTIME UNIX TIMESTAMP yyyy MM dd 1 OK 2019 0
variables
hive
VM cloudera - 用户cloudera和权限?
我下载并安装了 VM Cloudera 4 4 来使用 Hadoop 我已经在我的工作平台上建立了一个集群 所以我知道一点 hadoop 是如何工作的 所以我认为我的问题来自于我对linux以及他的用户和群体的误解 使用蜂巢 我尝试使用 s
Hadoop
permissions
hive
Cloudera
将 dynamodb 表复制到 hive 的 pyspark 代码问题:不允许操作
我正在尝试使用 pyspark 代码从 aws emr 上的 Dynamodb 创建外部配置单元表 当我在 hive 提示符下执行查询时 该查询工作正常 但当我将其作为 pyspark 作业执行时 该查询会失败 代码如下 from pysp
hive
PySpark
amazondynamodb
amazonemr
Spark SQL“限制”
环境 使用 Hadoop 的 Spark 1 6 Hortonworks 数据平台 2 5 我有一个包含 100 亿条记录的表 我想获取 3 亿条记录并将它们移到临时表中 sqlContext sql select from my tabl
Hadoop
apachespark
hive
hortonworksdataplatform
Hadoop/Hive Collect_list 不包含重复项
根据该帖子 Hive 0 12 Collect list https stackoverflow com questions 6445339 collect set in hive keep duplicates 我试图找到 Java 代码
Hadoop
hive
HiveQL
HDINSIGHT hive,MSCK REPAIR TABLE table_name 抛出错误
我有一个名为employee 的外部分区表 带有分区 年 月 日 每天都会有一个新文件出现在特定日期的位置 调用今天的日期 它将是2016 10 13 TABLE SCHEMA create External table employee
hive
hadooppartitioning
如何在 Java 中对 Hive 进行异步调用?
我想以异步方式在服务器上执行 Hive 查询 Hive 查询可能需要很长时间才能完成 因此我不想阻止调用 我目前正在使用 Thirft 进行阻塞调用 在 client execute 上阻塞 但我还没有看到如何进行非阻塞调用的示例 这是阻止
Java
Asynchronous
rpc
Thrift
hive
Sparklyr/Hive:如何正确使用正则表达式(regexp_replace)?
考虑下面的例子 dataframe test lt data frame mydate c 2011 03 01T00 00 04 226Z 2011 03 01T00 00 04 226Z A tibble 2 x 1 mydate
r
apachespark
hive
sparklyr
SQL 对值求和
我是 SQL 新手 我不知道如何做到这一点 我想对类似的对 vin action 求和一个名为 total spending 的coulmn 并选择第一个dealer name和参考月份年份 因此它不会创建重复项 并具有如下示例的输出 输入
sql
hive
zeppelin hive 解释器抛出 ClassNotFoundException
我已经部署了zeppelin 0 6并在Jdbc解释器下配置了hive 尝试执行 hive show databases Throws org apache hive jdbc HiveDriver 类 java lang ClassNot
hive
interpreter
apachezeppelin
oozie Sqoop 操作无法将数据导入到 hive
我在执行 oozie sqoop 操作时遇到问题 在日志中我可以看到 sqoop 能够将数据导入到临时目录 然后 sqoop 创建 hive 脚本来导入数据 将临时数据导入配置单元时失败 在日志中我没有收到任何异常 下面是我正在使用的 sq
Hadoop
hive
Bigdata
SQOOP
oozie
“skip.header.line.count”=“1”在 SparkSession 的 Hive 中不起作用
我正在尝试使用 SparkSession 将 CSV 数据加载到 Hive 表中 我想在加载到配置单元表时跳过标题数据 并且设置 tblproperties skip header line count 1 也不起作用 我正在使用以下代码
scala
csv
apachespark
hive
[Hive]查询 hive 数据库时出现“ArrayIndexOutOfBoundsException”
当我查询配置单元基础 hive 0 11 0 和 hive 0 12 0 时 我总是得到 ArrayIndexOutOfBoundsException 但有时不会 这是错误 java lang RuntimeException Hive R
Java
hive
«
1
2
3
4
5
6
7
8
...52
»