Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
当在HBase中反转Scan时,哪个是startKey,哪个是stopKey?
我使用的是 HBase 0 98 它允许以相反的顺序进行扫描 这是我的代码 scan new Scan eventTimeKey nowKey scan setCaching 1 setting this to 1 since I only
Java
Hadoop
Hbase
HDFS
我想扫描大量数据(基于范围的查询),在写入数据时我可以做哪些优化以使扫描变得更快?
I have billion我要扫描的 hbase 行数million一次行 什么是最好的优化技术我可以尽可能快地进行扫描 我们有类似的问题 我们需要通过键扫描数百万行 为此我们使用了映射缩减技术 对此没有标准的解决方案 因此我们编写了一个
Hadoop
Hbase
将 Jar 文件添加到 WEB-INF/lib [重复]
这个问题在这里已经有答案了 我是 Eclipse Java 和 Linux 的新手 我搜索这个问题 但没有找到答案 我想编写一个操作 HBase 表的程序 所以我有一些与 HBase 相关的 Jar 文件 在普通的 Java 应用程序中 我
Java
eclipse
jsp
Hbase
增加 Hadoop 2 中 Hive 映射器的数量
我从 Hive 创建了一个 HBase 表 并尝试对其进行简单的聚合 这是我的 Hive 查询 from my hbase table select col1 count 1 group by col1 地图缩减作业仅产生 2 个映射器 我
Java
Hadoop
hive
Hbase
Hadoop2
如何通过部分行键过滤HBase的Scan?
我有带有行键的 HBase 表 其中包含文本 ID 和时间戳 如下所示 string id1 1470913344067 string id1 1470913345067 string id2 1470913344067 string id
Java
scala
Hadoop
MapReduce
Hbase
HBASE SPARK 带过滤器的查询,无需加载所有 hbase
我必须查询 HBASE 然后使用 Spark 和 scala 处理数据 我的问题是 通过我的解决方案 我获取 HBASE 表的所有数据 然后进行过滤 这不是一种有效的方法 因为它占用了太多内存 所以我想直接做过滤器 我该怎么做 def Hb
scala
apachespark
apachesparksql
Hbase
SparkSQL+Hive+Hbase+Hbase集成不起作用
当我尝试连接配置单元表 正在使用 时出现错误 通过 Hbase 集成创建 在 Spark 中 我遵循的步骤 Hive表创建代码 CREATE TABLE test sample id string name string STORED BY
Hadoop
apachespark
hive
Hbase
apachesparksql
设置HBase、hadoop、hive通过hive访问Hbase的正确方法是什么?
我在配置和安装 hbase hadoop hive 时遇到问题 到目前为止我在 ubuntu 14 04 3 LTS 的虚拟机上做了什么 像这样安装了jdk和版本jdk1 8 0 60 https askubuntu com questio
shell
Hadoop
hive
Hbase
Hbase 和 BigTable 有什么区别?
谁能告诉我 Apache HBase 数据库和 Bigtable 之间有什么区别 或者它们是相同的吗 如果有的话 哪一个支持关系 如果他们是大搜索者 有什么区别 它们很相似 但又不一样 Bigtable 最初于 2005 年发布 但并未发布
database
Hbase
BigTable
HBase - WAL 和 MemStore 之间有什么区别?
我正在尝试理解HBase建筑学 我可以看到两个不同的术语用于同一目的 Write Ahead Logs and Memstore 两者都用于存储尚未持久化的新数据permanent storage 有什么区别WAL和内存存储 Update
Hadoop
Architecture
Hbase
HDFS
Java 中的 Hbase CopyTable
我想将一个 Hbase 表复制到另一个具有良好性能的位置 我想重用 CopyTable java 中的代码Hbase 服务器 github 页面 https github com apache hbase blob master hbase
Java
Hadoop
Hbase
HBase更新操作
我是HBase新手 我发现HBase客户端API不支持更新操作 那是对的吗 如果是这样 更新特定行键的值的建议最佳实践是什么 您可以使用 PUT 来创建或更新任何单元格的值 你don t需要使用删除 除非您希望新版本不包含某些旧单元格 说我
Hbase
Spark 使用数据局部性吗?
我正在尝试了解 Apache Spark 的内部结构 我想知道 Spark 是否使用某些机制来确保从 InputFormat 读取或写入 OutputFormat 或 Spark 本机支持的其他格式而不是从 MapReduce 派生的格式
Hadoop
cassandra
Hbase
apachespark
如何像 Hive 表分区一样在 Hbase 表中创建分区
我们计划从 CDH3 迁移到 CDH4 作为迁移的一部分 我们还计划将 HBASE 引入我们的系统 因为它也会更新数据 在 CDH3 中我们使用 Hive 作为仓库 这里我们遇到了迁移的主要问题 Hive 支持表分区 我们的系统有许多不同模
Hbase
HBase 基于列或基于行
我想知道 HBase 使用的是基于列的存储还是基于行的存储 我阅读了一些技术文档并提到 HBase 的优点是使用基于列的存储将相似的数据存储在一起以促进压缩 所以这意味着不同行的相同列存储在一起 但我也了解到 HBase 是一个排序的键值映
Hbase
Java中通过忽略开始行和结束行的一部分来扫描HBase行
我的 HBase 行如下 ABC A1 20160101 ABC A2 20160102 ABC A3 20160103 XYZ A9 20160201 从我的Java代码中我知道第一部分ABC和最后一部分20160101 我没办法得到中间
Java
Hbase
如何增加 HBase 表中的区域数量
我在 HBase 中创建了一个表 预分割了 8 个区域 使用 HexStringSplit 作为分割算法 现在我想增加区域的数量 而不破坏现有的表及其中的数据 我创建预分割的命令是 create t1 f1 NUMREGIONS gt 15
Hadoop
Hbase
Hbase 客户端因 /hbase 错误导致连接丢失
我快要疯了 安装了Hadoop Hbase 一切都在运行 opt jdk1 6 0 24 bin jps 23261 ThriftServer 22582 QuorumPeerMain 21969 NameNode 23500 Jps 23
Java
ruby
Hadoop
Hbase
Thrift
hbase 作为 Web 应用程序中的数据库
关于在真实的 Web 应用程序中使用 hadoop 或相关技术的一个大问题 我只是想了解 Web 应用程序如何使用 hbase 作为其数据库 我的意思是 这是大数据应用程序所做的事情 还是他们使用普通数据库并仅使用这些技术进行分析 拥有一个
Hadoop
Hbase
Bigdata
«
1
2
3
4
5
6
7
...20
»