Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
C/C++ HDF5 读取字符串属性
我的一位同事使用labview在HDF5文件中写入一个ASCII字符串作为属性 我可以看到该属性存在并读取它 但无法打印它 该属性如 HDF Viewer 中所示 日期 2015 07 09 所以 日期 就是它的名字 我正在尝试使用此代码读
c
HDF5
HDF
将多个 csv 文件读取到 HDF5 时出现 Pandas ParserError EOF 字符
使用Python3 Pandas 0 12 我正在尝试将多个 csv 文件 总大小为 7 9 GB 写入 HDF5 存储以供稍后处理 每个 csv 文件包含大约 100 万行 15 列 数据类型主要是字符串 但也有一些浮点数 但是 当我尝试
python
csv
python3x
pandas
HDF5
当字符串列内容比已有内容长时,HDFStore.append(string, DataFrame) 失败
我有一个通过 HDFStore 存储的 Pandas DataFrame 它本质上存储有关我正在执行的测试运行的摘要行 每行中的几个字段包含可变长度的描述性字符串 当我进行测试运行时 我创建一个新的 DataFrame 其中包含一行 def
python
DataFrame
pandas
HDF5
pytables
使用 HDF5 进行大型数组存储(而不是平面二进制文件)是否具有分析速度或内存使用优势?
我正在处理大型 3D 数组 我经常需要以各种方式对其进行切片以进行各种数据分析 典型的 立方体 可以约为 100GB 并且将来可能会变得更大 看来Python中大型数据集的典型推荐文件格式是使用HDF5 h5py或pytables 我的问题
python
NumPy
HDF5
pytables
h5py
如何在 Debian Linux 系统上以非 root 身份安装 h5py (+numpy+libhdf5+...)
我需要在 Debian Linux 系统上安装 h5py Python 模块及其所有缺少的依赖项 这项任务因以下原因而变得复杂 我在这个系统上没有任何超级用户权限 没有 sudo 没有 root 密码等 我使用的其余代码需要 Python
python
NumPy
Debian
scipy
HDF5
使用 odo 将具有多个数据集的巨大 h5 文件合并为一个
我有许多大型 13GB 大小 h5 文件 每个 h5 文件都有两个用 pandas 创建的数据集 df to hdf name of file to save key 1 table True df to hdf name of file
python
pandas
HDF5
pytables
具有版本控制的 HDF5 文件 (h5py) - 每次保存时哈希值都会更改
我正在使用 h5py 将数值工作的中间数据存储在 HDF5 文件中 我的项目处于版本控制之下 但这不适用于 HDF5 文件 因为每次重新运行生成 HDF5 文件的脚本时 即使其中的数据没有变化 二进制文件也会发生变化 这是一个小例子来说明这
python
HDF5
h5py
将 Pandas 对象与常规 Python 对象一起存储在 HDF5 中
熊猫有一个不错的界面 http pandas pydata org pandas docs dev io html有助于将 Dataframes 和 Series 等内容存储在 HDF5 中 random matrix np random
python
pandas
HDF5
如何在h5py中指定自定义压缩过滤器
根据 h5py 文档 压缩过滤器可以由底层 HDF5 库动态加载 这是通过将过滤器编号作为压缩参数传递给 Group create dataset 来完成的 我有以下代码 效果很好 import numpy as np a np rando
python
HDF5
h5py
h5py:正确读取 MATLAB 中存储的“表”类的问题 (.mat -7.3)
我正在尝试使用 h5py 模块在 Python 3 8 中导入 MATLAB mat 7 3 文件 该文件包含一个结构类和table班级 我成功导入了结构类对象 但是 那table导入后类显示错误的尺寸 import h5py Path d
python3x
MATLAB
HDF5
HDF5 是否支持并发读取或写入不同的文件?
我试图了解 HDF5 并发的限制 HDF5 有两种版本 并行HDF5 and default 目前 Ubuntu 中提供了并行版本 Anaconda 中默认提供 通过判断 enable parallel flag 我知道并行写入同一文件是不
Anaconda
HDF5
HDF5:如何将数据附加到数据集(可扩展数组)
依照指示本教程 http www hdfgroup org ftp HDF5 current src unpacked examples h5 extend c 我尝试扩展我的 HDF5 数据集 代码如下 但是数据未正确写入数据集 数据集具
c
HDF5
无法重新安装 Python 2.7 的 PyTables
除了 2 7 之外 我还安装了 Python 2 7 当再次安装 PyTables 2 7 时 我收到此错误 发现已安装 numpy 1 5 1 软件包 错误 找不到本地 HDF5 安装 您可能需要明确说明本地 HDF5 标头和 可以通过设
python
HDF5
pytables
MATLAB:.mat 版本之间的差异
The 官方文档 http www mathworks com help matlab ref save html inputarg version陈述如下 But I have noticed that there are other i
MATLAB
HDF5
matfile
从多个 hdf5 组创建数据集
从多个 hdf5 组创建数据集 团体代码 np array hdf get all my groups 然后我添加了用于从组创建数据集的代码 with h5py File train h5 w as hdf hdf create datas
python
HDF5
h5py
使用另一个 pandas DataFrame 更新存储在 Pytable 中的 pandas DataFrame
我正在尝试创建一个函数 用 pandas DataFrame 中的新数据更新我存储在 PyTable 中的 pandas DataFrame 我想检查 PyTable 中是否缺少特定 DatetimeIndexes 的某些数据 值为 NaN
python
pandas
HDF5
pytables
DataFrame
在 iPython 中使用 HDF5 文件时出现异常“HDFStore 需要 PyTables”
我对 Python 非常陌生 正在尝试使用 HDFStore 在 pandas 中创建一个表 如下所示 store HDFStore store h5 我得到例外 Exception Traceback most recent call l
python
pandas
HDF5
在 Windows 上使用 HDF5 库和 CMake(错误:“无法找到 HDF5”)
我想在我的 C 程序中使用 HDF5 库 我在Windows 7上使用VS 2010 x64编译器和CMake 3 8 0rc2 我安装的HDF5版本是1 8 10 通过运行官方 安装程序 安装 在我的 CMakeLists 文件中 我添加
CMake
HDF5
cmakegui
AttributeError:“数据集”对象没有属性“值”
使用包读取 hdf5 文件时出现此错误 dataset value Error Traceback most recent call last File train py line 163 in
HDF5
h5py
使用 dask 加载大型数据集
我处于具有集群 紧密耦合互连和支持 Lustre 文件系统的 HPC 环境中 我们一直在探索如何利用 Dask 不仅提供计算 而且充当分布式缓存来加速我们的工作流程 我们专有的数据格式是 n 维且规则的 并且我们编写了一个惰性读取器以传递到
HDF5
Dask
«
1
2
3
4
5
6
»