Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
使用 PyTorch 直接将数据加载到 GPU 中
在训练循环中 我将一批数据加载到 CPU 中 然后将其传输到 GPU import torch utils as utils train loader utils data DataLoader train dataset batch si
python3x
deeplearning
Pytorch
GPU
DataLoader
为什么设置初始化值会阻止在 TensorFlow 中将变量放置在 GPU 上?
当我尝试运行以下非常简单的 TensorFlow 代码时出现异常 尽管我实际上是从文档中复制了它 import tensorflow as tf with tf device gpu 0 x tf Variable 0 name x ses
initialization
tensorflow
GPU
使用 NVIDIA GPU 计算 SDK 4.0 和 microsoft VC++ 2010 Express 无需 GPU 硬件即可执行简单的 CUDA 程序
我是 GPU 计算新手 但我在某处读到 可以使用模拟器 仿真器在没有 GPU 卡的情况下执行 CUDA 程序 我在 Windows Vista 上安装了 NVIDIA 的 GPU 计算 SDK 4 0 和 Visual C 2010 Exp
CUDA
GPGPU
GPU
如何限制tensorflow GPU内存使用?
我在 Ubuntu 18 04 中使用了tensorflow gpu 1 13 1 并在 Nvidia GeForce RTX 2070 上使用了 CUDA 10 0 驱动程序版本 415 27 下面的代码用于管理张量流内存使用情况 我有大
python
tensorflow
GPU
在 PyTorch 中使用 module.to() 移动成员张量
我正在 PyTorch 中构建变分自动编码器 VAE 但在编写与设备无关的代码时遇到问题 自动编码器是nn Module具有编码器和解码器网络 它们也是 网络的所有权重都可以通过调用从一台设备移动到另一台设备net to device 我遇
python
deeplearning
GPU
Pytorch
autoencoder
CPU和GPU的区别
CPU的单个处理单元和GPU的单个处理单元有什么区别 我在互联网上看到的大多数地方都涵盖了两者之间的高级差异 我想知道每条指令可以执行哪些指令 它们的速度有多快 以及这些处理单元如何集成到完整的架构中 这似乎是一个答案很长的问题 所以很多链
GPU
CPU
cpuarchitecture
多GPU基本使用
例如 我如何使用两个设备来改进 以下代码的性能 向量之和 是否可以 同时 使用更多设备 如果是 我如何管理向量在不同设备的全局内存上的分配 include
CUDA
GPU
multigpu
有没有办法将参数传递给 optuna 中的多个作业?
我正在尝试使用 optuna 来搜索超参数空间 在一个特定场景中 我在一台具有几个 GPU 的机器上训练模型 模型和批量大小允许我为每 1 个 GPU 运行 1 次训练 因此 理想情况下我希望让 optuna 将所有试验分布在可用的 GPU
python
Multithreading
GPU
optuna
使用 CUDA 并行处理将彩色图像转为灰度图像
我正在尝试解决一个问题 我应该将彩色图像更改为灰度图像 为此 我使用 CUDA 并行方法 我在 GPU 上调用的内核代码如下 global void rgba to greyscale const uchar4 const rgbaImag
imageprocessing
CUDA
parallelprocessing
GPU
除了 12 小时后会话超时之外,Google Colab 还有其他限制吗?
限制之一是每次会话只能持续 12 小时 GPU和TPU的使用有限制吗 是的 您只能使用 1 个 GPU 内存有限为 12GB TPU 具有 64 GB 高带宽内存 您可以在此处阅读article https medium com janni
tensorflow
Session
GPU
googlecolaboratory
TPU
Tensorflow:GPU 加速仅在首次运行后发生
我已经在我的机器 Ubuntu 16 04 上安装了 CUDA 和 CUDNNtensorflow gpu 使用的版本 CUDA 10 0 CUDNN 7 6 Python 3 6 张量流 1 14 这是输出nvidia smi 显示显卡配
python
tensorflow
GPU
NVIDIA
BLAS 相当于 GPU 的 LAPACK 函数
在LAPACK中有这个function http www netlib org lapack double dspgvx f对角化 SUBROUTINE DSPGVX ITYPE JOBZ RANGE UPLO N AP BP VL VU
CUDA
opencl
GPU
Lapack
blas
如何减少 TensorFlow 循环中的内存消耗?
我在 TensorFlow 中有一个循环 如下所示 with tf device gpu 1 losses for target output in zip targets lstm outputs logits tf matmul W o
python
GPU
tensorflow
CUDA 中的块间同步
我为这个问题搜索了一个月 我无法同步 CUDA 中的块 我读过很多关于atomicAdd 合作组等的文章 我决定使用一个全局数组 这样一个块就可以在全局数组的一个元素上写入 写入之后 块的线程将等待 即陷入 while 循环 直到所有块都写
parallelprocessing
CUDA
NVIDIA
GPU
Tensorflow:GPU 上稀疏张量的梯度计算
我建立了一个类似于 CIFAR10 的 GPU 实现的张量流模型 我有一个在每个 GPU 上执行的基本模型 而网络变量则在 CPU 上 只要我不使用稀疏张量作为层中的权重矩阵 一切都会正常工作 我的稀疏权重矩阵是用函数构造的tf spars
tensorflow
GPU
sparsematrix
如何告诉 PyTorch 不使用 GPU?
我想在 CPU 和 GPU 之间进行一些时序比较以及一些分析 并且想知道是否有办法区分pytorch questions tagged pytorch不使用GPU而只使用CPU 我意识到我可以安装另一个仅 CPUpytorch questi
python
Pytorch
GPU
使用 GPU 加速 MATLAB 代码?
AccelerEyes 于 2012 年 12 月宣布与 Mathworks 合作开发 GPU 代码 并已停止生产 Jacket for MATLAB http blog accelereyes com blog 2012 12 12 ex
MATLAB
GPU
GPGPU
jacket
«
1 ...
4
5
6
7
8
9
10
...23
»