Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
Pytorch 说 CUDA 不可用(在 Ubuntu 上)
我正在尝试在我拥有的笔记本电脑上运行 Pytorch 这是一个较旧的型号 但它确实有 Nvidia 显卡 我意识到这可能不足以实现真正的机器学习 但我正在尝试这样做 以便我可以了解安装 CUDA 的过程 我已按照上面的步骤操作安装指南 ht
Linux
Pytorch
Ubuntu1804
当我有另一个具有该版本的 conda 环境时,为什么 pip 不允许我在新的 conda 环境中安装 torch==1.9.1+cu111 ?
当我在新的 conda 环境中运行 pip install 时 base brando9 pip install torch 1 9 1 cu111 torchvision 0 10 1 cu111 torchaudio 0 9 1 f h
python
Pytorch
Anaconda
conda
如何在 PyTorch 数据加载器中将 RGB 图像转换为灰度图像?
我已经从 MNIST 数据集中下载了一些示例图像 jpg格式 现在我正在加载这些图像来测试我的预训练模型 transforms to apply to the data trans transforms Compose transforms
python
Pytorch
PyTorch 无法检测 CUDA
我在 PyTorch 上运行 CNN torch cuda is available 函数返回 false 并且未检测到 GPU 不过 我可以使用 GPU 运行 Keras 模型 这是我的系统信息 操作系统 Ubuntu 18 04 3 P
Pytorch
如何计算图像数据集中 RGB 值的 3x3 协方差矩阵?
我需要计算图像数据集中 RGB 值的协方差矩阵 然后将 Cholesky 分解应用于最终结果 RGB 值的协方差矩阵是 3x3 矩阵 M 其中 M i i 是通道 i 的方差 M i j 是通道 i 和 j 之间的协方差 最终结果应该是这样
python
Dataset
Pytorch
covariancematrix
lucid
PipelineException:在输入中找不到 mask_token ([MASK])
我收到此错误 PipelineException 在输入中找不到 mask token MASK 当我运行这条线时 fill mask 汽车 我在 Colab 上运行它 我的代码 from transformers import BertT
python
NLP
Pytorch
bertlanguagemodel
huggingfacetransformers
.data 在 pytorch 中还有用吗?
我是 pytorch 的新手 我读了很多大量使用张量的 pytorch 代码 data成员 但我搜索 data在官方文档和Google中 发现很少 我猜 data包含张量中的数据 但我不知道什么时候需要它 什么时候不需要 data是一个属性
python
version
Pytorch
tensor
如何修复输入和参数张量不在同一设备上?
我看到其他人也遇到此错误 我尝试按照步骤解决 但仍然收到此错误 运行时错误 输入和参数张量不在同一设备上 在 cpu 处找到输入张量 在 cuda 0 处找到参数张量 我运行 model to device 和 input seq to d
python
Pytorch
如何在 PyTorch 中保存模型架构?
我知道我可以通过以下方式保存模型torch save model state dict FILE or torch save model FILE 但两者都不保存模型的架构 那么我们如何在 PyTorch 中保存模型的架构 就像创建一个 p
Pytorch
Python中的嵌入层:如何正确使用Torchsummary?
这是一个最低限度工作 可重现的示例 import torch import torch nn as nn from torchsummary import summary class Network nn Module def init s
python
machinelearning
Pytorch
为什么评估集会耗尽 pytorch 拥抱中的内存?
我使用的是相当大的 GPU 大约 80 GB 训练纪元运行良好 但由于某种原因在评估时 训练集和验证集或多或少具有相同的长度 我内存不足并收到此错误 File home transformers trainer pt utils py li
Pytorch
NLP
huggingfacetransformers
pretrainedmodel
pytorch index_put_给出运行时错误:“索引”的导数未实现
这是后续问题这个问题 https stackoverflow com q 65584330 3337089 我尝试使用index put 如建议的答案 https stackoverflow com a 65584479 3337089 但
Pytorch
Autograd
Pytorch:获取最终层的正确尺寸
Pytorch 新手来了 我正在尝试微调 VGG16 模型来预测 3 个不同的类别 我的部分工作涉及将 FC 层转换为 CONV 层 但是 我的预测值不会落在 0 到 2 3 个类别 之间 有人可以向我指出有关如何计算最后一层的正确尺寸的好
python
machinelearning
Pytorch
convneuralnetwork
为什么自动编码器中的解码器在最后一层使用 sigmoid?
我正在看this https github com L1aoXingyu pytorch beginner blob master 08 AutoEncoder Variational autoencoder py工作变分自动编码器 主要班
machinelearning
neuralnetwork
Pytorch
autoencoder
Sigmoid
使用 torch.stack()
t1 torch tensor 1 2 3 t2 torch tensor 4 5 6 t3 torch tensor 7 8 9 torch stack t1 t2 t3 dim 1 在实现 torch stack 时 我无法理解如何对不
python
Pytorch
tensor
Pytorch 因 CUDA 错误而失败:在 Colab 上触发设备端断言
我正在尝试在启用 GPU 的情况下在 Google Colab 上初始化张量 device torch device cuda if torch cuda is available else cpu t torch tensor 1 2 d
python
Pytorch
googlecolaboratory
tensor
使用新标签微调模型的分类器层
我想使用仅包含 1 个模型之前未见过的附加标签的新数据集来微调已经微调的 BertForSequenceClassification 模型 这样 我想向模型当前能够正确分类的标签集添加 1 个新标签 此外 我不希望随机初始化分类器权重 我想
Pytorch
huggingfacetransformers
关于 Pytorch 中的奇数图像尺寸
因此 我目前正在构建一个 2 通道 也称为双通道 卷积神经网络 用于测量 2 个 二进制 图像之间的相似度 我遇到的问题如下 我的输入图像为 40 x 50 经过 1 个卷积层和 1 个池化层 例如 后 输出大小为 18 x 23 那么如何
python
machinelearning
deeplearning
Pytorch
AutoTokenizer.from_pretrained 无法加载本地保存的预训练分词器 (PyTorch)
我是 PyTorch 的新手 最近我一直在尝试使用 Transformers 我正在使用 HuggingFace 提供的预训练分词器 我成功下载并运行它们 但如果我尝试保存它们并再次加载 则会发生一些错误 如果我使用AutoTokenize
如何在pytorch中打印Adadelta中的“实际”学习率
In short 在 pytorch 中使用 adadelta 优化器时 我无法绘制 lr epoch 曲线 因为optimizer param groups 0 lr 始终返回相同的值 详细 Adadelta 可以仅使用一阶信息随时间动态
python
Optimization
neuralnetwork
deeplearning
Pytorch
«
1
2
3
4
5
6
7
8
...100
»