Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
Keras - 历元相关损失函数
我正在使用 Keras 框架 我想实现一个与纪元相关的损失函数 即每个纪元的损失函数都不相同 你会怎么做 您能否添加一个示例 例如基于keras VAE 教程 https github com fchollet keras blob mas
deeplearning
Keras
autoencoder
使用素数输入维度训练 CNN 的问题
我目前正在使用 Keras 自动编码器 开发 CNN 模型 我的输入是这种类型 47 47 3 即具有 3 RGB 层的 47x47 图像 我过去曾使用过一些 CNN 但这次我的输入尺寸是素数 47 像素 我认为这会导致我的实现出现问题 特
python
Keras
convneuralnetwork
autoencoder
maxpooling
LSTM/GRU 自动编码器收敛
Goal 尝试在多元时间序列数据集上运行 LSTM 自动编码器 X train 200 23 178 X val 100 23 178 X 测试 100 23 178 现在的情况 普通的自动编码器比简单的 LSTM AE 架构可以获得更好的
machinelearning
LSTM
recurrentneuralnetwork
autoencoder
使用自定义渐变的自定义激活不起作用
我正在尝试编写一个简单的神经网络训练代码 目标是定义一个自定义激活函数 我让 Keras 使用自定义梯度函数进行自定义激活 而不是让 Keras 自动对其求导以进行反向传播 import numpy as np import tensorf
python
Keras
neuralnetwork
autoencoder
Keras - 用于文本分析的自动编码器
因此 我正在尝试创建一个自动编码器 它将接受文本评论并找到较低维度的表示 我正在使用 keras 我希望我的损失函数能够将 AE 的输出与嵌入层的输出进行比较 不幸的是 它给了我以下错误 我很确定问题出在我的损失函数上 但我似乎无法解决这个
python
machinelearning
Keras
deeplearning
autoencoder
如何使用掩蔽层来掩蔽 LSTM 自动编码器中的输入/输出?
我正在尝试使用 LSTM 自动编码器以可变长度的序列作为输入进行序列到序列学习 使用以下代码 inputs Input shape None input dim masked input Masking mask value 0 0 inp
machinelearning
deeplearning
Keras
LSTM
autoencoder
keras 自动编码器与 PCA
我正在玩一个玩具示例来理解 PCA 与 keras 自动编码器 我有以下代码来理解PCA import numpy as np import matplotlib pyplot as plt from mpl toolkits mplot3
python27
Keras
PCA
autoencoder
如何使用 LSTM 自动编码器在多特征序列中正确忽略解码时填充或丢失的时间步
我正在尝试通过使用自动编码器进行重建来学习文本序列的潜在表示 多个特征 3 由于某些序列比最大 pad 长度或我正在考虑的时间步长 seq length 15 短 我不确定重建是否会学会忽略时间步长或不计算损失或准确性 我遵循了来自的建议这
tensorflow
Keras
deeplearning
LSTM
autoencoder
ValueError:输入 0 与层 conv_1 不兼容:预期 ndim=3,发现 ndim=4
我正在尝试制作一个变分自动编码器来学习编码 DNA 序列 但遇到了意外错误 我的数据是一组单热数组 我遇到的问题是值错误 它告诉我 我有一个四维输入 而我的输入显然是三维的 100 4008 4 事实上 当我打印出seq层 它说它的形状是
machinelearning
neuralnetwork
Keras
autoencoder
如何拆分卷积自动编码器?
我已经编译了一个自动编码器 完整代码如下 在训练它之后 我想将其分成两个单独的模型 编码器 层 e1 编码 和解码器 所有其他层 在其中提供手动修改的图像已被解码器编码 我已经成功创建了一个编码器作为一个单独的模型 encoder Mode
Keras
autoencoder
变分自动编码器:Keras 中的实现预热
我最近读过这张纸它引入了一个称为 预热 WU 的过程 该过程包括将 KL 散度中的损失乘以一个变量 该变量的值取决于纪元数 从 0 到 1 线性演化 我想知道这是否是做到这一点的好方法 beta K variable value 0 0 d
deeplearning
Keras
autoencoder
Pytorch之经典神经网络Generative Model(二) —— VAE (MNIST)
变分编码器 Variational AutoEncoder 是自动编码器的升级版本 其结构跟自动编码器是类似的 也由编码器和解码器构成 回忆一下 自动编码器有个问题 就是并不能任意生成图片 因为我们没有办法自己去构造隐藏向量 需要通过一张图
autoencoder
VAE
python
[Python人工智能] 十五.无监督学习Autoencoder原理及聚类可视化案例详解
从本专栏开始 作者正式研究Python深度学习 神经网络及人工智能相关知识 前一篇文章详细讲解了循环神经网络LSTM RNN如何实现回归预测 通过sin曲线拟合实现如下图所示效果 本篇文章将分享无监督学习Autoencoder的原理知识 然
Python人工智能(TFKeras)
人工智能
tensorflow
autoencoder
无监督学习
GAUSSIAN MIXTURE VAE: LESSONS IN VARIATIONAL INFERENCE, GENERATIVE MODELS, AND DEEP NETS
Not too long ago I came across this paper on unsupervised clustering with Gaussian Mixture VAEs I was quite surprised es
【2015/IE】Variational Autoencoder based Anomaly Detection using Reconstruction Probability
原文首发于个人站点 xff1a 基于变分自编码器重构概率的异常检测模型 个人公众号 xff1a DreamHub 文章链接 xff1a Variational Autoencoder based Anomaly Detection usin
2015
Variational
autoencoder
Based
ANOMALY
自编码器AutoEncoder解决异常检测问题
自编码器AutoEncoder解决异常检测问题 一 自编码器 xff08 Auto Encoder xff09 介绍1 AE算法的原理2 AE算法的作用3 AE算法的优缺点 二 自编码器AutoEncoder解决异常检测问题 xff08 手
autoencoder
自编码器
解决异常检测问题
AutoEncoder及Variational AutoEncoder模型
AutoEncoder及Variational AutoEncoder模型 一 AutoEncoder概述 作为一种无监督或者自监督算法 xff0c 自编码器本质上是一种数据压缩算法 从现有情况来看 xff0c 无监督学习很有可能是一把决定
autoencoder
Variational
深度学习之autoencoder
1 xff09 autoencoder autoencoder是一种无监督的学习算法 xff0c 他利用反向传播算法 xff0c 让目标值等于输入值 如图所示 xff1a Autoencoder尝试学习一个 的函数 也就是说autoenco
autoencoder
深度学习之
«
1
2