Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
为什么epoch太多会导致过拟合?
我正在阅读 Python 深度学习 一书 读完第 4 章 对抗过度拟合 后 我有两个问题 为什么增加纪元数可能会导致过度拟合 我知道增加纪元数将涉及更多的梯度下降尝试 这会导致过度拟合吗 在对抗过拟合的过程中 准确率会降低吗 我不确定您正在
machinelearning
gradientdescent
当我们可以解析线性回归时为什么要梯度下降
在线性回归空间中使用梯度下降有什么好处 看起来我们可以用分析方法解决这个问题 找到最小成本函数的theta0 n 那么为什么我们仍然想使用梯度下降来做同样的事情呢 谢谢 当您使用正规方程为了分析求解成本函数 您必须计算 其中 X 是输入观测
machinelearning
linearregression
gradientdescent
Tensorflow:如何在 python 中编写带有梯度的操作?
我想用 python 编写一个 TensorFlow 操作 但我希望它是可微的 能够计算梯度 这个问题询问如何在 python 中编写操作 答案建议使用 py func 没有梯度 Tensorflow 用 Python 编写操作 TF 文档
python
tensorflow
neuralnetwork
gradientdescent
三元组损失的softmax版本的梯度计算
我一直在尝试在Caffe中实现softmax版本的三元组损失 描述于 霍弗和艾隆 使用三元组网络进行深度度量学习 ICLR 2015 我已经尝试过这个 但我发现很难计算梯度 因为指数中的 L2 不是平方的 有人可以帮我吗 使用现有的 caf
neuralnetwork
deeplearning
caffe
gradientdescent
Softmax
在 XGBoost.XGBRegressor 中创建自定义目标函数
因此 我对 Python 中的 ML AI 游戏相对较新 目前正在研究围绕 XGBoost 自定义目标函数实现的问题 我的微分方程知识相当生疏 所以我创建了一个带有梯度和 hessian 的自定义 obj 函数 该函数对均方误差函数进行建模
python
machinelearning
xgboost
gradientdescent
hessianmatrix
Caffe:如果两层反向传播渐变到同一个底部斑点会发生什么?
我想知道如果我有一个层生成一个底部斑点 该斑点进一步被两个后续层消耗 这两个层都会生成一些梯度来填充反向传播阶段的 Bottom diff 将两个梯度相加形成最终梯度吗 或者说 只有他们一个人能够活下去 根据我的理解 Caffe 层需要在用
machinelearning
neuralnetwork
deeplearning
caffe
gradientdescent
如何计算最佳批量大小?
有时我会遇到一个问题 OOM when allocating tensor with shape e g OOM when allocating tensor with shape 1024 100 160 其中 1024 是我的批量大小
machinelearning
neuralnetwork
deeplearning
Keras
gradientdescent
如何在 Octave 中根据 Andrew Ng 作业编写成本函数公式?
我的实现 见下文 给出的标量值为 3 18 这不是正确的答案 该值应为 0 693 我的代码在哪里偏离了等式 以下是在 Octave 中运行成本函数方法求解数据的说明 data load ex2data1 txt X data 1 2 y
machinelearning
Octave
LogisticRegression
gradientdescent
在哪里可以查看 TensorFlow 梯度下降主循环?
抱歉 如果这听起来有点天真 我想看看里面的肉TensorFlowGradientDescent 的实现 亲自看看它们如何处理终止条件 步长自适应性等 我追踪了代码training ops apply gradient descent但我找不
tensorflow
gradientdescent
梯度下降代码的向量化
我正在 Matlab 上实现批量梯度下降 我的更新步骤有问题theta theta是两个分量 两行 的向量 X是一个矩阵 包含m行 训练样本数 和n 2列 特征数量 Y 是一个m行向量 在更新步骤中 我需要设置每个theta i to th
MATLAB
gradientdescent
`warm_start` 参数及其对计算时间的影响
我有一个逻辑回归具有一组定义的参数的模型 warm start True 一如既往 我打电话LogisticRegression fit X train y train 并使用之后的模型来预测新的结果 假设我改变一些参数 比如说 C 100
scikitlearn
LogisticRegression
gradientdescent
hyperparameters
为什么神经网络的权重应该初始化为随机数? [关闭]
Closed 这个问题不符合堆栈溢出指南 目前不接受答案 我正在尝试从头开始构建一个神经网络 所有人工智能文献都一致认为 权重应该初始化为随机数 以便网络更快地收敛 但为什么神经网络初始权重被初始化为随机数呢 我在某处读到这样做是为了 打破
为操作编写基于 Python 的自定义梯度函数? (没有 C++ 实现)
我正在尝试为 my op 编写一个自定义梯度函数 为了示例的目的 该函数仅包含对 tf identity 的调用 理想情况下 它可以是任何图形 import tensorflow as tf from tensorflow python f
python
tensorflow
gradientdescent
我的随机梯度下降实现正确吗?
我正在尝试开发随机梯度下降 但我不知道它是否100 正确 我的随机梯度下降算法生成的成本有时与 FMINUC 或批量梯度下降生成的成本相差甚远 虽然当我将学习率 alpha 设置为 0 2 时 批量梯度下降成本会收敛 但我被迫将学习率 al
MATLAB
machinelearning
LogisticRegression
gradientdescent
«
1
2