Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
使用 GridsearchCV () 进行保留验证
GridsearchCV 有一个参数cv 默认值为3 表示是3倍 有没有办法将 Gridsearch 与保留验证方案一起使用 例如80 20 分割 你可以使用sklearn model selection ShuffleSplit or s
python
scikitlearn
Gridsearch
hyperparameters
Tensorflow 对象检测 API - 超参数调整和网格搜索
我目前正在使用 Tensorflow 对象检测 API 并且想要微调预训练的模型 因此 需要进行超参数调整 API 是否已经提供某种超参数调整 如网格搜索 如果没有可用的东西 我如何实现简单的网格搜索来调整 最相关的 超参数 此外 API
tensorflow
objectdetection
objectdetectionapi
hyperparameters
神经网络立即过拟合
我有一个带有 2 个隐藏层的 FFNN 用于几乎立即过拟合的回归任务 epoch 2 5 取决于 个隐藏单元 ReLU Adam MSE 每层相同的隐藏单元数 tf keras 32 个神经元 128 个神经元 我将调整隐藏单元的数量 但为
tensorflow
neuralnetwork
Keras
hyperparameters
如何调整 Keras、TensorFlow(非通用方法)中的数字隐藏层大小?
我打算找到 Keras 模型隐藏层大小的最佳值 次优 由于搜索空间太大 我无法使用 GS 和 RS 等通用算法 有没有适合这个任务的超参数优化算法 None
python
tensorflow
Keras
Optimization
hyperparameters
Python:没有机器学习的网格搜索?
我想优化具有多个可变参数的算法 作为输入 对于机器学习任务 Sklearn提供超参数的优化gridsearch http scikit learn org stable modules grid search html功能 有没有标准化的方
python
Optimization
scikitlearn
Gridsearch
hyperparameters
Keras Tuner:根据层数选择单元数
我正在使用 Keras Tuner 来调整神经网络的超参数 我想搜索隐藏层的最佳数量以及每层中的最佳单元数 为了避免模型过度参数化 我想施加以下条件 如果模型有两层 则选择最佳的单元数 每层最多 64 个 如果模型有一层 则选择最佳的单元数
tensorflow
Keras
hyperparameters
kerastuner
如何在caret包中的指定网格中随机搜索?
我想知道是否可以在预定义的网格中使用随机搜索 例如 我的网格有alpha and lambda for glmnet方法 alpha介于 0 和 1 之间 并且lambda介于 10到10之间 我想使用随机搜索5次来随机尝试这个范围内的点
r
Regression
rcaret
trainingdata
hyperparameters
用keras网格搜索隐藏层数
我正在尝试使用 Keras 和 sklearn 优化我的神经网络的超参数 我正在结束 KerasClassifier 这是一个分类问题 我正在尝试优化隐藏层的数量 我不知道如何使用 keras 做到这一点 实际上我想知道如何设置函数 cre
python
neuralnetwork
Keras
hyperparameters
使用内部支持的优化器优化 scikit-learn 中 GPR 的 RBF 内核的内核参数
平方指数或RBF核的基本方程如下 这里 l 是长度尺度 sigma 是方差参数 长度比例控制两个点的相似程度 因为它只是放大 x 和 x 之间的距离 方差参数控制函数的平滑程度 我想用我的训练数据集优化 训练这些参数 l 和 sigma 我
python
Optimization
scipy
scikitlearn
hyperparameters
如何告诉 RandomizedSearchCV 选择分布或 None 值?
假设我们正在努力寻找最好的max depth的参数RandomForestClassifier http scikit learn org stable modules generated sklearn ensemble RandomFo
python
scipy
scikitlearn
RandomForest
hyperparameters
如何在 Optuna 中优化多个指标
如何同时优化多个指标objectiveOptuna 的功能 例如 我正在训练 LGBM 分类器 希望为所有常见分类指标 如 F1 精度 召回率 准确度 AUC 等 找到最佳超参数集 def objective trial Train gbm
python
machinelearning
hyperparameters
optuna
keras/scikit-learn:使用 fit_generator() 进行交叉验证
是否可以使用Keras 的 scikit learn API和 一起fit generator 方法 或者使用另一种方式来产生批次进行训练 我正在使用 SciPy 的稀疏矩阵 在输入 Keras 之前必须将其转换为 NumPy 数组 但由于
python
scikitlearn
Keras
crossvalidation
hyperparameters
`warm_start` 参数及其对计算时间的影响
我有一个逻辑回归具有一组定义的参数的模型 warm start True 一如既往 我打电话LogisticRegression fit X train y train 并使用之后的模型来预测新的结果 假设我改变一些参数 比如说 C 100
scikitlearn
LogisticRegression
gradientdescent
hyperparameters
R Caret 包中的逻辑回归调整参数网格?
我正在尝试使用 R 来拟合逻辑回归模型caret package 我做了以下事情 model lt train dec var data vars method glm family binomial trControl ctrl tune
r
LogisticRegression
rcaret
hyperparameters
Pyspark - 获取使用 ParamGridBuilder 创建的模型的所有参数
我正在使用 PySpark 2 0 参加 Kaggle 竞赛 我想知道模型的行为 RandomForest 取决于不同的参数 ParamGridBuilder 允许为单个参数指定不同的值 然后执行 我猜 整个参数集的笛卡尔积 假设我的Dat
python
machinelearning
PySpark
apachesparkml
hyperparameters