Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
Spark 的 StreamingLinearRegressionWithSGD 是如何工作的?
我正在研究StreamingLinearRegressionWithSGD https spark apache org docs 1 6 3 api java org apache spark mllib regression Strea
apachespark
linearregression
apachesparkmllib
python中的加权非负最小二乘线性回归[关闭]
Closed 这个问题正在寻求书籍 工具 软件库等的推荐 不满足堆栈溢出指南 help closed questions 目前不接受答案 我知道有一个加权 OLS 求解器 http statsmodels sourceforge net d
python
scipy
linearregression
StatsModels
预测多个单独组的线性回归
我想预测单个数据框中多个组的线性回归的值 我发现以下博客文章几乎可以满足我需要的一切 https www r bloggers com 2016 09 running a model on separate groups https www
r
dplyr
linearregression
Predict
仅使用移动窗口中的先前值的线性回归
我有一个巨大的数据集 想要在 60 个窗口上执行滚动线性回归 但是 我希望线性回归只考虑 60 个先前的值 我的 Dataframe DF 包含以下列 Date Company Y X1 X2 01 01 2015 Mill 0 13 1
r
linearregression
在 SciKit 线性回归上出现“ValueError:形状未对齐”
一般来说 SciKit 和 Python 的线性代数 机器学习相当新 所以我似乎无法解决以下问题 我有一个训练集和一个测试数据集 其中包含连续值和离散 分类值 CSV 文件被加载到 Pandas DataFrame 中并匹配形状 分别为 1
python
pandas
machinelearning
scikitlearn
linearregression
获取“lm()”返回的“mlm”对象回归系数的置信区间
我正在运行具有 2 个结果变量和 5 个预测变量的多元回归 我想获得所有回归系数的置信区间 通常我使用该功能lm但它似乎不适用于多元回归模型 对象mlm 这是一个可重现的示例 library car mod lt lm cbind inco
r
Regression
linearregression
LM
MLM
计算 DFFITS 作为回归中杠杆率和影响力的诊断
我正在尝试手动计算 DFFITS 获得的值应该等于通过以下方式获得的第一个值dffits功能 不过我自己的计算肯定有问题 attach cars x1 lt lm speed dist data cars all observations
r
Regression
linearregression
LM
使用scikit-learn(sklearn),如何处理线性回归的缺失数据?
我尝试了这个 但无法让它适用于我的数据 使用 Scikit Learn 对时间序列 pandas 数据框进行线性回归 https stackoverflow com questions 29748717 use scikit learn t
python
pandas
machinelearning
scikitlearn
linearregression
`ValueError: 太多值无法用 `scipy.stats.linregress` 解包(预期为 4)`
我知道这个错误消息 ValueError too many values to unpack expected 4 当设置的变量数量多于函数返回的值时 就会出现 scipy stats linregress根据 scipy 文档返回 5 个
python
scipy
linearregression
从 FlinkML 多元线性回归中提取权重
我正在运行 Flink 0 10 SNAPSHOT 的示例多元线性回归 我不知道如何提取权重 例如斜率和截距 beta0 beta1 无论你想怎么称呼它们 我对 Scala 不太熟悉 这可能是我问题的一半 感谢任何人可以提供的任何帮助 ob
scala
machinelearning
linearregression
apacheflink
flinkml
回归分析中的分类特征数据和序数特征数据差异?
在进行回归分析时 我试图完全理解分类数据和序数数据之间的差异 目前 已经明确的是 分类特征和数据示例 颜色 红 白 黑为什么分类 red lt white lt black逻辑上是不正确 序数特征和数据示例 状况 旧的 翻新的 新的为什么序
特征缩放后重新缩放,线性回归
似乎是一个基本问题 但我需要在梯度下降线性回归的实现中使用特征缩放 获取每个特征值 减去平均值 然后除以标准差 完成后 我希望将权重和回归线重新调整为原始数据 我只使用一个特征 加上 y 轴截距项 使用缩放数据获得权重后 如何更改权重 以便
machinelearning
linearregression
gradientdescent
将 OLS 回归摘要打印到文本文件
我正在使用 OLS 回归pandas stats api ols用一个groupby使用以下代码 from pandas stats api import ols df pd read csv r F file csv result df
python
csv
pandas
linearregression
StatsModels
如何使 group_by 和 lm 更快?
这是一个样本 df lt tibble subject rep letters 1 7 c 5 6 7 5 2 5 2 day c 3 7 2 7 1 7 3 7 6 7 3 7 6 7 x1 runif 32 x2 rpois 32 3
r
performance
Regression
linearregression
LM
如何为 lm() 设置平衡单向方差分析
我有数据 dat lt data frame NS c 8 56 8 47 6 39 9 26 7 98 6 84 9 2 7 5 EXSM c 7 39 8 64 8 54 5 37 9 21 7 8 8 2 8 Less 5 c 5 9
r
Regression
linearregression
LM
ANOVA
R:plm——年度固定效应——年度和季度数据
我在设置面板数据模型时遇到问题 这是一些示例数据 library plm id lt c 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 year lt c 1999 1999 1999 1999 2000 2000 200
r
Regression
linearregression
plm
如何使用相关或协方差矩阵而不是使用 R 的数据框来获得回归系数和模型拟合?
我希望能够通过提供相关或协方差矩阵而不是 data frame 来从多元线性回归中回归系数 我意识到您丢失了一些与确定截距等相关的信息 但甚至相关矩阵也应该足以获得标准化系数和解释的方差估计 例如 如果您有以下数据 get some dat
r
Regression
linearregression
LM
如何在张量流中实现多元线性随机梯度下降算法?
我从单变量线性梯度下降的简单实现开始 但不知道将其扩展到多元随机梯度下降算法 单变量线性回归 import tensorflow as tf import numpy as np create random data x data np r
python
machinelearning
linearregression
tensorflow
如何使用 R 中的 lm() 函数从回归中删除不显着的因子水平?
当我在 R 中执行回归并使用类型因子时 它可以帮助我避免在数据中设置分类变量 但是如何从回归中删除不重要的因素以仅显示重要变量呢 例如 dependent lt c 1 10 independent1 lt as factor c d a
r
Regression
linearregression
在线性回归模型中包含误差项
我想知道是否有一种方法可以包含线性回归模型的误差项 例如 r lm y x1 x2 代码r lm y x1 x2 意味着我们将 y 建模为 x1 和 x2 的线性函数 由于模型并不完美 因此会存在残差项 即模型未能拟合的剩余项 在数学方面
r
linearregression
«
1
2
3
4
5
6
...8
»