Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
找到最适合n个球体交点的点
我有一系列带有距离的点 我希望找到一个最能满足以下条件的点 for point i distance i in pointArray abs point point i distance i 我认为这可以通过某种回归或最小二乘来解决 但我在
Math
geometry
Regression
mgcv:如何在predict.gam中使用“排除”参数?
我有一个结构如下的模型 我想提取预测值 同时忽略随机效应 如指定 predict gam and here 我正在使用exclude争论 但我收到错误 我的错误在哪里 dt lt data frame n1 runif 500 min 0
r
Regression
Predict
gam
mgcv
如何使用 GPML (Matlab) 进行回归的 2D 高斯过程?
我有一个Nx2输入矩阵称为X 我也有输出值Y这是一个向量Nx1 我创建一些数据进行测试 如下所示 Xtest linspace x min x max n Ytest linspace y min y max n 所以 矩阵Z is of
MATLAB
plot
Regression
Gaussian
使用“lm()”进行线性回归:聚合预测值的预测区间
我在用着predict lm fit newdata newdata interval prediction 获取新观测值的预测及其预测区间 PI 现在 我想根据附加变量 即单个家庭预测的邮政编码级别的空间聚合 对这些预测及其 PI 进行聚
r
Regression
linearregression
Prediction
LM
将回归线添加到多个散点图
环顾四周 找不到我的问题的答案 所以终于不再潜伏了 我一直在创建多个散点图 将每一列与其他列进行比较 如下所示 我使用了脚本 attach File plot Files c 2 3 4 5 6 7 8 但是 我似乎无法正确输入命令以在图表
r
Regression
smooth.spline():拟合模型与用户指定的自由度不匹配
这是我运行的代码 fun lt function x 1 3 sin 4 pi x pi set seed 1 num samples lt 1000 x lt runif num samples y lt fun x rnorm num
r
Regression
Spline
smoothing
(R) Xi - Xj 中的错误:二元运算符的非数字参数
我正在使用 R 编程语言 我正在尝试在此处重新创建本教程中显示的图表 https www rpubs com cboettig greta gp 本教程展示如何为 2 个变量创建特殊类型的回归模型 我可以复制并粘贴本教程中的代码并成功制作所
r
ggplot2
dplyr
Regression
datavisualization
迭代预测动态模型
我已经编写了一个函数来迭代预测使用 dyn 包构建的模型 并且我想要一些关于它的反馈 有一个更好的方法吗 有人为 dyn 类 或 dynlm 类 编写了规范的 预测 方法 还是我正在冒险进入未知领域 ipredict lt function
r
Dynamic
Regression
forecasting
使用神经网络和 ReLU 逼近正弦函数
我正在尝试用神经网络 Keras 来近似正弦函数 是的 我读过相关的帖子 Link 1 Link 2 Link 3 使用具有 sigmoid 的四个隐藏神经元和具有线性激活的输出层效果很好 但也有一些设置提供的结果对我来说似乎很奇怪 由于我
python
machinelearning
neuralnetwork
Regression
Keras
获取组均值差的 p 值,无需使用新的参考水平重新拟合线性模型
当我们有一个带有因子变量的线性模型时X 有等级A B and C y factor X Var2 Var3 结果显示估计值XB and XC这就是差异B A and C A 假设参考文献是A 如果我们想知道之间差异的 p 值B and C
r
Regression
linearregression
LM
hypothesistest
R 中的约束线性回归系数[重复]
这个问题在这里已经有答案了 我正在估计 R 中的几个普通最小二乘线性回归 我想限制回归中的估计系数 使它们相同 例如 我有以下内容 z1 x y z2 x y 我希望第一个回归中 y 的估计系数等于第二个回归中 x 的估计系数 有没有直接的
r
statistics
Regression
linearregression
LM
在大型数据集上有效计算分段回归
我目前有一个很大的数据集 我需要计算分段回归 或以类似的方式拟合分段线性函数 然而 我既有一个很大的数据集 也有非常多的碎片 目前我有以下方法 Let si be the end of segment i Let xi yi denote
Algorithm
Bigdata
Regression
Modeling
对 pandas 列的多个子集高效运行回归分析
我本可以选择一个较短的问题 只关注这里的核心问题 即列表排列 但我带来的原因统计模型 and pandas问题是 可能存在用于逐步回归的特定工具 同时具有存储所需回归输出的灵活性 就像我将在下面向您展示的那样 但效率更高 至少我希望如此 给
python
list
pandas
Regression
`nls` 拟合误差:无论起始值如何,始终达到最大迭代次数
使用此参数化来构建增长曲线逻辑模型 我创建了一些点 K 0 7 y0 0 01 r 0 3 df data frame x seq 1 50 by 5 df y 0 7 1 0 7 0 01 0 01 exp 0 3 df x 有人可以告诉
r
Regression
nls
nonlinearregression
解释回归模型中的交互作用
我希望这是一个简单的问题 我有一个实验设计 测量两组的一些反应 比方说血压 对照组和受影响组 两组都接受三种治疗 t1 t2 t3 数据在任何意义上都不是配对的 这是一个示例数据 set seed 1 df lt data frame re
r
Regression
LM
Interaction
在 R 中打印或捕获多个对象
我在 R 脚本中有多个回归 并且希望将回归摘要附加到单个文本文件输出 我知道我可以使用以下代码对一个回归摘要执行此操作 但如何对多个回归摘要执行此操作 rpt1 lt summary fit capture output rpt1 file
r
save
Regression
XGBoost 最佳迭代
我正在使用 XGBoost 算法运行回归 clf XGBRegressor eval set X train y train X val y val early stopping rounds 10 n estimators 10 verb
python3x
machinelearning
Regression
xgboost
是否有一个函数或包可以模拟从 lm() 返回的对象的预测?
是否有一个类似于 runif rnorm 等的单一函数可以为线性模型生成模拟预测 我可以自己编写代码 但是代码很丑陋 我认为这是以前有人做过的事情 slope 1 5 intercept 0 x as numeric 1 10 e rnor
r
Regression
LM
错误:请提供起始值
我正在 R 中进行对数二项式回归 我想控制模型中的协变量 年龄和 BMI 都是连续变量 而因变量是结果 是或否 自变量是组 1 或 2 fit lt glm Outcome Group data data 1 family binomial
r
errorhandling
Regression
GLM
强制某些参数在 lm() 中具有正系数
我想知道如何限制某些参数lm 具有正系数 有一些包或函数 例如display 可以使所有系数和截距为正 例如 在这个例子中 我只想强制x1 and x2具有正系数 x1 c NA rnorm 99 10 x2 c NA NA rnorm 9
r
Regression
linearregression
GLM
LM
«
1 ...
8
9
10
11
12
13
14
»