Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
使用 R 中的 drc 包回归多个剂量反应曲线
我试图通过我的实验数据拟合回归 4 或 5 PL 我有几种化合物可以抑制我感兴趣的酶 每个都有其自己的 0 100 酶活性范围 所有数据都在一个数据框中 并通过指定我的化合物 毒素 的一列进行区分 因此 我想对每种毒素 化合物分别进行回归
r
Regression
DRC
如何使用 stargazer 或 xtable 省略交互?
是否可以使用omit选项 通常我会将变量名称写入omit c varname 但在互动的情况下我不知道该写什么 有什么提示吗 在其他包中如何解决这个问题 例如xtable documentclass article begin docume
r
latex
Regression
knitr
xtable
使用 Apache Maths 进行多项式回归 (Java)
有人可以帮我用 Apache Math 库进行多项式回归 2 阶 吗 以下数据应给出此方程 39 79 x 2 497 66 x 997 45 由 Excel 计算 r2 0 9998 coding style from http comm
Java
apache
Regression
R Shiny:渲染summary.ivreg输出
我正在尝试在 R Shiny 中呈现工具变量回归摘要 这是代码 iv ivreg lwage educ exper nearc4 exper summary iv 当我使用 renderTable 时 出现以下错误 没有适用于 xtable
r
shiny
Regression
“poly()”如何生成正交多项式?如何理解返回的“coefs”?
我对正交多项式的理解是它们采用以下形式 y x a1 a2 x c1 a3 x c2 x c3 a4 x c4 x c5 x c6 最多达到所需的术语数 where a1 a2 etc是每个正交项的系数 拟合之间有所不同 并且c1 c2 e
r
matrix
Regression
linearregression
LM
R 中具有二进制因变量的面板数据
是否可以使用带有二元因变量的面板数据集在 R 中进行回归 我熟悉使用 glm 表示 logit 和 probit 以及使用 plm 表示面板数据 但不知道如何将两者结合起来 有现成的代码示例吗 EDIT 如果我能弄清楚如何提取 plm 在进
r
Regression
paneldata
plm
如何在这个线性模型中强制删除截距或等效项?
考虑下表 DB lt data frame Y rnorm 6 X1 c T T F T F F X2 c T F T F T T Y X1 X2 1 1 8376852 TRUE TRUE 2 2 1173739 TRUE FALSE 3
r
Regression
linearregression
LM
ANOVA
使用 numpy 拟合数据
我有以下数据 gt gt gt x array 3 08 3 1 3 12 3 14 3 16 3 18 3 2 3 22 3 24 3 26 3 28 3 3 3 32 3 34 3 36 3 38 3 4 3 42 3 44 3 46
python
NumPy
Regression
curvefitting
datafitting
具有非正则截距项的 Scikit-learn 岭回归
scikit learn 岭回归是否在正则化项中包含截距系数 如果是 是否有办法在不正则化截距的情况下运行岭回归 假设我拟合岭回归 from sklearn import linear model mymodel linear model
python
scikitlearn
Regression
R:动态更新公式
如何动态更新公式 Example myvar lt x update y 1 x x y 1 works as intended update y 1 x myvar y x doesn t work as intended update
r
Regression
面板数据 R 中的多重共线性检验
我正在使用以下命令运行面板数据回归plm封装在R并希望控制解释变量之间的多重共线性 我知道有vif 函数在car package 但据我所知 它无法处理面板数据输出 The plm可以进行其他诊断 例如单位根检验 但我发现没有计算多重共线性
r
Regression
plm
paneldata
查找选定列中多个点的斜率
给定以下数据框 structure list 5 c 0 1 0 0 9 22 4 c 1 3 0 0 1 17 3 c 1 3 0 0 0 12 2 c 1 3 0 0 2 10 1 c 0 0 0 4 3 9 0 c 0 1 0 2 2
r
Regression
linearregression
LM
寻找返回黑盒模型最大输出的最佳输入组合
在我的工作中将人工神经网络应用于回归任务时 我面临的挑战之一是 为了找到给定输入范围的最佳结果 我必须将多维网格输入到我的模型中 然后简单地选择最高的价值 然而 这总体上是一个计算成本非常高的解决方案 下面的文字长度可能会令人恐惧 但这只是
python
machinelearning
neuralnetwork
Regression
supervisedlearning
Java-R 集成?
我有一个 Java 应用程序需要执行偏最小二乘回归 似乎没有 PLSR 的 Java 实现 Weka 可能曾经有过类似的东西 但它不再出现在 API 中 另一方面 我发现了一个很好的 R 实现 它还有一个额外的好处 它是由我想要复制其结果的
Java
r
machinelearning
Regression
scale.default 中的错误:“center”的长度必须等于“x”的列数
我在用mboost包做一些分类 这是代码 library mboost load so data rdata model lt glmboost is exciting data training family Binomial pred
r
Regression
使用 mlogit R 函数时出错:两个索引没有定义唯一的观察结果
我的 R 中的 logit 函数有问题 我的数据集如下所示 personID caseID altID choice a1 a2 a3 a4 1 1 1 1 3 0 3 1 1 1 2 0 1 3 0 1 1 1 3 0 4 4 4 4 1
r
Regression
LogisticRegression
mlogit
在没有 numpy polyfit 的情况下在 python 中拟合二次函数
我正在尝试将二次函数拟合到某些数据 并且我尝试在不使用 numpy 的 polyfit 函数的情况下执行此操作 从数学上讲我试图关注这个网站https neutrium net mathematics least squares fitti
python
NumPy
Regression
curvefitting
使用支持向量回归进行时间序列预测
我一直在尝试使用Python语言中的支持向量回归来实现时间序列预测工具 我使用 scikit learn 中的 SVR 模块进行非线性支持向量回归 但我对未来事件的预测有严重的问题 回归线非常适合原始函数 根据已知数据 但一旦我想预测未来的
python
TimeSeries
Regression
Prediction
SVM
使用分类数据作为 sklearn Logistic 回归中的特征
我试图了解如何使用分类数据作为特征sklearn linear model s LogisticRegression 我当然知道我需要对其进行编码 我不明白的是如何将编码特征传递给逻辑回归 以便将其作为分类特征进行处理 而不是将其在编码为标
python
scikitlearn
Regression
datamodeling
LogisticRegression
DecisionTreeRegressor 的 Predict_proba 的等效项
scikit learn 的DecisionTreeClassifier支持通过以下方式预测每个类别的概率predict proba 功能 这不存在于DecisionTreeRegressor AttributeError Decision
python
scikitlearn
Regression
Prediction
Decisiontree
«
1
2
3
4
5
6
...13
»