Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
匹配算法之 匈牙利算法详解
参考 算法学习笔记 5 匈牙利算法 漫谈匈牙利算法 匈牙利算法 KM算法 匈牙利算法 二分图 通俗易懂小白入门 二分图最大匹配 匈牙利算法 多目标跟踪之数据关联 匈牙利匹配算法和KM算法 小白学习笔记 一 目标跟踪 匈牙利匹配 一 匈牙利算
机器学习算法
算法
目标跟踪
人工智能
机器学习算法(二十三):DTW(Dynamic Time Warping,动态时间调整)
目录 1 DTW 动态时间调整 2 算法的实现 3 例子 4 python实现 5 DTW的加速算法FastDTW 5 1 标准DTW算法 5 2 DTW常用加速手段 5 3 FastDTW 1 DTW 动态时间调整 动态时间调整算法是大多
机器学习算法
机器学习
算法
语音识别
推荐系统详解
1 基于内容的推荐系统 1 基于内容的推荐算法概述 基于内容的推荐算法 Content based Recommendations CB 也是一种工业界应用比较广的一种推荐算法 由于协同过滤推荐算法中仅仅基于用户对于商品的评分进行推荐 所以
机器学习算法
机器学习
决策树
算法
Pytroch 模型权重初始化
目录 1 概念 2 权值初始化方法 2 1 常数初始化 2 2 均匀分布初始化 2 3 正态分布初始化 2 4 Xavier 均匀分布 2 5 Xavier 正态分布 2 6 kaiming 均匀分布 2 7 kaiming 正态分布 2
深度学习
机器学习
机器学习算法
人工智能
【机器学习】最大熵算法 整理
最大熵模型由最大熵原理推导实现 1 最大熵原理 最大熵原理认为 学习概率模型时 在所有可能的概率模型 分布 中 熵最大的模型是最好的模型 通常用约束条件来确定概率模型的集合 所以 最大熵原理也可以表述为在满足约束条件的模型集合中选取熵最大的
机器学习
机器学习算法
最大熵模型
最大熵算法
numpy实现卷积两种方法
暂时针对二维卷积 方法1 按定义计算 def numpy conv inputs myfilter h ori w ori inputs shape h k w k myfilter shape h new w new h ori h k
机器学习算法
img2col
numpy实现卷积
数据预测分析
数据预测分析 Matlab实现TCN时间卷积网络数据预测分析 目录 数据预测分析 Matlab实现TCN时间卷积网络数据预测分析 基本介绍 数据下载 程序设计 参考资料 致谢 基本介绍 此示例说明如何使用通用时间卷积网络 TCN 对序列数据
机器学习算法
深度学习算法
数据统计分析
深度学习
神经网络
【深度学习】常见优化算法
本文介绍常见的一阶数值优化算法 这些方法在现代神经网络框架 tensorflow caffe torch 中已经是标准配置 问题 设系统参数为 omega 对于样本 i i i 其代价函数为
机器学习算法
深度学习
优化
算法
逻辑回归分类器(Logistic Regression Classifier)
Logistic regression 逻辑回归 是当前业界比较常用的机器学习方法 用于估计某种事物的可能性 也用来进行分类 在分类的情形下 经过学习之后的LR分类器其实就是一组权值w0 w1 wm 当输入测试样本集中的测试数据时 这一组权
机器学习算法
逻辑回归分类器
logistic regression
牛顿拉斐森迭代法
极大似然函数
线性分类模型(二):logistic回归模型分析
前言 上一篇文章介绍了线性判别模型 本文介绍线性生成模型 logistic回归模型 本文介绍logstic回归模型相关的知识 为了更好理解模型的决策边界函数 本文同时分析了多元变量的协方差对概率分布的影响 目录 1 logistic回归模型
矩阵理论
机器学习算法
Python学习
机器学习算法(二十四):最近邻算法 KNN(k-nearest neighbor)
目录 1 基于实例的学习 2 k 最近邻法 2 1 算法概述 2 2 kNN算法的一般流程 2 3 距离公式 2 4 k值的选择 2 5 KNN特点 2 5 1 特点 2 5 2 KNN算法的优势和劣势 3 距离加权最近邻算法 k 最近邻算
机器学习算法
机器学习
近邻算法
算法
机器学习算法1_线性回归
通俗描述 线性回归模型是利用线性函数对一个或多个自变量和因变量 y y y 之间关系进行拟合的模型 公式推导 数据输入 给定数据集 D
机器学习算法
机器学习二-kmeans-kdtree
机器学习纯java代码 点击打开链接 KD树介绍http www pelleg org shared hp kmeans html 我们的数据集也是从5高斯分布中随机生成的8000个点 你应该看到底层的Gaussians 蓝色边界表示 根
机器学习
机器学习算法
树形算法
树形算法 adaboost GBDT 回归问题 XGBOOST lightgbm bagging和boosting 区别 adaboost 二分类问题 给定一个数据集T x1 y1 x2 y2 xn yn 其中y取1和 1 权值初始化 D1
机器学习算法
adaboost
决策树和随机森林
回归模型 1 信息熵 1 熵 2 联合熵 3 条件熵 4 互信息 2 决策树学习算法 1 决策树 2 决策树生成算法 3 信息增益 4 信息增益率 5 Gini系数 6 ID3算法举例 7 三种决策树学习算法 8 回归树 3 决策树的评价
机器学习算法
加权随机抽样算法
1 基于均匀分布概率的算法 例如 3等奖抽中的概率是70 2等奖是20 1等奖是10 这样 大部分人都只能中3等奖 小部分人是二等奖 而只有特别少的人才可能拿到一等奖 产生0 100之间的均匀分布的随机数 当随机数在0 70时 就获得3等奖
机器学习算法
随机抽样
转置卷积(Transposed Convolution)
目录 1 卷积操作及转置卷积的定义 1 1 卷积操作 1 2 转置卷积 1 3 转置卷积的步骤 2 转置卷积的理解 2 1 stride 1转置卷积的理解 2 1 1 一维形式 2 1 2 二维形式 2 1 3 公式计算 2 2 strid
机器学习算法
深度学习
机器学习
算法实践1_线性回归
参数解释 sklearn linear model LinearRegression fit intercept True normalize False copy X True n jobs None 超参 解释 类型 默认值 fit i
机器学习算法
EM算法及其推广---《统计学习方法》第9章
EM算法是一种迭代算法 用于含有隐变量的概率模型参数的极大似然估计 或极大后验概率估计 EM算法的每次迭代由两步组成 E步求期望值 M步求最大值 EM算法是一种对模型参数的估计 该模型中含有隐变量 EM算法的引入 EM算法 概率模型有时既含
机器学习算法
变分推断(Variational Inference)解析
一 什么是变分推断 假设在一个贝叶斯模型中 x x x为一组观测变量 z z z为一组隐变量 参数也看做随机变量 包含在 z
机器学习算法
概率论
算法
«
1
2
3
»