Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
条件概率密度
设二维随机变量 的概率密度为 关于 的边缘概率密度为 若对于固定的 有 则称 为在 条件下的 的条件概率密度 记为
概率论
边缘概率密度
对于二维连续型随机变量 设它的概率密度为 则 称 为 关于 的边缘概率密度 称 为 关于 的边缘概率密度
概率论
自信息量和一阶熵
信息论中 自信息量和一阶熵是用来度量信息的重要概念 它们提供了一种方式来理解和量化信息的不确定性和平均量 对于解决信息传输 编码和存储等问题非常有用 首先 让我们来了解一下自信息量 自信息量是用来度量一个事件的信息量或不确定性的大小 假设有
概率论
机器学习
人工智能
人工智能分享
【杂谈】概率与随机以及手游抽卡机制的科普
原文 NGA的一篇随机科普 其中包含了对手游抽卡机制的探讨 本文摘选了我自己感兴趣的部分 真随机 先说点题外话 请先看这个问题 一杯热水和一杯冷牛奶哪个热量更高 很显然这个问题从物理学和营养学的层面会得出相反的答案 先不考虑物理学层面说 一
杂项
概率论
科技
2021.9.5笔试题
第一题 题目 找x y target 数字特别大 可能会溢出 代码 include
leetcode和机试题
概率论
决策树之用信息增益选择最优特征
决策树之用信息增益选择最优特征 熵 熵的定义 熵 sh ng 热力学中表征物质状态的参量之一 用符号S表示 其物理意义是体系混乱程度的度量 在决策树中 信息增益是由熵构建而成 表示的是 随机变量的不确定性 不确定性越大 代表着熵越大 随机变
统计学习方法
决策树
机器学习
概率论
Gibbs 采样基本原理和仿真
Gibbs 采样基本原理和仿真 文章目录 Gibbs 采样基本原理和仿真 1 基本概念 1 1 Gibbs采样算法 1 2 Markov链 1 2 1 Markov链的定义 1 2 2 Markov链的细致平稳条件 1 2 3 Markov
gibbs sampling
概率论
算法
GraphPad Prism 9.2 Mac 2021最新安装使用教程
GraphPad Prism集生物统计 化学统计 以及科技绘图于一身 其中医学所能用到的绘图需要它几乎都能满足 Prism 现在被各种生物学家以及社会和物理科学家广泛使用 超过110个国家的超过20万名科学家依靠 Prism 来分析 绘制和
数据库
database
概率论
因果模型五:用因果的思想优化风控模型——因果正则化评分卡模型
因果模型五 用因果的思想优化风控模型 因果正则化评分卡模型 一 模型中的因果和相关 二 不可知样本选择偏差 三 因果推断 四 因果与评分卡的融合 五 模型效果评估 5 1 人工合成数据效果测试 5 2 YFCC100M图像数据测试 5 3
机器学习
概率论
人工智能
统计学三大分布(卡方、t、F)即相应概率密度图的R语言实现
三大统计分布 1 2 chi 2 2分布 设随机变量 X 1
R语言
统计学
概率论
机器学习
离散数学模拟微信红包算法升级版
可以自定义红包总金额 总包数 每包最小金额
php
算法
概率论
[基本功]辛普森悖论
辛普森悖论是指什么现象 当人们尝试探究两种变量 比如新生录取率与性别 是否具有相关性时 会分别对之进行分组研究 然而 在分组比较中都占优势的一方 在总评中有时反而是失势的一方 上表中 商学院女生录取率为49 lt 男生录取率75 法学院女生
基本功amp经典方法
概率论
机器学习
人工智能
数据分析
先验概率及后验概率等解释
20201010 0 引言 在学习统计学的时候 在概率估计的部分 经常会遇到最大似然估计 最大后验估计等名词 这些似然和后验 都跟贝叶斯准则中的一些名词定义有关 这里参考书籍 Think Bayes 这部书 来记录这些名词 1 由糖果例子来
数学
异常检测
机器学习
概率论
【概率】概率论中具有可加性的分布及性质:二项、泊松、正态、卡方
目录 一 可加性 二 相关结论 三 小结 一 可加性 可加性 指对于某种变换来说 特定的 加法 和该变换的顺序可颠倒而不影响结果 这样一种性质 wiki 分布的可加性 指同一类型分布的独立随机变量和的分布仍属于此类分布 1 注 前提是同类型
概率论
概率论【离散型二维变量与连续性二维变量(下)】--猴博士爱讲课
6 连续型二维变量 下 1 7 求边缘分布函数 边缘概率密度 边缘概率密度 2 7 求边缘密度函数 边缘概率密度 3 7 判断连续型二维变量的独立性 F x y Fx X Fy Y 那么X Y互相独立 f x y fx X fy Y 那么X
猴博士概率论与数理统计笔记
概率论
python
Laplace smoothing in Naïve Bayes algorithm(拉普拉斯平滑)
在这里转载只是为了让不能够科学搜索的同学们看到好文章而已 个人无收益只是分享知识 顺手做个记录罢了 原网址 https towardsdatascience com laplace smoothing in na C3 AFve bayes
好文分享
深度学习
概率论
机器学习
算法
交叉熵损失
什么是交叉熵损失 提起损失 我们最熟悉的可能就是MSE 最小均方误差损失了 MSE通俗理解 就是预测值与真实值之间取个差 再求平方 交叉熵损失也是一种衡量预测值与真实值之间的差异的方式 两者的定义不同 适用的范围也不同 通常来说 交叉熵损失
深度学习碎碎念
概率论
机器学习
多维随机变量及其分布(四):
一 二维随机变量及其分布函数 1 二维随机变量 设随机变量 Z X Y 则有 Z X Y 一个随机变量是有两个随机变量决定的 2 联合分布函数的基本性质 单调性 F x y 分别对x 或y是单调不减的 即 对任意固定的y 当 x1 lt x
概率论
布隆过滤器(Bloom Filter)
1 引言 通常我们会遇到很多要判断一个元素是否在某个集合中的业务场景 一般想到的是将集合中所有元素保存起来 然后通过比较确定 链表 树 散列表 又叫哈希表 Hash table 等等数据结构都是这种思路 但是随着集合中元素的增加 我们需要的
学习笔记
面试
概率论
中间件
哈希算法
机器学习之高斯过程
高斯过程 高斯过程 Gaussian Process 高斯分布 置信区间 随机过程 高斯分布的特点 核函数 白噪声处理 实战 高斯过程 Gaussian Process 在机器学习领域里 高斯过程是一种假设训练数据来自无限空间 并且各特征都
机器学习
概率论
1
2
3
4
5
6
...13
»