机器学习面经--常见问题

2023-05-16

在这里插入图片描述
在这里插入图片描述

csdn的排版真的太垃圾了,想看的移步知乎

1,Normalization
数据标准化处理主要包括数据同趋化处理和无量纲化处理两个方面。数据同趋化处理主要解决不同性质数据问题,对不同性质指标直接加总不能正确反映不同作用力的综合结果,须使所有指标对测评方案的作用力同趋化,之后再加总才能得出正确结果。数据无量纲化处理主要解决数据的可比性。经过标准化处理,原始数据均转换为无量纲化指标测评值,即各指标值都处于同一个数量级别上,可以进行综合测评分析。

机器学习中常见的Normalization方法分为两种类型,一种是特征标准化,是对输入的数据进行预处理,是对数据的不同特征分别进行处理,常见有max-min normalizaiton,z-score normalization等;第二种是参数归一化,比如L1范数,L2范数等。
深度学习中的normalization主要是为了减少Internal Covariate Shift,对某层每个神经元的激活值进行normalization。不论哪种标准化方法,其规范化目标都是一样的,就是将其激活值调整为均值为0,方差为1的正态分布。规范化统一形式为
图片: https://uploader.shimo.im/f/JsmV4c48qVmh0YzZ.png!thumbnail?accessToken=eyJhbGciOiJIUzI1NiIsImtpZCI6ImRlZmF1bHQiLCJ0eXAiOiJKV1QifQ.eyJleHAiOjE2NjQwMTMwOTUsImZpbGVHVUlEIjoiOE5rNk1lZFdXT0huNjZxTCIsImlhdCI6MTY2NDAxMjc5NSwiaXNzIjoidXBsb2FkZXJfYWNjZXNzX3Jlc291cmNlIiwidXNlcklkIjo2NjY4ODY1NX0.En3W1B-sGpIKbgt3x4ShC1vcuyilIDF-azrl6NJcjzE

γ和β是两个可学习的参数,用于减弱标准化的影响(比如,激活函数的输出分布并不需要归一化)。
为了能够将网络中某个神经元的激活值规范到均值为0方差为1的范围,必须求出均值和方差。要计算这两个指标需在一个集合范围内才可行,所以这就要求必须指定一个神经元组成的集合,利用这个集合里每个神经元的激活值来统计出所需的均值和方差,这样才能达到预定的规范化目标。所以,不同标准化方法最主要的区别在于神经元集合S的范围怎么定。

Batch Normalization中的集合S是由batch中n个样本在神经元k上的激活值组成的。n个样本,n个激活值。
Layer Normalization中集合S是由同一层神经元的激活值组成的。
Instacnce Normalization中的集合S是由CNN的同一卷积层内每个卷积核产生的输出通道单独构成。一个通道包含多个激活值。
Group Normalization中的集合是对CNN中某一层卷积层的输出或者输入通道进行分组,在分组范围内进行统计。

归一化可以加快基于梯度下降法的收敛速度;使各个特征对结果做出的贡献相同,提升模型的精度。BN本身上也是一种正则的方式,可以使用大学习率,但对batchsize 大小敏感,RNN等动态网络使用BN效果不佳且使用起来不方便

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

机器学习面经--常见问题 的相关文章

随机推荐

  • easyui-datagrid 数据出不来(样式引起的bug)

    今天任务是需要从另一个项目中将某几个功能页面移植到现有的项目中 这是比较繁琐的功能 理解要移植功能的逻辑 xff08 业务逻辑 xff0c 涉及到的表和存储过程 xff09 页面样式 这么是我遇到的一个问题之一 xff1b 我需要展现一个e
  • c#切割字符串几种方法

    1 xff0c 按单一字符切割 string s 61 34 abcdeabcdeabcde 34 string sArray 61 s Split 34 c 34 oreach string i in sArray Console Wri
  • 动态链接库与静态链接库的区别

    静态链接库与动态链接库都是共享代码的方式 xff0c 如果采用静态链接库 xff0c 则无论你愿不愿意 xff0c lib 中的指令都全部被直接包含在最终生成的 EXE 文件中了 但是若使用 DLL xff0c 该 DLL 不必被包含在最终
  • ssm——小学期实训总结

    实训总结 经过这两个星期短暂的学习 xff0c 我学习了ssm的框架搭建与web前端设计基础 在第一个星期 xff0c 老师着重为我们讲了框架的原理 搭建与运用 xff1b 而在第二个星期 xff0c 重点则转移到了小组对项目的开发与研究上
  • 节点中心性

    文章目录 度中心性 Degree Centrality 特征向量中心性 Eigenvector Centrality Katz中心性 Katz Centrality Katz index PageRank中心性PageRank算法 接近中心
  • 机器学习面试知识点总结

    文章目录 计算学习理论过拟合与欠拟合过拟合欠拟合 偏差与方差最大似然估计与贝叶斯估计极大似然估计贝叶斯决策论贝叶斯估计 特征工程与特征选择特征工程逐层归一化特征选择 模型融合融合策略 评估方法与评价指标评估方法评价指标 优化算法正则化深度模
  • Multi-view graph convolutional networks with attention mechanism

    摘要 传统的图卷积网络关注于如何高效的探索不同阶跳数 hops 的邻居节点的信息 但是目前的基于GCN的图网络模型都是构建在固定邻接矩阵上的即实际图的一个拓扑视角 当数据包含噪声或者图不完备时 xff0c 这种方式会限制模型的表达能力 由于
  • An Empirical Study of Graph Contrastive Learning

    摘要 图对比学习在图表示学习领域树立了新的范式 xff0c 不需要人工标注信息 但对GCL的分析却寥寥无几 本文通过分析一般化的GCL范式的各个部分包括增强函数 xff0c 对比模式 xff0c 对比目标和负采样技术 xff0c 然后分析各
  • Data Augmentation

    自监督深度学习模型的精确性严重依赖于训练时数据的多样性和数据量 模型要想在更复杂任务上有较好的效果一般会有大量的隐藏单元 一般在训练过程中训练隐藏单元越多需要的数据越多 xff0c 即任务复杂度与参数量与需要的数据量成正比 由于训练复杂任务
  • Semi-Supervised and Self-Supervised Classification with Multi-View Graph Neural Networks

    摘要 图神经网络在图结构数据中取得了很好的效果但是大多数的模型使用的还是叫浅层的结构 xff0c 当模型层数加深时很容易过平滑 本文基于多视图来聚合更多的信息 我们首先设计两个互补的视图来描述全局结构和节点特征相似性 xff0c 然后使用注
  • GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training

    摘要 目前图表示学习在许多任务上取得了很好的效果但是都是关注于具体领域的并不具有迁移性 本文借鉴预训练思想 xff0c 设计了一个自监督图神经网络框架来在多个网络中捕获一般化的网络拓扑结构属性 我们设计的预训练任务是在多个网络之间判别子图实
  • Graph Contrastive Learning with Adaptive Augmentation

    摘要 对比学习在无监督图表示学习中取得了很好的效果 xff0c 大部分图对比学习首先对输入图做随机增强生成两个视图然后最大化两个视图表示的一致性 其中 xff0c 图上的增强方式是非常重要的部分鲜有人探索 我们认为数据增强模式应该保留图固有
  • A Survey on Graph Structure Learning: Progress and Opportunities

    文章目录 摘要引言预备知识GSL pipline Graph Structure ModelingMetric based ApproachesNeural ApproachesDirect Approaches Postprocessin
  • 图构造总结-Graph‑based semi‑supervised learning via improving the quality of the graph dynamically

    前言 本博文主要对论文中提到的图构造方法进行梳理 xff0c 论文自己提出的模型并未介绍 xff0c 感兴趣的可以阅读原文 摘要 基于图的半监督学习GSSL主要包含两个过程 xff1a 图的构建和标签推测 传统的GSSL中这两个过程是完全独
  • 超图构造综述,Hypergraph Learning: Methods and Practices

    文章目录 摘要引言基础知识Hypergraph GenerationDistance based hypergraph generationRepresentation based hypergraph generationAttribut
  • 图论基础知识总结

    文章目录 图的概念路图的代数表示邻接矩阵可达矩阵完全关联矩阵拉普拉斯矩阵对称归一化拉普拉斯矩阵随机游走归一化拉普拉斯矩阵 欧拉图与汉密尔顿图平面图对偶与着色数与生成树最小生成树算法 xff1a 根树图的存储邻接矩阵邻接表十字链表邻接多重表
  • 图增强与图对比学习

    文章目录 对比学习数据增强基于特征的增强基于结构的增强基于采样的增强自适应的增强 代理任务同尺度对比跨尺度对比 目标函数参考 CSDN排版太垃圾了 xff0c 点此连接去知乎看吧 xff01 xff01 xff01 xff01 xff01
  • K-Core, K-Shell & K-Crust傻傻分不清楚

    K Core算法是用于在图中寻找符合一定紧密关系条件的子图结构的算法 xff0c 通常用于进行子图划分 xff0c 去除不重要的结点 参考论文k core Theories and applications ScienceDirect K
  • 社区发现算法总结

    图划分指将网络顶点划分为指定规模 xff0c 指定数量的非重叠群组 xff0c 使得群组之间的边数最小 图划分时 xff0c 群组的数量和规模是固定的 社区发现不同于图划分的是网络群组的数量和规模不是由实验者确定的 xff0c 而是由网络本
  • 机器学习面经--常见问题

    csdn的排版真的太垃圾了 xff0c 想看的移步知乎 1 xff0c Normalization 数据标准化处理主要包括数据同趋化处理和无量纲化处理两个方面 数据同趋化处理主要解决不同性质数据问题 xff0c 对不同性质指标直接加总不能正