机器学习中的降维与度量学习(reduce dimension and metric learning)

2023-05-16

##降维与度量学习
###k近邻学习
k近邻(k-Nearest Neighbor,简称kNN)学习是一种监督学习方法。
其工作机制为:在样本中,根据距离度量找出训练集中临近的k个样本,基于这k个样本进行预测。
一般,在分类任务中使用“投票法”,即选择最多的类别标记作为预测结果。
在回归任务中使用“平均法”。另外还可以使用距离度量以及加权平均来进行预测。
k近邻学习相比较其他的学习不同之处在于,它没有显式的训练过程。因此又称之为“懒惰学习”的代表。因为它在训练阶段只是保存样本,没有任何的时间开销,等到收到测试样本再进行学习。

k近邻学习中,参数k是很重要的,k的取值不同,会导致分类的结果不同。另外,如果采用不同的距离公式进行计算,则找出的“近邻”也是不同的,必然会导致分类结果差距变大。
k近邻分类器示意图
接下来,我们取k=1来讨论,
给定测试样本x,若最近邻样本为z,则最近邻分类器出错的概率就是x与z类别标注不同的概率,即:

![](https://img-blog.csdn.net/20170814100101515?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvbmlhb2xpYW5qaXVsaW4=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
假设样本独立同分布,且对任意x和任意小正数δ,在x附近δ距离范围内总能找到一个训练样本。 令c∗=argmaxP(c|x)表示贝叶斯最优分类器的结果。则有
![](https://img-blog.csdn.net/20170814100409855?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvbmlhb2xpYW5qaXVsaW4=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
我们通过上面的推导得出一个结论:最近邻分类器的泛化错误率不超过贝叶斯最优的分类器的两倍。 KNN在很多方面都有应用,其中大数据就是其中之一,至于为什么这么说,大家可以自由思考一下,就会懂得。 ###低维嵌入 引入的原因:由于学习方法很多都存在距离计算,但是高维空间会给这方面带来很大的麻烦。同时,在高维情形下出现的数据样本稀疏,距离计算困难时所有机器学习方法所面临的的困难,被称为“维数灾难”。 缓解维数灾难的一个重要途径就是“降维”(dimension reduction).即为通过一定的数学变换把高维空间变成一个低维的子空间,而这个子空间样本密度大幅度提高,距离计算也变得更容易。 能够降维的原因在于人们观察的高维样本,或许学习任务密切的却是某个低维分布,即高维空间中一个低维“嵌入”.
![低维嵌入示意图](https://imgconvert.csdnimg.cn/aHR0cHM6Ly91cGxvYWQtaW1hZ2VzLmppYW5zaHUuaW8vdXBsb2FkX2ltYWdlcy81MzI4MzU2LTI4YjQxY2I1ZGI2MjY2NzQucG5n)
其中涉及到的维MDS算法进行降维:MDS算法的目的是使高维空间样本之间的距离在低维空间中得以保持。 假定m个样本在原始空间中任意两两样本之间的距离矩阵为D∈R(m*m),我们的目标便是获得样本在低维空间中的表示Z∈R(d’*m , d’< d),且任意两个样本在低维空间中的欧式距离等于原始空间中的距离,即||zi-zj||=Dist(ij)。因此接下来我们要做的就是根据已有的距离矩阵D来求解出降维后的坐标矩阵Z。
![这里写图片描述](https://img-blog.csdn.net/20170515102938526?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMTgyNjQwNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
![这里写图片描述](https://img-blog.csdn.net/20180415205703501?watermark/2/text/aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L0p1bGlhbG92ZTEwMjEyMw==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)
这时根据(1)–(4)式我们便可以计算出bij,即bij=(1)-(2)(1/m)-(3)(1/m)+(4)*(1/(m^2)),再逐一地计算每个b(ij),就得到了降维后低维空间中的内积矩阵B(B=Z’*Z),只需对B进行特征值分解便可以得到Z。MDS的算法流程如下图所示:
![MDS算法](https://img-blog.csdn.net/20170515103140685?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMTgyNjQwNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
###主成分分析(PCA) 主成分分析法(Principal Componet Analysis,简称PCA)是通过构建一个超平面,来将样本点映射到这个平面之上。但是这个平面需要满足两个条件:
  • 最近重构性:样本点到这个超平面的距离尽量近;
  • 最大可分性:样本点在超平面上的投影尽可能分开。
![这里写图片描述](https://img-blog.csdn.net/20170515103327641?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMTgyNjQwNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
使用拉格朗日乘子对式子进行优化:
![这里写图片描述](https://img-blog.csdn.net/20170515103342341?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMTgyNjQwNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
最后,只需要对协方差矩阵进行特征值分解,即可得到解。PCA算法描述如下图所示:
![这里写图片描述](https://img-blog.csdn.net/20170515103356544?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMTgyNjQwNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
在使用PCA方法进行降维之后,但是我们可能丢掉了一些特征值的特征值的特征向量,但是这是必须的,一方面,舍弃这方面信息增大了样本的密度;另一方面,也能达到去噪的效果。 PCA的应用: - Reduce memory/disk needed to store data.减少内存和磁盘需要储存的数据 - Speed up learning algorithm.加速学习的算法 - Visualization 可视化 ###核化线性降维 通常,线性降维方法假设是从高维空间到低维空间的函数映射是线性的,但是现实生活中仍然存在不少非线性映射。
![这里写图片描述](https://imgconvert.csdnimg.cn/aHR0cHM6Ly91cGxvYWQtaW1hZ2VzLmppYW5zaHUuaW8vdXBsb2FkX2ltYWdlcy81MzI4MzU2LTAzNGQzYjExMzZiOWIzZmIucG5n)
基于这种情况的出现,我们使用非线性降维。非线性降维的一种常用方法,是基于核技巧 对线性降维方法进行“核化”。下面以核主成分分析(Kernelized PCA,简称KPCA)为例:
![这里写图片描述](https://img-blog.csdn.net/20170515103448128?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMTgyNjQwNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
![这里写图片描述](https://img-blog.csdn.net/20170515103504175?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMTgyNjQwNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast) ###流形学习 流形学习(manifold learning)是一种借鉴了拓扑流形概念的降维方法。 ####等度量映射 等度量映射(Isometric Mapping,简称Isomap)主要是保持近邻样本距离不同。 基本出发点:高维空间中的直线距离具有误导性,因为有时高维空间中的直线距离在低维空间中是不可达的。因此利用流形在局部上与欧式空间同胚的性质,可以使用近邻距离来逼近测地线距离,即对于一个样本点,它与近邻内的样本点之间是可达的,且距离使用欧式距离计算,这样整个样本空间就形成了一张近邻图,高维空间中两个样本之间的距离就转为最短路径问题。可采用著名的Dijkstra算法或Floyd算法计算最短距离,得到高维空间中任意两点之间的距离后便可以使用MDS算法来其计算低维空间中的坐标。下图是Isomap算法描述:
![这里写图片描述](https://img-blog.csdn.net/20170515103720163?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMTgyNjQwNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
对近邻图的构建的两种方法: 一、指定近邻点个数、如欧氏距离最近的k个点为近邻点,称之为k近邻图。 二、指定距离阈值。通过距离判断近邻点,即可得到近邻图。 但是两种方式存在着问题,分别会出现“断路”和“短路”问题。至于什么时候会出现问题,大家可以思考下。 #####局部线性嵌入 局部现象嵌入(Locally Linear Embedding,简称LLE)试图保持近邻样本的线性关系。 假定样本xi的坐标可以通过它的邻域样本线性表出:
![这里写图片描述](https://img-blog.csdn.net/20170515103826243?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMTgyNjQwNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
![这里写图片描述](https://img-blog.csdn.net/20170515103839618?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMTgyNjQwNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
LLE算法分为两步走,首先第一步根据近邻关系计算出所有样本的邻域重构系数w
![这里写图片描述](https://img-blog.csdn.net/20180415212501518?watermark/2/text/aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L0p1bGlhbG92ZTEwMjEyMw==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)
接着根据邻域重构系数不变,去求解低维坐标,
![这里写图片描述](https://img-blog.csdn.net/20180415212620375?watermark/2/text/aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L0p1bGlhbG92ZTEwMjEyMw==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)
![这里写图片描述](https://img-blog.csdn.net/20180415212634944?watermark/2/text/aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L0p1bGlhbG92ZTEwMjEyMw==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)
这样利用矩阵M,优化问题可以重写为:
![这里写图片描述](https://img-blog.csdn.net/20180415212702786?watermark/2/text/aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L0p1bGlhbG92ZTEwMjEyMw==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)
M特征值分解后最小的d’个特征值对应的特征向量组成Z,LLE算法的具体流程如下图所示:
![这里写图片描述](https://img-blog.csdn.net/20180415212724966?watermark/2/text/aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L0p1bGlhbG92ZTEwMjEyMw==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)
###度量学习 度量学习(metric learning)的基本动机:尝试“学习”得出一个合适的距离度量。这样就能减少找一个合适距离向量的时间开销。 首先要学习出距离度量必须先定义一个合适的距离度量形式。对两个样本xi与xj,它们之间的平方欧式距离为:
![这里写图片描述](https://img-blog.csdn.net/20170515104154466?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMTgyNjQwNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
若各个属性重要程度不一样即都有一个权重,则得到加权的平方欧式距离:
![这里写图片描述](https://img-blog.csdn.net/20170515104208924?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMTgyNjQwNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
此时各个属性之间都是相互独立无关的,但现实中往往会存在属性之间有关联的情形,例如:身高和体重,一般人越高,体重也会重一些,他们之间存在较大的相关性。这样计算距离就不能分属性单独计算,于是就引入经典的马氏距离(Mahalanobis distance):
![这里写图片描述](https://img-blog.csdn.net/20170515104239623?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMTgyNjQwNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
标准的马氏距离中M是协方差矩阵的逆,马氏距离是一种考虑属性之间相关性且尺度无关(即无须去量纲)的距离度量:
![这里写图片描述](https://img-blog.csdn.net/20170515104253952?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMTgyNjQwNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
矩阵M也称为“度量矩阵”,为保证距离度量的非负性与对称性,M必须为(半)正定对称矩阵,这样就为度量学习定义好了距离度量的形式,换句话说:度量学习便是对度量矩阵进行学习。现在来回想一下前面我们接触的机器学习不难发现:机器学习算法几乎都是在优化目标函数,从而求解目标函数中的参数. 总结:懒惰学习方法主要是k近邻学习器、懒惰决策树等。主成分分析是一种无监督的线性降维方法,监督线性降维方法就是线性判别分析(LDA)。 除了Isomap和LLE,常见的流形学习方法还有拉普拉斯特征映射、局部切空间对齐等。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

机器学习中的降维与度量学习(reduce dimension and metric learning) 的相关文章

  • IE/JS:减少对象

    我的 javascript 应用程序在 Firefox 和 Chrome 上运行得很好 但它在 Internet Explorer IE 8 上似乎被破坏了 我在控制台日志上没有收到错误消息 通过调试代码 我注意到应用程序在以下行中断 se
  • 查找列表的平均值

    如何在 Python 中找到列表的平均值 1 2 3 4 2 5 对于 Python 3 8 请使用statistics fmean用于浮点数的数值稳定性 快速地 对于 Python 3 4 请使用statistics mean用于浮点数的
  • 减少功能的问题

    我一直在尝试创建一个示例问题来测试 javascript 中的reduce 函数 该程序旨在从一组输入行中获取单个对象 function generateInputs var inputLines Math floor Math rando
  • PySpark Dataframe 将两列转换为基于第三列值的新元组列

    正如主题所描述的 我有一个 PySpark Dataframe 我需要将两列转换为 一个新列 它是基于第三列值的元组列表 该演员阵容将减少或 通过键值 本例中为产品 id 展平数据框 结果为一行 每个键 该数据框中有数亿行 有 3700 万
  • 错误:Tensorflow CNN 维度

    你好 我是 Tensorflow 新手 尝试使用 CNN 运行 cifar10 数据集 我的网络由三层构成 例如 卷积 最大池化 全连接层 Softmax层 下面是我的模型的张量流代码 15 def model X w w2 w o p k
  • JavaScript 使用reduce 从数组创建带有计数的对象

    我正在尝试解决这个小问题 我需要在哪里使用reduce创建一个包含每个项目计数的对象 我以为我明白了reduce有效 使用一个函数将多个值减少到一个 但我不知道这是如何工作的 有什么想法或建议吗 对此 我真的非常感激 var people
  • 为什么以可变对象作为身份在并行流中调用reduce方法不会保留结果中的顺序?

    有以下看似 正确 的代码 List
  • 缩小、折叠或扫描(左/右)?

    我应该什么时候使用reduceLeft reduceRight foldLeft foldRight scanLeft or scanRight 我想要对它们的差异有一个直观 概述 可能有一些简单的例子 一般来说 所有 6 个折叠函数都对集
  • Hadoop 中的reduce 任务什么时候开始?

    Hadoop中reduce任务什么时候开始 它们是否在映射器完成一定百分比 阈值 后开始 如果是这样 这个阈值是固定的吗 通常使用什么样的阈值 reduce阶段有3个步骤 shuffle sort reduce Shuffle 是减速器从每
  • python:来自多个字典的联合键?

    我有 5 个字典 我想要它们的键的并集 alldict dict1 dict2 dict3 dict4 dict5 I tried allkey reduce lambda x y set x keys union y keys alldi
  • 与函数式编程中的“fold”函数等效的“pythonic”是什么?

    在 Haskell 中实现如下目标的最惯用的方法是什么 foldl 0 1 2 3 4 5 gt 15 或者 Ruby 中的等价物 1 2 3 4 5 inject 0 m x m x gt 15 显然 Python 提供了reduce函数
  • 为什么减速器会忽略数组中的第一项?

    我有这个函数应该运行每个验证器 然后返回包含错误的对象 一切似乎都工作正常 但数组中的第一个验证器 这好像是reduce完全忽略它 无论我在那里放置什么验证器 它都会直接转到第二个验证器 我在这里遗漏了一些明显的东西吗 export def
  • 对数时间并行减少

    Given n部分和 可以在 log2 并行步骤中对所有部分和进行求和 例如 假设有八个线程 有八个部分和 s0 s1 s2 s3 s4 s5 s6 s7 这可以减少log2 8 3像这样的连续步骤 thread0 thread1 thre
  • “折叠”LINQ 扩展方法在哪里?

    我发现在MSDN 的 Linq 示例 http msdn microsoft com en us vcsharp aa336747 aspx foldSimple我想使用一个名为 Fold 的简洁方法 他们的例子 double double
  • 减少功能如何工作?

    据我了解 reduce 函数需要一个列表l和一个函数f 然后 它调用该函数f列表的前两个元素 然后重复调用该函数f与下一个列表元素和上一个结果 因此 我定义了以下函数 以下函数计算阶乘 def fact n if n 0 or n 1 re
  • NameError:Python 中未定义名称“reduce”

    我正在使用Python 3 2 尝试过这个 xor lambda x y x y 2 l reduce xor 1 2 3 4 并得到以下错误 l reduce xor 1 2 3 4 NameError name reduce is no
  • 在Python中结合reduce和map的最简洁的方法

    我正在做一些深度学习 我想获取所有隐藏层的值 所以我最终编写了这样的函数 def forward pass x ws bs activations u x for w b in zip ws bs u np maximum 0 u dot
  • Apache Spark 中的 reduce() 与 Fold()

    有什么区别reduce vs fold关于它们的技术实现 我知道他们的签名不同fold接受添加到每个分区输出的附加参数 即初始值 有人可以讲述这两个操作的用例吗 在考虑使用 0 的情况下哪个会表现更好fold 提前致谢 就性能而言 没有任何
  • Reduce 函数不处理空列表

    我之前创建了一个递归函数来查找列表的乘积 现在我创建了相同的函数 但使用reduce功能和lamdba 当我运行这段代码时 我得到了正确的答案 items 1 2 3 4 10 print reduce lambda x y x y ite
  • Hadoop:Reducer 将 Mapper 输出写入输出文件

    我遇到了一个非常非常奇怪的问题 减速器确实可以工作 但是如果我检查输出文件 我只找到了映射器的输出 当我尝试调试时 在将映射器的输出值类型从 Longwritable 更改为 Text 后 我 发现字数示例存在相同的问题 package o

随机推荐

  • 使用GooSeeker软件进行爬虫

    一 使用GooSeeker软件进行爬虫 xff0c 它是进行读取大量数据的 xff0c 都出来的数据是xml格式的 xff0c 可以通过office excel将xml格式转化成表格形式 1 爬虫取数据 xff1a 1 xff09 先要在网
  • 51单片机--堆栈

    堆栈的作用是用在调用子程序或中断程序时保护现场 xff0c 因为51单片机的寄存器是十分有限的 xff0c 而相对来说普通数据存储器更充足 xff0c 通过入栈将寄存器中的内容临时保存到堆栈中 xff08 普通数据存储器 xff09 xff
  • Git-命令行-使用 Tag 标记你的代码

    前言 正文开始之前 xff0c 我想我们需要弄明白几个问题 xff1a tag 是什么 xff1f 使用tag 的好处 xff1f tag 和 branch 的区别以及使用场景 xff1f tag 是什么 xff1f tag 翻译过来是标签
  • 光流Zoom In and Out开发记录

    简介 2018年7月 xff0c 合作伙伴提出了一个想法 使用光流算法估计相机前后移动 经典的光流算法 xff08 Lukas Kanade算法 xff09 适用于相机左右和上下移动 xff0c 但是在相机前后移动时 xff0c 虽然各个像
  • 关于电子设计大赛无人机题的学习笔记(2)飞控代码分析和高精度IMU传感器的使用

    飞控代码分析和高精度IMU传感器的使用 最近着急备赛很多文档只是处于零零散散状态没办法细节的整理出来专门放一份 xff0c 等比赛结束会统一整理 xff0c 现在只能先放一些研发过程中的技术文档上来了 目前我们的调试进度是 xff0c 稳定
  • 关于电子设计大赛无人机题的学习笔记(3)常用设备总线的使用方法(IIC)

    关于电子设计大赛无人机题的学习笔记 3 常用设备设备总线的使用方法 IIC xff09 1 吐槽及日志 首先 电赛因为疫情原因推迟了 xff0c emmm在我看来跟取消了差不了太多 xff0c 这一波小系列的学习记录暂时只能在第三篇就停止更
  • undefined reference to `pthread_create‘问题的解决 cmake新方法解决

    最近在写相机SDK xff0c 测试中出现了一个小问题undefined reference to 96 pthread create 39 其实是缺少库文件 网上大部分介绍使用 lpthread xff0c 但是这个是老版本了 xff0c
  • POST请求返回:401 Unauthorized

    Postman 做接口测试 xff0c 提交请求后 xff0c 模拟获取数据 xff0c 输入入参正确时 xff0c 却返回status 401 Unauthorized 原因 xff1a 是我的token有误 xff0c token是一串
  • Django从header请求头中的Authorization获取token验证数据

    前言 之前使用django开发api接口时 xff0c 约定是要每次请求都要带token这个参数 xff0c 这样很不方便 xff0c 最近学了vue xff0c 也使用了axios xff0c 发现在axios拦截器中可以设置每次请求头中
  • char类型的数字转int

    char的本质 xff1a char The char data type is a single 16 bit Unicode character It has a minimum value of 39 u0000 39 or 0 an
  • Android串口通信

    编前记 今天在刷博客 郭老师 的时候评论区看见有人在聊单片机的串口通信 xff0c 刚好之前做过一个项目通过NFC读取IC门禁卡片的项目所以拿出来分享 复习 一下 xff0c 先讲了解一下什么是串口通信 xff1a 串口通信 xff08 S
  • Studio One 5机架设置一键切换效果通道

    Studio One是当前主流的直播机架软件 xff0c 操作非常方便 xff0c 但是呢默认情况下 xff0c 要切换效果时 xff0c 只能手动关闭一个效果的后 xff0c 再开另一个效果 xff0c 切换效果有点不方便 现在孤狼分享S
  • VScode设置C/C++编译环境详解

    一 xff1a 下载安装C C 43 43 编译器 在windows下有很多集成的编译器 xff0c 我们只是需要使用gcc exe 编译而已 xff0c 所以我们可以随便下 xff0c 这里推荐使用 xff1a MinGW xff1a x
  • 2021校招_大华

    大华面试 xff1a 一面和二面 一面 xff1a 首先自我介绍 1 序列化的使用方式以及情景 2 Springboot的启动过程 3 Mysq中lB 43 树和B树索引区别 xff0c 聚簇索引和非聚簇索引区别 4 Spring中bean
  • 2021校招_海康威视

    2021届海康威视面试 一面 xff1a 1 https与http协议的区别 2 Spring的启动过程 3 Springboot相比较Spring的优点 4 Linux修改文件权限命令 5 项目中所用到的技术 6 Restful风格 7
  • 2021校招_满帮(运满满)

    一面 xff08 电话面 xff09 xff1a 25min 1 询问HashMap相关结构以及原理 2 红黑树的基本结构 xff0c 以及什么时候会LL xff08 左转 xff09 3 Spring如何解决循环依赖的 4 Redis缓存
  • 2021校招_思科

    思科给我发的太晚了 xff0c 十一月份才给我消息 思科一面凉凉 主要是针对你的简历 问到我的主要内容包括 xff1a 数据库设计 xff0c 是否使用到设计模式 xff0c 以及遇到问题如何解决 包括ngnix xff0c redis h
  • 音视频开发之音频基础知识

    音视频开发之音频基础知识 转自https blog jianchihu net av develop audio basis html 什么是声音 介质振动在听觉系统中产生的反应 是一种波 因为是一种波 xff0c 所以我们可以用频率 振幅
  • 机器学习中神经网络,支持向量机以及贝叶斯分类器总结

    第五章神经网络 5 1神经元模型 神经网络中最基本的成分是神经元模型 xff0c 即 简单单元 在 M P神经元模型 中 xff0c 神经元接受收到来自n个其他神经元传递过来的输入信号 xff0c 这些输入信号经过带权重的连接进行传递 xf
  • 机器学习中的降维与度量学习(reduce dimension and metric learning)

    降维与度量学习 k近邻学习 k近邻 k Nearest Neighbor 简称kNN 学习是一种监督学习方法 其工作机制为 xff1a 在样本中 xff0c 根据距离度量找出训练集中临近的k个样本 xff0c 基于这k个样本进行预测 一般