模式识别之分类器

2023-11-11

常见分类器介绍

1、SVM分类器(监督学习分类器)

答:训练样本必须先标识不同类别,然后进行训练。SVM算法就是找一个超平面,对于已经被标记的训练样本,SVM训练得到一个超平面,使得两个类别训练集中距离超平面最近的样本之间的垂直距离要最大(也就是如下图所示的两个虚线距离最大)。如下图所示,就是将两种不同类别的样本特征分隔开,且分割面要在最优分隔位置。


例如,有两个样本点,第一个点为正样本,它的特征向量是(0,-1);第二个点为负样本,它的特征向量是(2,3),从这两个样本点组成的训练集构建一个线性SVM分类器:两个样本之间的中点向量是(1,1),样本点之间的连线斜率为2,由于分割线与样本连线垂直且经过中点,那么样本SVM分割面方程为:x+2y=3,如图:


2、KNN分类器(监督学习分类器)

答:(1)定义:KNN即K最近邻,是最简单的机器学习算法之一。已知训练样本必须先标识,然后进行训练得到未知样本分类。对于未知样本,按照某种计算距离找出它在训练集中的k个最近邻(监督学习:k个最邻近样本的分类已知),如果k个近邻中多数样本属于哪个类别,就将它判决为那一个类别。

由于采用k投票机制,所以能够减小噪声的影响。该方法在确定分类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。由于KNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其他方法更为适合。

(2)算法流程:

①准备数据,对数据进行预处理;

②选用合适的数据结构存储训练数据和测试元组;

③设定参数,如k;

④维护一个大小为k的的按距离由大到小的优先级队列,用于存储最近邻训练元组。随机从训练元组中选取k个元组作为初始的最近邻元组,分别计算测试元组到这k个元组的距离,将训练元组标号和距离存入优先级队列;

⑤遍历训练元组集,计算当前训练元组与测试元组的距离,将所得距离L 与优先级队列中的最大距离Lmax;

⑥ 进行比较。若L>=Lmax,则舍弃该元组,遍历下一个元组。若L < Lmax,删除优先级队列中最大距离的元组,将当前训练元组存入优先级队列;

⑦遍历完毕,计算优先级队列中k 个元组的多数类,并将其作为测试元组的类别;

⑧测试元组集测试完毕后计算误差率,继续设定不同的k值重新进行训练,最后取误差率最小的k 值。

具体如下:

如果K=3,那么离绿色点最近的有2个红色三角形和1个蓝色的正方形,这3个点投票,于是绿色的这个待分类点属于红色的三角形 ;
如果K=5,那么离绿色点最近的有2个红色三角形和3个蓝色的正方形,这5个点投票,于是绿色的这个待分类点属于蓝色的正方形 ;

(3)特别适合于多分类问题(multi-modal,对象具有多个类别标签), kNN比SVM的表现要好。不足之处是计算量较大、样本不平衡时分类效果差(如一个类的样本容量很大,而其他类样本容量很小时,有可能导致当输入一个新样本时,该样本的K个邻居中大容量类的样本占多数。)。

针对这些缺陷,出现了改进方法:1)训练前对数据进行预处理,剔除关联性小的数据(针对计算量大的改进);2)采用权值的方法(和该样本距离小的邻居权值大)来改进(不平衡时分类效果差);

3、K-means分类器(非监督学习分类器)

答:(1)定义:设定参数k,然后将事先输入的n个数据对象划分为k个聚类,使得所获得的每个聚类满足内部对象相似度较高,而不同聚类中的对象相似度较小。注:这个是不需要事先标记的,所以是非监督学习。

(2)算法描述:

①适当选择k个类的初始中心; 

②在第m次迭代中,对任意一个样本,求其到k个类中心的距离,将该样本归到距离最短的那个类; 

③利用均值方法更新该类的中心; 

④对于所有的C个聚类中心,如果利用(2)(3)的迭代法更新后,值保持不变,则迭代结束;否则继续迭代。

(3)缺点:

①聚类中心的个数K 需要事先给定,但在实际中这个 K 值的选定是非常难以估计的,很多时候,事先并不知道给定的数据集应该分成多少个类别才最合适;
②K-means需要人为地确定初始聚类中心,不同的初始聚类中心可能导致完全不同的聚类结果(可以使用K-means++算法来解决)。

(4)改进型算法——K-Means++

k-means++算法就是用来改进K-Means算法的K个类中心不好选择的缺陷。它选择初始中心的基本思想就是:初始的聚类中心之间的相互距离要尽可能的远。

4、KNN和K-Means的区别

答:如下表:


5、有关分类算法的准确率,召回率,F1 值的描述

答:对于二类分类问题常用的评价指标是:精准度(precision)与召回率(recall)。

通常以关注的类为正类,其他类为负类,分类器在测试数据集上的预测或正确或不正确,4种情况出现的总数分别记作:
TP——将正类预测为正类数
FN——将正类预测为负类数
FP——将负类预测为正类数
TN——将负类预测为负类数

由此:
精准率定义为:P = TP / (TP + FP)
召回率定义为:R = TP / (TP + FN)
F1值定义为: F1 = 2 P*R / (P + R)

精准率和召回率和F1取值都在0和1之间,精准率和召回率高,F1值也会高。

关于精准率和召回率的理解举例:

假设一共有10篇文章,里面4篇是你要找的。根据你某个算法,找到其中5篇,但是实际上在这5篇里面,只有3篇是真正你要找的。那么你的这个算法的precision是3/5=60%;这个算法的recall是3/4=75%,也就是一共有用的这4篇里面,该算法只找到了其中3篇。

注:在信息检索领域,精确率和召回率又被称为查准率和查全率:

查准率=检索出的相关信息量 / 检索出的信息总量;
查全率=检索出的相关信息量 / 系统中的相关信息总量;

6、核函数

答:核函数是一个特征分类工具,为了使特征更容易分离或更好的结构化,把低维特征数据映射到高维数据的工具。比如,一组特征是以一维线段形式混合存在的,无法使用分割面分割,就可使用核函数将组特征转化为2维或更高维形式的组合,从而使得分割得以实现。举例,如图:

本来是二维的数据,现在我们把它映射的高维。这里也需要说明下,低维到高维,维数没有一个数量上的标准,可能就是无限维到无限维。

Mercer 定理:任何半正定的函数都可以作为核函数;

几种常用的核:

1) 线性核
线性内核是最简单的内核函数。 它由内积<x,y>加上可选的常数c给出。 使用线性内核的内核算法通常等于它们的非内核对应物,即具有线性内核的KPCA与标准PCA相同:

2)多项式核函数

多项式核是非固定内核。 多项式内核非常适合于所有训练数据都归一化的问题。表达式:k(x,y)=(αx ^ T y + c)^ d;

可调参数是斜率α,常数项c和多项式度d。

3)高斯核

4)指数的内核

5)拉普拉斯算子核


7、判别式模型与生成式模型的区别

答:生成式模型(Generative Model)与判别式模型(Discrimitive Model)是分类器常遇到的概念,它们的区别在于:对于输入x和类别标签y,生成式模型估计它们的联合概率分布P(x,y),判别式模型估计条件概率分布P(y|x)。生成式模型可以根据贝叶斯公式得到判别式模型,但反过来不行。

生成式模型:

判别式分析

朴素贝叶斯

K近邻(KNN)

混合高斯模型

隐马尔科夫模型(HMM)

贝叶斯网络

Sigmoid Belief Networks

马尔科夫随机场(Markov Random Fields)

深度信念网络(DBN)

判别式模型:

线性回归(Linear Regression)

逻辑回归(Logistic Regression)

神经网络(NN)

支持向量机(SVM)

高斯过程(Gaussian Process)

条件随机场(CRF)

CART(Classification and Regression Tree)


8、模式识别分类中,先验概率未知时的处理方法

答:有两种处理方式,如下(1)(2)所示:

(1)使用N-P决策:

在贝叶斯决策中,对于先验概率p(y),分为已知和未知两种情况:

1)p(y)已知,直接使用贝叶斯公式求后验概率即可; 

2)p(y)未知,可以使用聂曼-皮尔逊决策(N-P决策)来计算决策面。 

(2)使用最大最小损失规则:

最大最小损失规则主要作用就是解决使用最小损失规则时先验概率未知或难以计算的问题。



9、在分类问题遇到正负样本数据量不等的情况的处理方法

答:机器学习分类问题中的不均衡问题是指正负样本相差10倍以上,解决方法一般有:重采样、欠采样、调整权值。

比如正样本为10w条数据,负样本只有1w条数据,可以采取以方法处理:

1)将负样本重复10次,生成10w样本量,打乱顺序参与分类(可视为重采样变形形式);

2)从10w正样本中随机抽取1w参与分类(欠采样);

3)将负样本每个权重设置为10,正样本权重为1,参与训练过程(调整权值)。



10、机器学习的降维方法

答:机器学习中常见的特征降维方法包括:Lasso,PCA,小波分析,LDA,奇异值分解SVD,拉普拉斯特征映射,SparseAutoEncoder,局部线性嵌入LLE,等距映射Isomap。

LASSO:通过参数缩减达到降维的目的;

主成分分析PCA(Principal Component Analysis):又称为霍特林变换(K-L变换),是一种常用的数据分析方法。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维;

小波分析:小波分析有一些变换的操作降低其他干扰可以看做是降维;

线性判别式分析(Linear Discriminant Analysis):简称为LDA,也称为Fisher线性判别(Fisher Linear Discriminant,FLD),是模式识别的经典算法,在1996年由Belhumeur引入模式识别和人工智能领域;
拉普拉斯映射:拉普拉斯特征映射将处于流形上的数据,在尽量保留原数据间相似度的情况下,映射到低维下表示;
深度学习SparseAutoEncoder 稀疏自编码就是用少于输入层神经元数量的隐含层神经元去学习表征输入层的特征,相当于把输入层的特征压缩了,所以是特征降维;
矩阵奇异值分解SVD:在PCA算法中,用到了SVD,类似PCA,可以看成一类;
LLE局部线性嵌入(Locally linear embedding,LLE):是一种非线性降维算法,它能够使降维后的数据较好地保持原有流形结构。LLE可以说是流形学习方法最经典的工作之一。很多后续的流形学习、降维方法都与LLE有密切联系;
Isomap等距映射:Isomap是一种非迭代的全局优化算法,通过一种原本试用于欧式空间的算法MDS,达到降维的目的。

11、常见的机器学习算法

答:机器学习算法通常可以被分为三大类 ——监督式学习,非监督式学习和强化学习(又叫“半监督学习”)

监督式学习主要用于一部分数据集(训练数据)有某些可以获取的熟悉标签,但剩余的样本缺失并且需要预测的场景。

非监督式学习主要用于从未标注数据集中挖掘相互之间的隐含关系。

强化学习介于两者之间 —— 每一步预测或者行为都或多或少有一些反馈信息,但是却没有准确的标签或者错误提示。

监督学习分为两大类:回归分析和分类

回归分析(Regression Analysis):如果拿二维平面来说,就是对已经存在的点(训练数据)进行分析,拟合出适当的函数模型y=f(x),这里y就是数据的标签,而对于一个新的自变量x,通过这个函数模型得到标签y;

分类(Classification):训练数据是特征向量与其对应的标签,同样要通过分析特征向量,对于一个新的向量得到其标签。
回归分析与分类区别其实就是数据的区别就是回归是针对连续数据,分类是针对离散数据。

非监督式学习也可分为两大类:聚类问题和关联问题
聚类问题:
聚类学习问题指的是我们想在数据中发现内在的分组,比如以购买行为对顾客进行分组。常见的聚类算法有:基于类心的聚类算法、基于连接的聚类算法、基于密度的聚类算法、概率型算法、降维算法、神经网络/深度学习;
关联问题:关联问题学习问题指的是我们想发现数据的各部分之间的联系和规则,例如购买X物品的顾客也喜欢购买Y物品。

常用的机器学习算法:决策树,随机森林算法,逻辑回归,SVM分类器,朴素贝叶斯分类器,K最近邻算法(KNN),K-Means算法,Adaboost 算法,神经网络,隐马尔可夫、聚类算法;

其中,

监督学习算法:决策树,随机森林算法,逻辑回归,最小二乘法,SVM分类器,朴素贝叶斯分类器,KNN,Adaboost 算法,神经网络,马尔可夫

无监督学习算法:K-Means算法、主成分分析(PCA)、奇异值分解(SVD)、聚类算法、独立成分分析(ICA)。

12、常见的类概率求解问题

答:举例:
解析:概率问题基本上都是贝叶斯和全概率互相结合求解,他们之间往往可以通过条件概率建立联系。
本题中,要判断 xi 属于w1,还是w2,就是判断 p(w1 | xi) 和 p(w2 | xi)的大小关系,哪个概率大就属于对应的类别。即在xi已经发生的情况下,xi 属于哪个类别(w1 ,w2)的可能性更大:
p(w1 | xi) = p(xiw1) / p(xi) = p(xi | w1) * p(w1) / p(xi) = 0.6*(2 - xi) / p(xi) // 因为xi都在 (1,2)范围
p(w2 | xi) = p(xiw2) / p(xi) = p(xi | w2) * p(w2) / p(xi) = 0.4*(xi - 1) / p(xi) // 因为xi都在 (1,2)范围
上面两等式相减,得:
delta = p(w1 | xi) - p(w2 | xi) = (1.6 - xi) / p(xi);
所以,在上诉样本中,大于1.6的,属于w2,小于1.6的,属于w1。
补充一下贝叶斯公式:

13、机器学习中的过拟合

答:机器学习训练中过拟合发生的原因有两点:
(1)训练集偏少,造成训练特征不具有代表性;
(2)网络过于复杂,造成训练获取的特征过于苛刻;
解决方法对应也是两个方向:
(1)增加训练集;
(2)简单化训练网络,包括:
①正则化,一般有L1正则与L2正则等;
②early stopping,即在发生过拟合的临界点前提前停止;
③减少神经网络的隐含层节点数,减小模型复杂度。

14、PCA——主成分分析法

答:PCA的目的是降维,就是“降噪”和“去冗余”
“降噪”的目的就是使保留下来的维度间的相关性尽可能小,而“去冗余”的目的就是使保留下来的维度含有的“能量”即方差尽可能大。
有什么数据结构能同时表现不同维度间的相关性以及各个维度上的方差呢?
自然是协方差矩阵。协方差矩阵的主对角线上的元素是各个维度上的方差(即能量),其他元素是两两维度间的协方差(即相关性)。
(1)先来看“降噪”,让保留下的不同维度间的相关性尽可能小,也就是说让协方差矩阵中非对角线元素都基本为零。达到这个目的的方式就是矩阵对角化。
(2)对于“去冗余”,对角化后得到的矩阵,其对角线上是协方差矩阵的特征值,它表示各个维度本身应该拥有的能量。通过对角化后,剩余维度间的相关性已经减到最弱,已经不会再受“噪声”的影响了,故此时拥有的能量应该比先前大了。对角化后的协方差矩阵,对角线上较小的新方差对应的就是那些该去掉的维度。所以我们只取那些含有较大能量(特征值)的维度,其余的就舍掉即可。(3)PCA的本质:其实就是对角化协方差矩阵 ,目的是让维度之间的相关性最小(降噪),保留下来的维度的能量最大(去冗余)。
(3)主要 思想:寻找表示数据分布的最优子空间(降维,可以去相关)。

其实就是取协方差矩阵前s个最大特征值对应的特征向量构成映射矩阵,对数据进行降维。


具体可以参考:http://lanbing510.info/public/file/posts/pca.doc

15、时间序列模型

答:(1)AR模型是一种线性预测,即已知N个数据,可由模型推出第N点前面或后面的数据(设推出P点),所以其本质类似于插值;
(2)MA模型(moving average model)滑动平均模型,模型参量法谱分析方法之一;
(3)ARMA模型(auto regressive moving average model)自回归滑动平均模型,模型参量法高分辨率谱分析方法之一。这种方法是研究平稳随机过程有理谱的典型方法。它比AR模型法与MA模型法有较精确的谱估计及较优良的谱分辨率性能,但其参数估算比较繁琐;
(4)GARCH模型称为广义ARCH模型,是ARCH模型的拓展, GARCH对误差的方差进行了进一步的建模,特别适用于波动性的分析和 预测。

16、三种常见的概率函数

答:概率质量函数 (probability mass function,PMF)是离散随机变量在各特定取值上的概率;
概率密度函数(probability density function,PDF )是对连续随机变量定义的,本身不是概率,只有对连续随机变量的取值进行积分后才是概率;
累积分布函数(cumulative distribution function,CDF) 能完整描述一个实数随机变量X的概率分布,是概率密度函数的积分。对於所有实数x ,与pdf相对。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

模式识别之分类器 的相关文章

  • 【机器学习】浅谈 模型大小与推理速度

    目录 一 前言 二 常用模型大小评估指标 2 1 计算量 2 2 参数量 2 3 访存量 2 4 内存占用 2 5 小结 三 计算量越小 模型推理就越快吗 3 1 计算密度与 RoofLine 模型 3 2 计算密集型算子与访存密集型算子
  • 深度学习目标检测-交通标志检测web界面

    深度学习目标检测 交通标志检测web界面 今天我们一起学习利用flask框架将深度学习检测封装为一个界面系统 该界面是基于之前写的一篇文章的训练模型进行检测 自动驾驶目标检测项目实战 二 基于Faster RCNN的交通标志检测 效果 首先
  • 机器学习-线性回归-sklearn

    线性模型 Scikit Learn中的线性回归 from sklearn linear model import LinearRegression import numpy as np import matplotlib as mpl im
  • 数据导入的三种方法

    1 定量研究 定量研究最重要的是如何提出问题 而不是数据和统计方法 谢宇 定量研究是分析趋势 是找寻和社会相适应的一个概括视角 这才是定量研究 刘德寰 2 数据导入 训练机器学习模型时 用到的大量数据都是以CSV的格式来存储 或者能方便转化
  • 机器学习——特征工程和评价指标

    0 前言 首先学习特征工程这部分知识之前 要对机器学习的算法用过使用 1 特征工程 就机器学习的数据而言 特征就是数据的列名 有多少列 就有多少个维度的特征 就定义而言 特征是指数据中抽取出来对结果预测有用的信息 特征工程就是使用一些技巧来
  • 深度学习实战项目(三)-行人检测重识别yolov5+reid(跑通+界面设计)

    行人检测重识别yolov5 reid 跑通 界面设计 参考源代码 github 权重文件 根据github上面的网盘进行权重下载 检测 将 ReID resnet50 ibn a pth放在person search weights文件下
  • 机器学习之数据准备

    1 数据预处理的理由 在开始训练机器学习的模型之前 需要对数据进行预处理 这是一个必须的过程 不同算法对数据有不同的假设 需要按照不同的方式转换数据 这样做的目的是为了提高模型的准确度 2 数据转换的方法 调整数据尺度 正态化数据 二值数据
  • PyTorch知识点总结100问

    PyTorch知识点总结 什么是PyTorch 它有什么特点和优势 PyTorch中的张量 Tensor 是什么 它与NumPy中的数组有何区别 请介绍一下PyTorch的执行流程 PyTorch中的autograd是什么 它有什么作用 请
  • 机器学习——图片处理应用(人脸补全)

    0 前言 本文内容是机器学习算法回归预测的应用 其中数据集主要来自sklearn库自带的人脸数据 目的是通过KNN回归 线性回归 岭回归算法通过人物的左半张脸预测人物的右半张脸 意义1 通过该项目掌握图片数据在机器学习当中的处理方法 意义2
  • 机器学习——生成分类数据的坐标系边界需要用到的技术方法

    0 前言 如果遇到一种应用场景需要将x轴数据和y轴数据所有点映射到坐标系中 需要得到坐标系中x和y映射的坐标点 就要用到meshgrid把x和y映射到坐标系中 然后把得到的结果用ravel把结果转成一维的 用np c 把x数据和y数据堆叠在
  • 机器学习——决策树/随机森林

    0 前言 决策树可以做分类也可以做回归 决策树容易过拟合 决策树算法的基本原理是依据信息学熵的概念设计的 Logistic回归和贝叶斯是基于概率论 熵最早起源于物理学 在信息学当中表示不确定性的度量 熵值越大表示不确定性越大 ID3算法就是
  • 图神经网络基础(part 1)

    文章目录 一 图的基本概念 二 简易图谱论 2 1 拉普拉斯矩阵 2 2 拉普拉斯二次型 2 3 拉普拉斯矩阵与图扩散 2 4 图论傅里叶变换 一 图的基本概念 对于接触过数据结构和算法的人来说 图并不是一个陌生的概念 一个图 Graph
  • 机器学习之单变量线性回归

    1 线性回归基础概念 回归模型 regression model 数据集 包含feature 输入变量 和与之对应的target 输出变量 训练集 training set 输入数据 x feature or input feature 输
  • 模式识别之分类器

    常见分类器介绍 1 SVM分类器 监督学习分类器 答 训练样本必须先标识不同类别 然后进行训练 SVM算法就是找一个超平面 对于已经被标记的训练样本 SVM训练得到一个超平面 使得两个类别训练集中距离超平面最近的样本之间的垂直距离要最大 也
  • Python爬虫获取Csdn文章

    request获取html 安装 pip install requests 使用 import requests HTTP请求 GET POST PUT DELETE HEAD OPTIONS get res requests get ht
  • 使用PlotNeuralNet绘制深度学习网络图的基本操作(二)

    使用PlotNeuralNet绘制深度学习网络图的基本操作 二 接下来我们利用pycharm来绘制当中我们的神经网络模型架构 目标是直接将 tex文件生成为pdf和png 我在学习的过程中参考了一些学习视频 觉得这个up主讲的还不错 1 P
  • 【深度学习】详解 Swin Transformer (SwinT)

    目录 摘要 一 介绍 二 原理 2 1 整体架构 2 1 1 Architecture 2 1 2 Swin Transformer Block 2 2 基于移位窗口的自注意力 2 2 1 非重叠局部窗口中的自注意力 2 2 2 在连续块中
  • 机器学习之多元线性回归

    1 多元线性回归模型 定义 具有多个特征的线性回归模型 多元线性回归模型 见下图 多元线性回归总结 参数 模型 损失函数 梯度下降算法 见下图 注意 梯度下降算法每次都是同时更新wj和b 2 多维特征 多维特征 x1 x2 xn 其中xj表
  • 图谱论学习—拉普拉斯矩阵背后的含义

    目录 一 为什么学习拉普拉斯矩阵 二 拉普拉斯矩阵的定义与性质 三 拉普拉斯矩阵的推导与意义 3 1 梯度 散度与拉普拉斯算子 3 2 从拉普拉斯算子到拉普拉斯矩阵 一 为什么学习拉普拉斯矩阵 早期 很多图神经网络的概念是基于图信号分析或图
  • 机器学习实战项目总结

    1 预测模型新项目模板 机器学习是针对数据进行自动挖掘 找出数据的内在规律 并应用这个规律来预测新数据 一个很好的实践机器学习项目的方法 使用从UCI机器学习仓库链接 获取的数据集开启一个机器学习项目 分类或回归模型的机器学习项目可以分成以

随机推荐

  • 搜索功能测试点汇总

    前提 1 明确搜索入口 2 明确搜索条件 3 明确搜索逻辑 一 界面测试 搜索框UI显示正常 布局合理 搜索框默认的搜索icon 末尾处的X按钮等等 搜索页面布局合理 无错别字 搜索出的结果展示 布局合理 已查看过的结果 是否要做特殊 如置
  • cloudstack guestnetwork vpc ingress/ergess介绍

    cloudstack的advance网络中可以创建的network如下 guestnetwork IsolatedNetwork vpc vpnCustomer gateway 这个应该不算一个网络 只是连接点 1 guestnetwork
  • mac下eclipse配置tomcat

    1 到 apache官方主页 http tomcat apache org 下载 Mac 版本的完整 tar gz文件包 解压拷贝到 Library 目录下 并命名为Tomcat 其他目录也可以 我这就以 Library做讲解 2 打开终端
  • 基于Java API 方式使用Java kafka在IDEA创建依赖

    在idea创建工程Maven 在pom xml添加如下依赖
  • Java编写的图书管理系统,窗体版本-003

    今天为大家分享一个java语言编写的图书管理程序 003 目前系统功能已经很全面 后续会进一步完善 整个系统界面漂亮 有完整得源码 希望大家可以喜欢 喜欢的帮忙点赞和关注 一起编程 一起进步 开发环境 开发语言为Java 开发环境Eclip
  • 数据库第十章——数据库恢复技术

    第十章 数据库恢复技术 文章目录 第十章 数据库恢复技术 一 事务的基本概念 一 基本概念 二 特性 二 数据库恢复概述 三 故障的种类 四 恢复的实现技术 如何建立冗余数据 一 数据转储 二 登记日志文件 五 恢复策略 如何利用冗余数据进
  • ruoyi cloud 用官方自带的工具更换包名出现的问题与解决办法

    使用ruoyi cloud官方的包生成后 有2点的修改很重要 1是所有带META INF spinrg文件夹的org springframework boot autoconfigure AutoConfiguration imports文
  • oracle10g异常日志查看

    oracle10g异常日志查看 警告日志 oracle product 10 2 0 db 1 admin orcl bdump alert orcl log 监听日志 oracle product 10 2 0 db 1 NETWORK
  • SpringMVC:从入门到精通,7篇系列篇带你全面掌握--三.使用SpringMVC完成增删改查

    Welcome Huihui s Code World 接下来看看由辉辉所写的关于SpringMVC的相关操作吧 目录 Welcome Huihui s Code World 效果演示 一 导入项目的相关依赖 二 添加框架的配置文件 gen
  • 高效的公式提取神器Mathpix snipping Tool+ Mathtype

    推荐一个有用高效的公式提取神器Mathpix snipping Tool Mathtype Mathpix snip是一款功能强大 很有用的公式识别及复制软件 能够将已有的PDF或CAJ等文中的公式 纸上打印的公式 甚至在纸上手写的公式统统
  • 共享计算机后防火墙能开启,Windows XP中防火墙后如何实现共享

    通过开启Windows XP系统中内置的 Internet 连接防火墙 可以让我们安心的上网冲浪 但是在开启了 Internet 连接防火墙 之后 我们就会发现不能正常的使用 网络共享 功能了 Internet 连接防火墙 在阻挡恶意程序的
  • C语言将int类型存入char型

    最近在做算法题的时候遇到了一个问题 就是怎么将int类型的值变成当成字符串 字符数组 类型 例如 有个 int 1024 如何将整形的1024转为字符串类型 String 的1024或者字符数组 char 类型的1024呢 其实可以用ito
  • Vscode快速入门、 插件安装、插件位置、修改vscode默认引用插件的路径、在命令行总配置code、快捷键

    Vscode快速入门 这里写目录标题 安装 插件安装 Ctrl Shift X 插件商店 插件位置 默认位置 修改默认路径 修改vscode默认引用插件的路径 在命令行总配置code 基本操作 安装 Visual Studio Code 官
  • RxJava2+Retrofit2+RxLifecycle3+OkHttp3网络请求封装(动态演示)

    入职公司后 公司要求组件化开发 经过讨论后我将网络请求框架单独进行了封装 不过当时框架里将常用的 util 和 ui 均放入到了共同的 Common 包下 导致里面部分代码耦合 后来为了降低耦合性又将 Common 拆分为了lib comm
  • Python 解决百钱买百鸡问题

    我国古代数学家张丘建在 算经 一书中曾提出过著名的 百钱买百鸡 问题 该问题叙述如下 鸡翁一 值钱五 鸡母一 值钱三 鸡雏三 值钱一 百钱买百鸡 则翁 母 雏各几何 翻译过来 意思是公鸡一个五块钱 母鸡一个三块钱 小鸡三个一块钱 现在要用一
  • Django开发员工管理系统(Part I)

    文章目录 1 准备工作 1 1 创建django项目 1 2 创建app 1 3 配置settings py文件 完成app注册 2 设计数据库表结构 3 在MySQL中生成表 3 1 创建数据库 3 2 修改配置文件 连接MySQL数据库
  • Nature:为啥室温超导支棱不起来

    克雷西 发自 凹非寺量子位 公众号 QbitAI 引发全球热议的LK 99风波告一段落后 Nature的一篇资讯头条再次提及了 室温超导 尽管对超导的热情一直不减 但随着一次又一次被证伪 人们很难不对 室温超导 慎之又慎 Nature的这篇
  • GitHub开源:狗屁不通文章生成器

    万字申请 废话报告 魔幻形式主义大作怎么写 GitHub开源狗屁不通文章生成器了解一下 只要输入一句话 系统就会给你一篇万字长文 查看源代码编写风格清新脱俗 并且毫无算法 简单暴力 直接在关键语句前后加上废话 名人名言 GitHub Git
  • 关系数据库中连接池的机制是什么?

    前提 为数据库连接建立一个缓冲池 1 从连接池获取或创建可用连接 2 使用完毕之后 把连接返回给连接池 3 在系统关闭前 断开所有连接并释放连接占用的系统资源 4 能够处理无效连接 限制连接池中的连接总数不低于或者不超过某个限定值 其中有几
  • 模式识别之分类器

    常见分类器介绍 1 SVM分类器 监督学习分类器 答 训练样本必须先标识不同类别 然后进行训练 SVM算法就是找一个超平面 对于已经被标记的训练样本 SVM训练得到一个超平面 使得两个类别训练集中距离超平面最近的样本之间的垂直距离要最大 也