向量大小和归一化(vector magnitude & normalization)、向量范数(vector norm)、标量/向量/矩阵/张量

2023-10-27

一、向量大小

首先一个向量\vec{v}的长度或者大小一般记为\left \| \vec{v} \right \|。上图中的平面向量\vec{v}(x,y)的大小计算如下:

\left \| \vec{v} \right \|=\sqrt{v_x*v_x+v_y*v_y}

空间向量\vec{v}(x,y,z)的大小计算如下:

\left \| \vec{v} \right \|=\sqrt{v_x*v_x+v_y*v_y+v_z*v_z}

n维复向量\vec{v}(x_1,x_2,...,x_n)的大小计算如下:

\left \| \vec{v} \right \|=\sqrt{v_1*v_1+v_2*v_2+...+v_n*v_n}

二、向量归一化

向量归一化即将向量的方向保持不变,大小归一化到1。向量\vec{v}的归一化向量\hat{v}为:

\hat{v}=\frac{\vec{v}}{\left \| \vec{v} \right \|}

三、向量范数

范数是一种加强了的距离或者长度定义,比距离多一个数乘的运算法则。有时候范数可以当距离来理解。

0、L_0范数,为向量\vec{v}的所有元素非0的个数

\left \| \vec{v} \right \|_0=\left \| \bold{v} \right \|_0=\#(v_i|v_i\neq 0)

1、L_1范数,为向量\vec{v}的所有元素绝对值之和:

\left \| \vec{v} \right \|_1=\left \| \bold{v} \right \|_1=\sum_i^n\left | v_i \right |

L_1范数求优化解min\left \| \vec{v} \right \|_1,是想得到一个稀疏解。所以L_1可以实现特征的稀疏(通过权重趋于0实现),去掉一些没有信息的特征,例如在对用户的电影爱好做分类的时候,用户有100个特征,可能只有十几个特征是对分类有用的,大部分特征如身高、体重等可能关系不大,利用L_1范数可以过滤掉。

2、L_2范数,为向量\vec{v}的所有元素的平方和求正根:

\left \| \vec{v} \right \|_2=\left \| \bold{v} \right \|_2=\sqrt{\sum_i^n\left |v_i \right | ^2}

L_2范数求优化解min\left \| \vec{v} \right \|_2,通常用来做优化目标函数的正则化项,防止模型为了迎合训练集而过于复杂,造成过拟合的现象,用来提高模型的泛化能力。

3、L_p范数,为向量\vec{v}的所有元素的p次方之和开p次方的正根:

\left \| \vec{v} \right \|_p=\left \| \bold{v} \right \|_p=\sqrt[p]{\sum_i^n\left |v_i \right |^p}

4、L_{\infty}范数,为向量\vec{v}的所有元素绝对值的最大值:

\left \| \vec{v} \right \|_{\infty}=\left \| \bold{v} \right \|_{\infty}=max_i\left | v_i \right |

四、标量(Scalar)、向量(Vector)、矩阵(Matrix)、张量(Tensor)

An example of a scalar, a vector, a matrix and a tensor

标量是一个数值(1):

x=2

向量是一列数值(1*n),有大小和方向:

\textbf{\textit{x}} =\begin{bmatrix} x_1 \\ x_2 \\ \cdots \\ x_n \end{bmatrix}

矩阵是二维的两列数值(m*n),表示一个面:

\textbf{\textit{A}}= \begin{bmatrix} A_{1,1} & A_{1,2} & \cdots & A_{1,n} \\ A_{2,1} & A_{2,2} & \cdots & A_{2,n} \\ \cdots & \cdots & \cdots & \cdots \\ A_{m,1} & A_{m,2} & \cdots & A_{m,n} \end{bmatrix}

张量是多维的多列数值(m*n*h),可以表示多维空间(如3维,4维,5维...)。

注意,标量可以看成0维张量,向量看成1维张量,矩阵看成2维张量。

对于矩阵、张量的范数计算,可以分别拉平到向量应用向量范数计算公式得到。

import tensorflow as tf
import numpy as np

>>> v=tf.ones([3,3])
>>> v
<tf.Tensor: id=2, shape=(3, 3), dtype=float32, numpy=
array([[1., 1., 1.],
       [1., 1., 1.],
       [1., 1., 1.]], dtype=float32)>

>>> v1=tf.norm(v,ord=1)
>>> v1
<tf.Tensor: id=6, shape=(), dtype=float32, numpy=9.0>

>>> v2=tf.norm(v,ord=2)
>>> v2
<tf.Tensor: id=11, shape=(), dtype=float32, numpy=3.0>

>>> v3=tf.norm(v,ord=3)
>>> v3
<tf.Tensor: id=19, shape=(), dtype=float32, numpy=2.0800838>

>>> vinf=tf.norm(v,ord=np.inf)
>>> vinf
<tf.Tensor: id=23, shape=(), dtype=float32, numpy=1.0>

五、Keras的regularizers

1、L_1

#L1 class

tf.keras.regularizers.l1(l1=0.01, **kwargs)

The L1 regularization penalty is computed as: loss = l1 * reduce_sum(abs(x))

2、L_2

#L2 class

tf.keras.regularizers.l2(l2=0.01, **kwargs)

The L2 regularization penalty is computed as: loss = l2 * reduce_sum(square(x))

3、L_1\&L_2

#l1_l2 function

tf.keras.regularizers.l1_l2(l1=0.01, l2=0.01)

Create a regularizer that applies both L1 and L2 penalties.

The L1 regularization penalty is computed as: loss = l1 * reduce_sum(abs(x))

The L2 regularization penalty is computed as: loss = l2 * reduce_sum(square(x))

引用

【1】https://www.khanacademy.org/computing/computer-programming/programming-natural-simulations/programming-vectors/a/vector-magnitude-normalization

【2】https://hadrienj.github.io/posts/Deep-Learning-Book-Series-2.1-Scalars-Vectors-Matrices-and-Tensors/

【3】https://www.overleaf.com/learn/latex/Bold,_italics_and_underlining

【4】https://blog.csdn.net/nanhuaibeian/article/details/103727168

【5】https://blog.csdn.net/a493823882/article/details/80569888

【6】https://keras.io/api/layers/regularizers/

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

向量大小和归一化(vector magnitude & normalization)、向量范数(vector norm)、标量/向量/矩阵/张量 的相关文章

随机推荐

  • 安时积分法计算soc程序_BMS(电池管理系统)第四课——核心!!!SOC算法开发...

    SOC基本定义 Qmax 电池最大允许充放电容量 可理解为额定容量 SOH Ieff 充放电电流或自放电电流 充电为负 充放电的库伦效率 目前行业算法方案列表如下 其中安时积分 开路电压 人工神经网络 卡尔曼滤波四中方案通用性比较高 重点介
  • 【论文解读-未完成】-A Survey of Transformers-【一篇论文了解整个Transformers王国】

    论文链接 https arxiv org abs 2106 04554 论文时间 202106 论文单位 复旦大学 论文长度 40页 论文目录 A Survey of Transformers Transformers的文献综述 1 INT
  • 自动化测试框架总结

    自动化测试框架流程图 自动化测试框架模块 配置文件读取模块 日志模块 测试数据读取模块 测试执行模块 测试结果更新模块 异常处理模块 屏幕截图模块 自动化框架模块功能说明 配置文件读取模块 模块的主要功能是把测试项目的公共配置读取到脚本里
  • 智能家居_串口通信编程

    模拟串口 我要使用串口开发 那么 安卓系统必须要Root 让我有超级权限 串口就是文件 首先要打开串口文件 我们没有实体开发主板 使用虚拟串口驱动来代替实体开发主板 模拟android主板上的2个串口 模拟 开发板 插入了电脑 电脑就会显示
  • 2020东南大学网络空间安全保研夏令营(预推免)经验

    2020东南大学网安院保研夏令营 预推免 经验 前言 个人情况 本科某双非双一流CS专业 GPA 1 230 国家级省级奖项各有四五项 校级奖项若干 奖学金若干 项目只有一个大创 无论文 东大网安院说来话长 本来是不想报的 然鹅计算机学院的
  • mavne install 报错org.apache.maven.surefire.util.SurefireReflectionException: java.lang.reflect.Invoca...

    maven install 报错 org apache maven surefire util SurefireReflectionException java lang reflect InvocationTargetException
  • java校验文件路径正则表达式_正则表达式判断是否是合法路径

    在页面前端使用一个文本框 输入条件是 c test 在java中File判断是可以通过的 可以创建的 File file new File filePath if file exists file mkdir 说明是一个合法的路径 但是在w
  • 哈师大计算机学院宿舍,新生攻略

    原标题 新生攻略 哈师大所有的 秘密 都在这了 你好 我是哈师大17级的新生 我想全面的了解一下咱们学校 应该去哪了解呀 这你可算是问对人了 听说最近哈尔滨师范大学学生会的官方微信平台出了非常全的新生攻略呢 快关注它们的公众号 hsdxsh
  • Linux系列

    测试代码如下 是一个输出 Tinywan字符串与循环轮数的死循环程序 每输出一行就休眠1秒 原始输出 前台执行该程序运行效果 程序每隔一秒会在终端输出一个字符串 此时如果键入 Ctrl C 程序会收到一个 SIGINT信号 如果不做特殊处理
  • APT 攻击溯源方法

    概述 当今世界正值百年未有之大变局 网络空间成为继陆 海 空 天之后的第五大疆域 安全威胁也随之延伸至网络空间 没有网络安全就没有国家安全 在新时代网络空间安全已经上升至国家安全的高度 高级持续性威胁 Advanced Persistent
  • #PCIE# PCIE基础知识篇(3)

    写在前面 本文章转载自老狼知乎 感谢分享 随着AMD新一代CPU的发布 PCIe 4 0 Gen4 也进入了人们的视线 然而Intel随后宣传PCIe 4 0对消费市场用处不大 AMD则反讽Intel吃不到葡萄说葡萄酸 正在吃瓜群众搬板凳看
  • could not find an available, non-overlapping IPv4 address pool among the defaults to assign to the n

    如果你在创建自定义网络时 docker network create driver bridge my net出现下面的提示 Error response from daemon could not find an available no
  • 【Vue3项目】登录注册--双Token机制

    目录 前言 什么是双Token机制 双Token的实现流程 前言 最近同项目的伙伴告诉我们一个 新词汇 双Token登录机制 emmmmm 确实没了解过 据说是在实现token长期有效的同时 防止token被第三方盗用 提高用户信息的安全性
  • ReactNative系列之十三WebStorm的JSX语法配置及自动补全设置

    1 开发ReactNative常用工具 WebStorm Sublime Atom 2 配置WebStorm的ReactNative语法 a 下载 git clone https github com virtoolswebplayer R
  • ES 搜索20 (function_score 和 field_value_factor 自定义评分)

    自定义评分 设想有个网站供用户发布博客并且可以让他们为自己喜欢的博客点赞 我们希望将更受欢迎的博客放在搜索结果列表中相对较上的位置 同时全文搜索的评分仍然作为相关度的主要排序依据 可以简单的通过存储每个博客的点赞数来实现它 在搜索时 可以将
  • DHCP协议及其实验(eNSP)

    目录 一 DHCP 1 1 DHCP作用 1 2 DHCP地址池 1 3 DHCP报文类型 1 4 DHCP工作原理 对DHCP工作原理的思考 1 5 DHCP租期更新 1 6 DHCP重绑定 1 7 IP地址释放 二 DHCP实验 2 1
  • C++控制台RPG游戏:对话系统

    具体实现思路 CTalk类继承窗口基类 里面封装了updata 和onRander 方法 里面包含了结构体SArrTalk m pArrTalk 用来存对话数据 CTalk类控制对话的进行 以及数据的渲染 而对话的内容则存在相应的文件之中
  • 使用OpenCV,Haar级联检测器进行面部、眼睛、嘴部检测

    使用OpenCV Haar级联检测器进行面部 眼睛 嘴部检测 1 效果图 2 原理 2 1 Haar级联是什么 2 2 Haar级联的问题与局限性 2 3 Haar级联预训练的模型 3 源码 3 1 图像检测 3 2 实时视频流检测 参考
  • 【进阶】使用Excel进行回归分析,预测真实值

    预备阅读 进阶 使用Excel进行相关分析 前言 昨天学习了Excel中的相关分析 在数据分析中 相关分析和回归分析关系紧密 今天来学习下Excel中的回归分析 回归分析 回归分析 regressionanalysis 是确定两种或两种以上
  • 向量大小和归一化(vector magnitude & normalization)、向量范数(vector norm)、标量/向量/矩阵/张量

    一 向量大小 首先一个向量的长度或者大小一般记为 上图中的平面向量的大小计算如下 空间向量的大小计算如下 维复向量的大小计算如下 二 向量归一化 向量归一化即将向量的方向保持不变 大小归一化到1 向量的归一化向量为 三 向量范数 范数是一种