一文看懂深度学习发展史和常见26个模型

2023-05-16

640?wx_fmt=jpeg

参加 2019 Python开发者日,请扫码咨询 ↑↑↑


来源 | AI部落联盟(ID:AI_Tribe)

作者简介:沧笙踏歌,硕士毕业于北京大学,目前计算机科学与技术博士在读,主要研究自然语言处理和对话系统,擅长使用深度学习和强化学习解决自然语言处理问题。读博前在公司带过NLP算法团队。


本文首先从4个方面(张量、生成模型、序列学习、深度强化学习)追踪深度学习几十年的发展史,然后再介绍主流的26个深度学习模型。


1.深度学习发展史


深度学习的发展史主要是我几个月前看的唐杰老师的学生整理的一个博文,现在找不到博文了。凭借记录加上我的理解,简单写一写吧。如果还有人知道这个博文,欢迎告知,我把链接放上来,供大家更好的学习。(编者注:https://weibo.com/2126427211/GavUQjfLa?type=comment#_rnd1543405779148


主要按最早研究出现的时间,从4个方面来追踪深度学习的发展史。


1.1 张量


1958年Frank提出感知机,但后来被一些学者发现因算力的不足,制约了较大神经网络的计算,导致很长时间发展缓慢。


Fukushima在1979年左右提出Neocognitron,感觉这是卷积和池化的雏形。

Hinton在1986年提出反向传播的思想和多层感知机(BPNN/MLP),有非常大的意义,对未来几十年(可以说直到现在)影响深远。


接下来比较重要的发展是,LeCun在1998年提出LeNet-5,7层的CNN做数字识别。


然后AlexNet在12年在ImageNet夺冠,主要是CNN+Dropout+Relu,又是Hinton极大的带动了DL的发展,大佬的地位毋庸置疑。另外相似的还有15年的GoogLeNet。


总算有华人大佬作出大贡献了,16年何恺明(CV领域应该无人不知)提出Resnet,还拿了best paper,影响较大,当然效果也很好。另外相似的还有17年的DenseNet。


17年Capsule Network登场了,又是Hinton。我比较看好胶囊网络在NLP领域的发展,虽然现在还没太明显的效果。因为用胶囊网络来做文本的特征表示的话,可以极大的丰富特征,更适合处理文本这种比较灵活的数据。


1.2 生成模型


上世纪80年代提出RBM,06年叠加成Deep Belief Network(DBN),这算是重新叠加网络的一个比较重要的开始吧。


上世纪80年代Hinton提出Auto-Encode,过了较长时间Bengio在08年提出Denoise Auto-Encode。Welling在13年提出Variational Auto-Encode。


接下来,在14年Goodfellow和Bengio等提出GAN,从此生成网络不仅是AE以及其变种(Denoise Auto-Encode、Variational Auto-Encode等)了,可以这么说:GAN的出现极大的提高了生成模型的地位和热点,GAN也是席卷NLP、CV、AI等领域的各大顶会,甚至是一些best paper。另外,陆续出现很多很多GAN的变种,比如DCGAN、CGAN、PGGAN、LAPGAN、InfoGAN、WGAN、F-GAN、SeqGAN、LeakGAN等。


1.3 序列学习


1982年提出hopfield network,1997年 Schmidhuber提出LSTM。Hinton组在13年把RNN用在语音识别上取得巨大突破,RNN立马爆火。


03年提出LM(语言模型),13年提出w2v,佩服Bengio,这也是我为啥千里迢迢跑去找Benign合影的原因之一。w2v带来的影响不言而喻,目前NLP领域基本上所有Paper都会用到词向量,包括也影响了后面出现的Glove、FastText、ELMo(18年2月)、Transformer(18年6月)、Bert(18年10月提出,Jacob一战封神,我感觉至少是18年NLP领域最大的发展,甚至可以说是近几年最大的发展)等。Bert的出现,很可能改变所有主流NLP任务的打法和Baseline。


还有一个分支,14年出现Seq2Seq,这个重要性也无需赘述了,NLP领域的都知道。然后15年出现Charater CNN,17年出现self-attention。


1.4 深度强化学习


提到强化学习就不得不提这Deep Mind、AlphaGo以及其变种、Silver。13年提出Deep Q-learning,15年提出Double DQN,16年提出Dueling Net。 15年的DDPG和16年的A3C都是NN+Policy Gradient,也应用在不少领域。16年的AlphaGo(除了AI领域,很多不懂AI的人都知道,甚至可以说是AI爆火的最大助力),17年出现更疯狂的Alpha Zero。


2.深度学习模型


翻译自neural-network-zoo,原文略烦琐而不利于入门学习,我做了简化,方便大家阅读。如果有感兴趣的,可以通过此链接深入学习。

640?wx_fmt=png

640?wx_fmt=png


2.1 Feed forward neural networks (FF or FFNN) and perceptrons (P)


前馈神经网络和感知机,信息从前(输入)往后(输出)流动,一般用反向传播(BP)来训练。算是一种监督学习。对应的paper。

640?wx_fmt=png


2.2 Radial basis function (RBF)


径向基函数网络,是一种径向基函数作为激活函数的FFNNs(前馈神经网络)。对应的paper。

640?wx_fmt=png


2.3 Hopfield network (HN)


Hopfield网络,是一种每个神经元都跟其它神经元相连接的神经网络。对应的paper。

640?wx_fmt=png


2.4 Markov chains (MC or discrete time Markov Chain, DTMC)


马尔可夫链 或离散时间马尔可夫链,算是BMs和HNs的雏形。对应的paper。

640?wx_fmt=png


2.5 Boltzmann machines (BM)


玻尔兹曼机,和Hopfield网络很类似,但是:一些神经元作为输入神经元,剩余的是隐藏层。对应的paper。

640?wx_fmt=png


2.6 Restricted Boltzmann machines (RBM)


受限玻尔兹曼机,和玻尔兹曼机 以及 Hopfield网络 都比较类似。对应的paper。

640?wx_fmt=png


2.7 Autoencoders (AE)


自动编码,和FFNN有些类似,它更像是FFNN的另一种用法,而不是本质上完全不同的另一种架构。对应的paper。

640?wx_fmt=png


2.8 Sparse autoencoders (SAE)


稀疏自动编码,跟自动编码在某种程度比较相反。对应的paper。

640?wx_fmt=png


2.9 Variational autoencoders (VAE)


变分自动编码,和AE架构相似,不同的是:输入样本的一个近似概率分布。这使得它跟BM、RBM更相近。对应的paper。

640?wx_fmt=png


2.10 Denoising autoencoders (DAE)


去噪自动编码,也是一种自编码机,它不仅需要训练数据,还需要带噪音的训练数据。对应的paper。

640?wx_fmt=png


2.11 Deep belief networks (DBN)


深度信念网络,由多个受限玻尔兹曼机或变分自动编码堆砌而成。对应的paper。

640?wx_fmt=png


2.12 Convolutional neural networks (CNN or deep convolutional neural networks, DCNN)


卷积神经网络,这个不解释也都知道。对应的paper。

640?wx_fmt=png


2.13 Deconvolutional networks (DN)


去卷积网络,又叫逆图形网络,是一种逆向的卷积神经网络。对应的paper。 

640?wx_fmt=png


2.14  Deep convolutional inverse graphics networks (DCIGN)


深度卷积逆向图网络,实际上是VAE,且分别用CNN、DNN来作编码和解码。对应的paper。

640?wx_fmt=png


2.15 Generative adversarial networks (GAN)


生成对抗网络,Goodfellow的封神之作,这个模型不用解释也都知道。对应的paper。

640?wx_fmt=png


2.16 Recurrent neural networks (RNN)


循环神经网络,这个更不用解释,做语音、NLP的没有人不知道,甚至非AI相关人员也知道。对应的paper。

640?wx_fmt=png


2.17 Long / short term memory (LSTM)


长短期记忆网络, RNN的变种,解决梯度消失/爆炸的问题,也不用解释,这几年刷爆各大顶会。对应的paper。

640?wx_fmt=png


2.18 Gated recurrent units (GRU)


门循环单元,类似LSTM的定位,算是LSTM的简化版。对应的paper。

640?wx_fmt=png


2.19 Neural Turing machines (NTM)


神经图灵机,LSTM的抽象,以窥探LSTM的内部细节。具有读取、写入、修改状态的能力。对应的paper。

640?wx_fmt=png


2.20 Bidirectional recurrent neural networks, bidirectional long / short term memory networks and bidirectional gated recurrent units (BiRNN, BiLSTM and BiGRU respectively)


双向循环神经网络、双向长短期记忆网络和双向门控循环单元,把RNN、双向的LSTM、GRU双向,不再只是从左到右,而是既有从左到右又有从右到左。对应的paper。


2.21 Deep residual networks (DRN)


深度残差网络,是非常深的FFNN,它可以把信息从某一层传至后面几层(通常2-5层)。对应的paper。

640?wx_fmt=png


2.22 Echo state networks (ESN)


回声状态网络,是另一种不同类型的(循环)网络。对应的paper。

640?wx_fmt=png


2.23 Extreme learning machines (ELM)


极限学习机,本质上是随机连接的FFNN。对应的paper。

640?wx_fmt=png


2.24 Liquid state machines (LSM)


液态机,跟ESN类似,区别是用阈值激活函数取代了sigmoid激活函数。对应的paper。

640?wx_fmt=png


2.25 Support vector machines (SVM)


支持向量机,入门机器学习的人都知道,不解释。对应的paper。

640?wx_fmt=png


2.26 Kohonen networks (KN, also self organising (feature) map, SOM, SOFM)


Kohonen 网络,也称之为自组织(特征)映射。对应的paper。

640?wx_fmt=png


总结一下吧,深度学习发展很快,新的模型层出不穷,所以要想全部列举是不可能的。另外,很多模型都是这里提出很长很长时间了,所以也不是说“老”模型就没用,大家学习的话,还是要全面而深入的学习。


(本文为 AI科技大本营转载文章,转载请联系原作者)

征稿

640?wx_fmt=png

推荐阅读:

  • 上海交大CV博导微信群辱骂学生,已停止教学

  • Google BBR拥塞控制算法背后的数学解释 | 深度

  • 苹果春季发布会:库克绝不玩别人玩剩下的!

  • 中国区块链职业发展现状: 30岁前不做开发; 平均薪资仅38.4万; 跳槽薪资涨三成 (附完整报告下载资源)

  • 在线公开课 | 从理论走向实践,多角度详解Cloud Native

  • 库克谈“唱衰苹果”:一派胡言!

  • 13个Python最佳编程技巧,越早知道越好 | 码书

  • 现实!程序员只有跳槽才能涨薪吗?


640?wx_fmt=png

点击“阅读原文”,查看历史精彩文章。

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

一文看懂深度学习发展史和常见26个模型 的相关文章

  • 漫谈C变量—为什么嵌入式项目中常用静态变量?

    在C语言中 xff0c 按照生命周期来分 xff0c 变量只有两类 xff1a 静态变量和动态变量 其中 xff0c 静态变量是指 xff0c 在编译时刻 xff08 Compiling time xff09 变量的地址和大小都已经确定下来
  • 10月1日后,GitHub用main替代master

    转自 xff1a 开源中国 GitHub 官方表示 xff0c 从 2020 年 10 月 1 日起 xff0c 在该平台上创建的所有新的源代码仓库将默认被命名为 34 main 34 xff0c 而不是原先的 34 master 34 值
  • C++在嵌入式中表现如何?

    这是知乎嵌入式领域的一个热门话题 xff0c 原文链接 xff1a https www zhihu com question 374663834 几个高赞回答 xff1a idea4good xff1a 先说结论 xff1a 嵌入式 单片机
  • 选微处理器MPU,还是单片机MCU?

    每项新应用设计都需要一个单片机或微处理器 当在两者之间选择其一时 xff0c 需要考虑一些因素 以下是微处理器 单片机的概述和对比 考虑选择微处理器 MPU 或者单片机 MCU 时 xff0c 应用类型通常是关键因素 另一方面 xff0c
  • 图解FreeRTOS 原理系列之任务管理器基本框架!

    导读 学习梳理一下FreeRTOS任务管理单元实现思路 xff0c 代码分析基于V10 4 3 从本文开始计划写个图解freeRTOS内核系列笔记分享给朋友们 xff0c 希望大家喜欢 本文主要学习梳理FreeRTOS任务管理器的基本原理
  • 一文带你快速理解FreeRTOS代码规范~

    导读 遇到些朋友感觉FreeRTOS内核代码看起来很不习惯 xff0c 不习惯其编码风格 xff0c 本文就来梳理一下其代码规范 xff0c 便于提高阅读其代码的效率 代码基于FreeRTOS V10 4 3 FreeRTOS代码结构 其内
  • [Adaptive Autosar]深入理解--Persistency

    目录 1 Per架构 2 Per初始化 3 Per错误处理 4 多进程访问 5 冗余存储 6 安装和更新per数据 7 Key Value 方式 8 file storage 方式 9 典型使用代码 Persistency模块对比 CP 中
  • 用Excel教会你PID算法!

    01 引入PID 电机控制 这样是没有反馈的 xff0c 也就是说我们完全相信输入的数字 xff0c 且是理想化的模型 xff0c 比如输入占空比为50 的25Kz的PWM xff0c 车轮速度为1m s xff0c 实际产品中会受到各种这
  • 带你快速理解FreeRTOS的代码规范~

    导读 遇到些朋友感觉FreeRTOS内核代码看起来很不习惯 xff0c 不习惯其编码风格 xff0c 本文就来梳理一下其代码规范 xff0c 便于提高阅读其代码的效率 代码基于FreeRTOS V10 4 3 FreeRTOS代码结构 其内
  • 单片机串口最底层的本质​!

    嵌入式开发中 xff0c UART串口是最常见的一种通信接口 xff0c 你知道为啥串口这么常见吗 xff1f 本文就带你深入了解串口最底层的本质内容 一 什么是串口通讯 xff1f 串行通讯是指仅用一根接收线和一根发送线就能将数据以位进行
  • 一个本科生学习嵌入式的心得~

    为毕业后能找到工作而读书 xff0c 本着务实精神 xff0c 从入学那一刻起就要开始准备找工作了 发这篇文章主要是针对大学刚接触嵌入式的同学 很多新手觉得嵌入式入门并不容易 xff0c 牵扯的内容 知识点太多 像C语言基础是否掌握 xff
  • 使用 Rust 进行嵌入式开发

    作者 xff1a RT Thread社区团队 liukang 原文链接 xff1a https club rt thread org ask article 2944 html Rust 是什么 Rust 是一门赋予每个人构建可靠且高效软件
  • STM32的SPI外设片选只有一个,怎么破?

    之前用STM32的SPI需要控制很多外部芯片 xff0c 可是一个SPI的外设只有一个片选 xff0c 要实现独立片选一主多从 xff0c 怎么实现呢 xff1f SPI总线拓扑 一般地 xff0c SPI总线按照下图方式进行连接 xff0
  • 编程规范 | 关于头文件的几条规范

    一般来说 xff0c 每一个 c或者 cpp文件对应一个头文件 h文件 xff0c 当然 xff0c 也有例外 xff0c 例如一些测试单元或者main文件 xff0c 头文件的一些规范可以令代码可读性 程序的性能等大为改观 xff0c 所
  • 10分钟教你在MDK中部署LVGL

    说在前面的话 说实话 xff0c LVGL这么有牌面的项目 xff0c 其维护者居然没听说过cmsis pack xff0c 这着实让我略为破防 xff1a 连lwIP都在Pack Installer里有个坑位 xff0c 难道这是个LVG
  • 国产高性能RISC-V通用MCU又来一个新成员!

    业界新锐MCU厂商先楫半导体宣布2022年5月正式推出 HPM6300系列 xff0c 这是继去年11月发布全球性能最强RISC V微控制器HPM6700 6400系列后 xff0c 再添一款新力量 集高性能 高实时 低功耗 高性价比于一身
  • 趟过这20个坑,才敢说自己是搞电的~

    电子工程师指从事各类电子设备和信息系统统研究 教学 产品设计 科技开发 生产和管理等工作的高级工程技术人才 一般分为硬件工程师和软件工程师 硬件工程师 xff1a 主要负责电路分析 设计 xff1b 并以电脑软件为工具进行PCB设计 xff
  • 【随笔篇】2019全国大学生电子设计竞赛回望与总结

    1 写在前面 2019全国大学生电子设计大赛已经落幕 xff0c 我和李同学各带一队斩获国一 短暂的休息后我们从国一的喜悦中恢复 xff0c 逐渐开始了新的征程 本来是希望能够通过电赛保研 xff0c 但无奈四非大学名额有限 xff0c 留
  • STM32的SPI外设片选只有一个怎么破?

    之前用STM32的SPI需要控制很多外部芯片 xff0c 可是一个SPI的外设只有一个片选 xff0c 要实现独立片选一主多从 xff0c 怎么实现呢 xff1f SPI总线拓扑 一般地 xff0c SPI总线按照下图方式进行连接 xff0

随机推荐