Matlab深度学习上手初探

2023-05-16

文章目录

  • 简介
  • 实例
    • 网络设计
    • 代码
    • 运行结果
  • 参考文献

简介

Matlab降低了深度神经网络的开发难度,可以通过拖拽的模式设计网络,甚至训练的过程也是GUI操作。

实例

以高光谱图像分类为例,参考文献1 。构造一个卷积神经网络,输入为 9 × 9 × B 9\times 9\times B 9×9×B 的图像,其中 B B B为波段数,类标为中心像素的标签。

网络设计

在Matlab的APPS中搜索Deep Network工具箱,打开后,选择New来创建网络,在弹出的界面中可以选择创建空白网络,也可以选择预训练的网络。

在这里插入图片描述
进入设计洁面后,从左侧拖拽相应的模块,命名-->设置参数-->连接不同模块,网络搭建完成后,可以选择Analyze来分析下网络,看看有没有错误,没有错误责可以导出代码。

在这里插入图片描述

代码

主训练文件"train_cnn.m",主要完成加载数据、从图像中随机抽取小的图像块,构造训练集,验证集和测试集。注意,真值变量需要用categorical函数转换一下。

load('../data/WHU_Hi_HongHu_preprocessing_tensor_edgemap_7.mat')

rng(2022);

% In the experiments, the patch sizes of the three datasets were set as 
% 9 × 9 × d, where d denotes the band number of the remote sensing image.
Ntrain = 1000;
Nvalid = 500;
Ntest = 200;
ptcsize = [9, 9]; 
M = ones(size(Label));
nclass = length(unique(Label));
[X, Y] = sample_patchs(X, Label, M, ptcsize, nclass, Ntrain+Nvalid+Ntest);
Xtrain = X(:, :, :, 1:Ntrain); Ytrain = Y(1:Ntrain);
Xvalid = X(:, :, :, 1:Nvalid); Yvalid = Y(1:Nvalid);
Xtest = X(:, :, :, 1:Ntest); Ytest = Y(1:Ntest);
Ytrain = categorical(Ytrain);
Yvalid = categorical(Yvalid);
Ytest = categorical(Ytest);

layers = [
    imageInputLayer([9 9 270],"Name","imageinput")
    convolution2dLayer([3 3],128,"Name","conv1")
    batchNormalizationLayer("Name","batchnorm1")
    reluLayer("Name","relu1")
    convolution2dLayer([3 3],256,"Name","conv2")
    batchNormalizationLayer("Name","batchnorm2")
    reluLayer("Name","relu2")
    convolution2dLayer([3 3],256,"Name","conv3","Padding","same")
    batchNormalizationLayer("Name","batchnorm3")
    reluLayer("Name","relu3")
    convolution2dLayer([3 3],128,"Name","conv4")
    batchNormalizationLayer("Name","batchnorm4")
    reluLayer("Name","relu4")
    fullyConnectedLayer(128,"Name","fc1")
    batchNormalizationLayer("Name","batchnorm5")
    reluLayer("Name","relu5")
    fullyConnectedLayer(64,"Name","fc2")
    batchNormalizationLayer("Name","batchnorm6")
    reluLayer("Name","relu6")
    fullyConnectedLayer(nclass,"Name","fc3")
    softmaxLayer("Name","softmax")
    classificationLayer("Name", "classoutput")];

% plot(layerGraph(layers));

options = trainingOptions('adam', ...
    'ValidationData', {Xvalid, Yvalid}, ...
    'Plots', 'training-progress', ...
    'MaxEpochs', 100, ...
    'Shuffle', 'every-epoch', ...
    'InitialLearnRate', 1e-3, ...
    'LearnRateSchedule', 'piecewise', ...
    'LearnRateDropFactor', 0.1, ...
    'LearnRateDropPeriod', 20, ...
    'ExecutionEnvironment', 'gpu', ...
    'MiniBatchSize', 32);
net = trainNetwork(Xtrain, Ytrain, layers, options);

Ptest = classify(net, Xtest);
precision = sum(Ptest==Ytest) / numel(Ptest);

disp(precision)

随机选图像块文件 “sample_patchs.m”

function [Xp, Yp] = sample_patchs(X, Y, M, ptcsize, nclass, nptcs)
% X: Data image
% Y: Label image
% M: mask: 1: candidate
% ptcsize: size (h, w) of patch
% nclass: number of classes
% nptcs: number of patchs


if isempty(ptcsize) 
    ptcsize = [9, 9];
end
if isempty(nptcs)
    nptcs = 100;
end

pH = ptcsize(1);
pW = ptcsize(2);
pH2 = floor(pH / 2.);
pW2 = floor(pW / 2.);
[xH, xW, C] = size(X);

M(1:pH2, :)  = 0; % boundary
M(xH-pH2:xH, :)  = 0; % boundary
M(:, 1:pW2)  = 0; % boundary
M(:, xW-pW2:xW)  = 0; % boundary

[rows, cols] = find(M==1);
npixel = length(rows);

idx = randi([1, npixel], nptcs, 1);
idxH = rows(idx);
idxW = cols(idx);

Xp = zeros(ptcsize(1), ptcsize(2), C, nptcs);
Yp = zeros(nptcs, 1);
% Yp = zeros(nptcs, nclass); % one-hot
for i = 1:nptcs
    Xp(:, :, :, i) = X(idxH(i) - pH2:idxH(i) + pH2, idxW(i) - pW2:idxW(i) + pW2, :);
    Yp(i, 1) = Y(idxH(i), idxW(i));
    %  Yp(i, Y(idxH(i), idxW(i)) + 1) = 1;  % one-hot
end

运行结果

下图为训练过程的日志结果,图中曲线和一些统计信息是Matlab自动绘制的,不需要自己额外添加代码。
在这里插入图片描述
此外,Matlab命令窗口也有相应的信息,如下:

>> train_cnn
Initializing input data normalization.
|======================================================================================================================|
|  Epoch  |  Iteration  |  Time Elapsed  |  Mini-batch  |  Validation  |  Mini-batch  |  Validation  |  Base Learning  |
|         |             |   (hh:mm:ss)   |   Accuracy   |   Accuracy   |     Loss     |     Loss     |      Rate       |
|======================================================================================================================|
|       1 |           1 |       00:00:08 |        0.00% |       30.60% |       3.6983 |       2.8994 |          0.0010 |
|       2 |          50 |       00:00:11 |       75.00% |       64.80% |       1.0919 |       1.2310 |          0.0010 |
|       4 |         100 |       00:00:14 |       65.62% |       65.20% |       0.9713 |       1.0583 |          0.0010 |
|       5 |         150 |       00:00:17 |       62.50% |       74.80% |       1.1589 |       0.8747 |          0.0010 |
|       7 |         200 |       00:00:19 |       62.50% |       73.00% |       0.9210 |       0.8468 |          0.0010 |
|       9 |         250 |       00:00:23 |       78.12% |       76.60% |       0.6505 |       0.7860 |          0.0010 |
|      10 |         300 |       00:00:25 |       78.12% |       77.80% |       0.7985 |       0.7317 |          0.0010 |
|      12 |         350 |       00:00:28 |       81.25% |       80.00% |       0.6691 |       0.6691 |          0.0010 |
|      13 |         400 |       00:00:31 |       71.88% |       80.20% |       0.9969 |       0.6473 |          0.0010 |
|      15 |         450 |       00:00:34 |       87.50% |       80.20% |       0.4374 |       0.6442 |          0.0010 |
|      17 |         500 |       00:00:37 |       84.38% |       81.20% |       0.4327 |       0.6272 |          0.0010 |
|      18 |         550 |       00:00:39 |       84.38% |       83.80% |       0.3872 |       0.5438 |          0.0010 |
|      20 |         600 |       00:00:42 |       81.25% |       83.00% |       0.6669 |       0.5028 |          0.0010 |
|      21 |         650 |       00:00:45 |       81.25% |       86.40% |       0.4656 |       0.4147 |          0.0001 |
|      23 |         700 |       00:00:48 |       78.12% |       88.00% |       0.6784 |       0.3880 |          0.0001 |
|      25 |         750 |       00:00:51 |       96.88% |       88.40% |       0.2379 |       0.3900 |          0.0001 |
|      26 |         800 |       00:00:53 |       93.75% |       88.20% |       0.3173 |       0.4199 |          0.0001 |
|      28 |         850 |       00:00:56 |       87.50% |       89.00% |       0.3716 |       0.3864 |          0.0001 |
|      30 |         900 |       00:00:59 |       87.50% |       89.20% |       0.3112 |       0.3499 |          0.0001 |
|      31 |         950 |       00:01:01 |       81.25% |       90.60% |       0.4589 |       0.3472 |          0.0001 |
|      33 |        1000 |       00:01:04 |       90.62% |       90.20% |       0.2410 |       0.3030 |          0.0001 |
|      34 |        1050 |       00:01:07 |       96.88% |       91.00% |       0.2589 |       0.3052 |          0.0001 |
|      36 |        1100 |       00:01:10 |       84.38% |       92.00% |       0.5322 |       0.2920 |          0.0001 |
|      38 |        1150 |       00:01:12 |       96.88% |       91.20% |       0.2072 |       0.2998 |          0.0001 |
|      39 |        1200 |       00:01:15 |       90.62% |       92.20% |       0.2447 |       0.2759 |          0.0001 |
|      41 |        1250 |       00:01:18 |       93.75% |       92.00% |       0.1627 |       0.2724 |      1.0000e-05 |
|      42 |        1300 |       00:01:20 |       96.88% |       92.40% |       0.1265 |       0.2751 |      1.0000e-05 |
|      44 |        1350 |       00:01:23 |       93.75% |       90.80% |       0.1679 |       0.3054 |      1.0000e-05 |
|      46 |        1400 |       00:01:26 |       96.88% |       93.40% |       0.1650 |       0.2544 |      1.0000e-05 |
|      47 |        1450 |       00:01:29 |       93.75% |       92.20% |       0.2000 |       0.2709 |      1.0000e-05 |
|      49 |        1500 |       00:01:32 |       93.75% |       92.40% |       0.1877 |       0.2520 |      1.0000e-05 |
|      50 |        1550 |       00:01:34 |       93.75% |       92.20% |       0.1618 |       0.2842 |      1.0000e-05 |
|      52 |        1600 |       00:01:37 |       93.75% |       91.80% |       0.3416 |       0.2809 |      1.0000e-05 |
|      54 |        1650 |       00:01:40 |       96.88% |       91.60% |       0.1159 |       0.2628 |      1.0000e-05 |
|      55 |        1700 |       00:01:43 |       90.62% |       94.00% |       0.2882 |       0.2346 |      1.0000e-05 |
|      57 |        1750 |       00:01:46 |       93.75% |       93.00% |       0.1924 |       0.2571 |      1.0000e-05 |
|      59 |        1800 |       00:01:48 |      100.00% |       94.40% |       0.0592 |       0.2273 |      1.0000e-05 |
|      60 |        1850 |       00:01:51 |       93.75% |       91.40% |       0.1993 |       0.2669 |      1.0000e-05 |
|      62 |        1900 |       00:01:54 |       87.50% |       91.00% |       0.3692 |       0.2943 |      1.0000e-06 |
|      63 |        1950 |       00:01:57 |       96.88% |       92.80% |       0.2041 |       0.2607 |      1.0000e-06 |
|      65 |        2000 |       00:02:00 |       93.75% |       91.60% |       0.2100 |       0.2653 |      1.0000e-06 |
|      67 |        2050 |       00:02:03 |       87.50% |       92.60% |       0.3792 |       0.2715 |      1.0000e-06 |
|      68 |        2100 |       00:02:06 |       93.75% |       91.80% |       0.1791 |       0.2868 |      1.0000e-06 |
|      70 |        2150 |       00:02:08 |       96.88% |       92.60% |       0.2040 |       0.2728 |      1.0000e-06 |
|      71 |        2200 |       00:02:11 |       90.62% |       93.20% |       0.2053 |       0.2353 |      1.0000e-06 |
|      73 |        2250 |       00:02:14 |       93.75% |       93.60% |       0.2120 |       0.2299 |      1.0000e-06 |
|      75 |        2300 |       00:02:17 |       90.62% |       93.20% |       0.2796 |       0.2405 |      1.0000e-06 |
|      76 |        2350 |       00:02:19 |       93.75% |       92.60% |       0.2731 |       0.2586 |      1.0000e-06 |
|      78 |        2400 |       00:02:22 |       93.75% |       91.80% |       0.1932 |       0.2732 |      1.0000e-06 |
|      80 |        2450 |       00:02:25 |       96.88% |       92.80% |       0.1315 |       0.2484 |      1.0000e-06 |
|      81 |        2500 |       00:02:28 |       93.75% |       93.60% |       0.2221 |       0.2730 |      1.0000e-07 |
|      83 |        2550 |       00:02:31 |       93.75% |       92.20% |       0.1957 |       0.2558 |      1.0000e-07 |
|      84 |        2600 |       00:02:34 |       96.88% |       91.80% |       0.1457 |       0.2807 |      1.0000e-07 |
|      86 |        2650 |       00:02:36 |       87.50% |       93.20% |       0.4540 |       0.2724 |      1.0000e-07 |
|      88 |        2700 |       00:02:39 |       93.75% |       93.40% |       0.2235 |       0.2315 |      1.0000e-07 |
|      89 |        2750 |       00:02:42 |      100.00% |       93.40% |       0.0892 |       0.2506 |      1.0000e-07 |
|      91 |        2800 |       00:02:45 |       93.75% |       92.00% |       0.2005 |       0.2666 |      1.0000e-07 |
|      92 |        2850 |       00:02:48 |      100.00% |       91.20% |       0.1301 |       0.2748 |      1.0000e-07 |
|      94 |        2900 |       00:02:51 |       96.88% |       92.20% |       0.1594 |       0.2691 |      1.0000e-07 |
|      96 |        2950 |       00:02:53 |       93.75% |       93.00% |       0.1665 |       0.2548 |      1.0000e-07 |
|      97 |        3000 |       00:02:56 |       93.75% |       94.00% |       0.2878 |       0.2366 |      1.0000e-07 |
|      99 |        3050 |       00:02:59 |       90.62% |       92.00% |       0.1891 |       0.2761 |      1.0000e-07 |
|     100 |        3100 |       00:03:02 |       93.75% |       92.00% |       0.1937 |       0.2665 |      1.0000e-07 |
|======================================================================================================================|
    0.9500

参考文献


  1. WHU-Hi: UAV-borne hyperspectral with high spatial resolution (H2) benchmark datasets and classifier for precise crop identification based on deep convolutional neural network with CRF ↩︎

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

Matlab深度学习上手初探 的相关文章

  • MATLAB 变量传递和惰性赋值

    我知道在 Matlab 中 当将新变量分配给现有变量时 会进行 惰性 评估 例如 array1 ones 1 1e8 array2 array1 的价值array1不会被复制到array2除非元素array2被修改 由此我推测Matlab中
  • 帮助我理解FFT函数(Matlab)

    1 除了负频率之外 FFT 函数提供的最小频率是多少 是零吗 2 如果它为零 我们如何在对数刻度上绘制零 3 结果总是对称的 或者只是看起来是对称的 4 如果我使用abs fft y 来比较2个信号 我是否会失去一些准确性 1 除了负频率之
  • 2D 网格的纹理贴图

    我有一组点 x y meshgrid 1 N 1 M 在常规二维上定义 N x M网格 我还有另一组要点 u v 这是原始网格的一些变形 即 u v f x y 但是我没有实际的f导致变形 如何将纹理映射到由定义的 变形 网格u v 即 给
  • Mathworks 生成 Matlab HTML 文档的方法是什么?

    我正在开发共享的 Matlab 代码 我们希望在本地网络中将生成的文档作为可搜索的 HTML 文档共享 我知道以下生成文档的方法 编写一个类似于 C 文件的转换器 这是在中完成的将 Doxygen 与 Matlab 结合使用 http ww
  • 像matlab一样在python中连接数组而不知道输出数组的大小

    我正在尝试在 python 中连接数组 类似于 matlab array1 zeros 3 500 array2 ones 3 700 array array1 array2 我在 python 中做了以下操作 array1 np zero
  • 在矩阵中找到叉的最快方法

    定义 A i j 1 是十字的中点 如果元素A i 1 j 1A i 1 j 1A i j 1 1A i j 1 1 这些元素和中点一起形成矩阵 A 中的十字 其中 A 至少是一个 3 3 矩阵 并且i j 0 假设上图是 8 8 矩阵 A
  • Blob 的簇生长

    考虑以下来自 Mathworks 的图像 我已经用标签标记了斑点 L num bwlabel I 如何迭代连接所有斑点 即从一个斑点开始 找到离它最近的一个 考虑最左边的两个斑点 可以从一个斑点的许多点绘制许多条线来连接到另一个斑点blob
  • 如何在matlab中使矩阵图平滑

    就像上图一样 怎样才能让画面更流畅呢 或者缩小y轴的范围 数据来自二维矩阵 然后我用plot data 请随意提出任何想法 平滑线条的一种方法涉及样本点之间数据的非线性插值 当你这样做时plot x y o http www mathwor
  • Matlab 中的 3D 堆叠条形图

    我想在一个图中绘制多个堆叠条形图 detached 条形图 例如 准确地想象一下bar http mathworks com help matlab ref bar3 detached png绘图 但堆叠在一起 而不是单一颜色 Set up
  • MATLAB 子图标题和轴标签

    我有以下脚本来最终绘制 4 x 2 子图 files getAllFiles preliminaries n size files cases cell 1 n m cell 1 n for i 1 1 n S load files i c
  • 将值从 C++ MEX 文件返回到 MATLAB

    我正在编写一个从 C 代码中检索数据的 MATLAB 程序 为此 我在 MATLAB 中创建了一个 MEX 文件和一个网关 mexFunction 虽然可以在 MATLAB 中读取读取值 但我无法检索它来使用它 如果不清楚 我有与这里完全相
  • 计算向量的导数

    我有以下函数 维维亚尼曲线 Phi t cos t 2 cos t sin t sin t 只需检查它是否有效 s linspace 0 T 1000 plot3 cos s 2 cos s sin s sin s 如何推导函数Phi 可能
  • 使用网络计算机进行 Matlab 并行处理

    我熟悉matlabpool and parfor用法 但我仍然需要加快计算速度 我的 1GB 网络中有一台功能更强大的计算机 两台计算机都有 R2010b 并且具有相同的代码和路径 使用两台计算机进行并行计算的最简单方法是什么 我今天使用的
  • 使用 scipy.io 将 python pandas dataframe 转换为 matlab 结构

    我正在尝试使用 scipy io 将 pandas 数据帧保存到 matlab mat 文件 我有以下内容 array1 np array 1 2 3 array2 np array a b c array3 np array 1 01 2
  • MATLAB;具有 2+ 个/分割图例的饼图 R2017b

    我正在创建一个饼图 理想情况下希望图例水平显示在顶部和 或底部 然而 在几乎所有情况下 这是不可能的 因为图例超出了数字 因此 我理想情况下希望将图例分成两个 或更多 子图例并单独放置它们 我知道这不是 MATLAB 中的内置功能 我使用的
  • Python 中 Matlab 'fscanf' 的等价物是什么?

    Matlab函数fscanf 似乎很强大 python 或numpy 中是否有相同的等效项 具体来说 我想从文件中读取矩阵 但我不想迭代每一行来读取矩阵 类似的东西 来自 matlab 用于读取 2D 1000x1000 矩阵 matrix
  • 从 3 个向量创建等值线图

    我正在尝试根据这些数据创建等高线图 pH D Tur 5 10 3 79 18918919 5 50 6 92 97297297 5 00 0 50 09009009 5 00 6 90 36036036 5 10 9 91 0810810
  • MATLAB 中的内存映射文件?

    我决定使用 memmapfile 因为我的数据 通常为 30Gb 到 60Gb 太大 无法放入计算机内存中 我的数据文件由两列数据组成 对应于两个传感器的输出 并且它们采用 bin 和 txt 格式 m memmapfile G E Str
  • 如何在 MATLAB 的 for 循环中读取多个图像?

    我已将结果分段放在一个文件夹中 这些需要在 for 循环中读取并在循环中进一步处理 我尝试阅读如下 for i 1 10 file name dir strcat C Users adminp Desktop dinosaurs im im
  • Matlab 中是否有相当于 R 的 dput() 的函数?

    Matlab 中是否有相当于 R 的 dput 的函数 dput 将 R 对象的 ASCII 文本表示形式写入文件或连接 UPDATE 1 添加了递归和对单元格的支持 UPDATE 2 添加了对结构的支持 UPDATE 3 增加了对逻辑 整

随机推荐

  • Ubuntu 16.04升级python3.6及解决终端打不开的bug

    Ubuntu 16 04 默认安装python3的版本为python3 5 xff0c 而在一些场景下我们需要用到python3 6 xff0c 于是本人尝试将python3 5升级为python3 6 xff0c 但期间出现了界面模式下终
  • Dockerfile 指令详细介绍

    使用 Dockerfile 定制镜像 这里仅讲解如何运行 Dockerfile 文件来定制一个镜像 具体 Dockerfile 文件内指令详解 xff0c 将在下一节中介绍 xff0c 这里你只要知道构建的流程即可 下面以定制一个nginx
  • linux系统下cat命令的使用

    运维那些事 2017 01 22 21 15 cat命令是Linux系统下查看文件内容用的指令 xff0c 还可以将显示的信息转入或附加到文件上 命令格式 cat 选项 文件 命令功能 cat主要有三大功能 xff1a 一次显示整个文件 c
  • 使用Python爬取淘宝两千款套套

    各位同学们 xff0c 好久没写原创技术文章了 xff0c 最近有些忙 xff0c 所以进度很慢 xff0c 给大家道个歉 gt 警告 xff1a 本教程仅用作学习交流 xff0c 请勿用作商业盈利 xff0c 违者后果自负 xff01 如
  • 大学那会儿,我读过的技术经典图书

    我2009年考进大学的计算机系 上大学前我对电脑的使用仅限于上QQ xff0c 看小说 xff0c 可以说是零基础 但通过三年的努力及对计算机专业的喜爱 xff0c 我顺利保送到自己梦寐以求的学校攻读研究生 大学期间看了不少书 xff0c
  • vscode 配置 git (配置、暂存、推送、拉取、免密)

    前些天发现了一个巨牛的人工智能学习网站 xff0c 通俗易懂 xff0c 风趣幽默 xff0c 忍不住分享一下给大家 点击跳转到教程 vscode 中对 git 进行了集成 xff0c 很多操作只需点击就能操作 xff0c 无需写一些 gi
  • 已知子网掩码,确定ip地址范围

    主要是把 ip地址和子网掩码在二进制下进行对比 ip地址分成两个部分 xff0c 网络号和主机号 凡是在子网掩码对比下 xff0c 1 代表了网络号 xff0c 0 代表了主机号 然后对比后 xff0c 把主机号最小 xff08 全0 xf
  • virmach主机购买和使用

    01购买 参考教程 xff1a https www jb51 net yunying 470007 html 需要注意的是购买后 xff0c 登录的帐号和密码会发送到默认邮箱中 xff0c 拿到用户名密码可以先使用ssh登录 xff0c 查
  • Xmanager使用方法

    服务器 xff1a CentOS 7 6 GNOME桌面环境 xff08 若最小化安装 xff0c 默认是无桌面的 xff0c 那么就要安装桌面 xff0c 参考百度 xff09 个人主机 xff1a Windows 10专业版 xff0c
  • 制作便携式随身系统(以Ubuntu为例)

    文章目录 说明准备硬件软件 启动盘制作安装Ubuntu到随身存储设备概述 为便携式系统创建GRUB引导安装 GRUB2 到U盘或移动硬盘制作Grub引导菜单 问题与解决拔掉U盘进不了原来的系统随身系统无法在别的电脑上启动welcome to
  • 谈谈了解的几个专业

    本文涉及专业 智能科学与工程通信工程电子信息工程集成电路设计与集成系统微电子科学与工程计算机科学与技术电磁场与无线技术遥感科学与技术 这些学科专业 xff0c 很多之间是相互交叉的 以下仅作参考 xff01 xff01 xff01 随便聊聊
  • 深度学习平台框架

    简介 分类 模型转换 网络参数转到MAT 文件 keras权重到mat 可知直接用matlab读取hdf5文件 也可以通过如下脚本 keras2mat py 转换 span class token comment usr bin env p
  • Ubuntu16.04 + NVIDIA RTX3090 + Pytorch + Tensorflow

    文章目录 说明有用链接显卡驱动安装文件下载一次性安装显示驱动和cuda计算套件仅安装显示驱动仅安装cuda计算套件 安装Pytorch安装pytorch1 7源码安装pytorch1 8源码安装torchvision RTX3090性能问题
  • centOS jdk安装

    1 输入yum list installed grep java 可以查看CentOS自带的Java环境 2 卸载jdk yum y remove java 1 8 0 openjdk 输入yum y remove tzdata java
  • 元学习

    这里写自定义目录标题 说明比较好的资料文档代码 常用数据集介绍Omniglot 说明 比较好的资料 文档 torchmeta pytorch meta learning libraryPaper repro Deep Metalearnin
  • Markdown简明教程

    这里是目录 xff0c 输入 TOC 可以自动生成 文章目录 常用语法 一级标题 基本语法 二级标题 数学公式添加图片添加代码段 高级扩展语法插入classDiagram类图插入Mermaid流程图插入UML图插入甘特图 其它 常用语法 一
  • 深度神经网络中的卷积

    文章目录 卷积单元经典卷积运算经典二维卷积经典膨胀二维卷积运算经典二维转置卷积运算 实验分析实验说明实验结果 参考文献 卷积单元 本文给出了四维张量卷积的表达式 xff0c 卷积输出大小的表达式 xff0c 以及Matlab和PyTorch
  • 离线部署深度学习环境Ubuntu篇

    引言 不采用docker 以防拖慢速度 打算部署PyTorch Tensorflow 和 Keras框架 版本选择 如何选择系统 CUDA CUDNN Tensorflow Pytorch Keras等版本呢 首先看GPU 一些新的GPU卡
  • Visual Studio Code使用笔记

    文章目录 简介安装常用功能杂文件对比 常用插件通用快捷键文件头注释 C C 43 43 PythonLaTexMarkdown 其它C C 43 43 多文件编译运行代码运行 简介 与Sublime Text相比 xff0c vscode免
  • Matlab深度学习上手初探

    文章目录 简介实例网络设计代码运行结果 参考文献 简介 Matlab降低了深度神经网络的开发难度 xff0c 可以通过拖拽的模式设计网络 xff0c 甚至训练的过程也是GUI操作 实例 以高光谱图像分类为例 xff0c 参考文献1 构造一个