神经网络初级学习(Python代码实现)

2023-11-15

运行结果:

 

Python代码实现 :

# coding=gbk

#====导入相关库==========

import numpy as np
import matplotlib.pyplot as plt
import matplotlib as mpl
mpl.rcParams['font.sans-serif'] = ['SimHei']  # 指定默认字体
#mpl.rcParams['font.sans-serif'] = ['Times New Roman'] #Times New Roman字体
mpl.rcParams['axes.unicode_minus'] = False  # 解决保存图像是负号'-'显示为方块的问题
import matplotlib; matplotlib.use('TkAgg')


# 激活函数
def sigmoid(x):
    return 1.0 / (1 + np.exp(-x))

#
def sigmoid_derivative(x):
    return x * (1.0 - x)

# 计算损失函数
def compute_loss(y_hat, y):
    return ((y_hat - y)**2).sum()

class NeuralNetwork:
    def __init__(self, x, y):
        self.input = x
        # 它为每个输入创建 4 个介于 0 和 1 之间的随机数
        self.weights1 = np.random.rand(self.input.shape[1], 4)
        self.weights2 = np.random.rand(4, 1)
        self.y = y
        self.output = np.zeros(self.y.shape)

    def feedforward(self):
        self.layer1 = sigmoid(np.dot(self.input, self.weights1))
        self.output = sigmoid(np.dot(self.layer1, self.weights2))

    def backprop(self):
        # application of the chain rule to find derivative of the loss function with respect to weights2 and weights1
        d_weights2 = np.dot(self.layer1.T, (2 * (self.y - self.output) * sigmoid_derivative(self.output)))
        d_weights1 = np.dot(self.input.T, (np.dot(2 * (self.y - self.output) * sigmoid_derivative(self.output),
                                                  self.weights2.T) * sigmoid_derivative(self.layer1)))

        # update the weights with the derivative (slope) of the loss function
        self.weights1 += d_weights1
        self.weights2 += d_weights2


if __name__ == "__main__":
    #===特征=======
    X = np.array([[0, 0, 1],
                  [0, 1, 1],
                  [1, 0, 1],
                  [1, 1, 1]])
    #====目标======
    y = np.array([[0], [1], [1], [0]])
    nn = NeuralNetwork(X, y)

    loss_values = [] # 记录loss列表
    for i in range(1500):
        nn.feedforward()
        nn.backprop()
        loss = compute_loss(nn.output, y) # 计算loss
        loss_values.append(loss)

print(nn.output) # 输出
print(f" final loss : {loss}") # 最终loss
# 可视化loss变化
plt.plot(loss_values,color='red',marker='>',linestyle='--',linewidth=2,alpha=0.8,label='loss')
plt.xlabel('迭代次数',fontsize=18) #fontsize=18 调整字大小
plt.ylabel('Loss',fontsize=18)
plt.show()
# coding=gbk

#====导入相关库==========

import numpy as np
import matplotlib.pyplot as plt
import matplotlib as mpl
mpl.rcParams['font.sans-serif'] = ['SimHei']  # 指定默认字体
#mpl.rcParams['font.sans-serif'] = ['Times New Roman'] #Times New Roman字体
mpl.rcParams['axes.unicode_minus'] = False  # 解决保存图像是负号'-'显示为方块的问题
import matplotlib; matplotlib.use('TkAgg')


# 激活函数
def sigmoid(x):
    return 1.0 / (1 + np.exp(-x))

#
def sigmoid_derivative(x):
    return x * (1.0 - x)

# 计算损失函数
def compute_loss(y_hat, y):
    return ((y_hat - y)**2).sum()

class NeuralNetwork:
    def __init__(self, x, y):
        self.input = x
        # 它为每个输入创建 4 个介于 0 和 1 之间的随机数
        self.weights1 = np.random.rand(self.input.shape[1], 4)
        self.weights2 = np.random.rand(4, 1)
        self.y = y
        self.output = np.zeros(self.y.shape)

    def feedforward(self):
        self.layer1 = sigmoid(np.dot(self.input, self.weights1))
        self.output = sigmoid(np.dot(self.layer1, self.weights2))

    def backprop(self):
        # application of the chain rule to find derivative of the loss function with respect to weights2 and weights1
        d_weights2 = np.dot(self.layer1.T, (2 * (self.y - self.output) * sigmoid_derivative(self.output)))
        d_weights1 = np.dot(self.input.T, (np.dot(2 * (self.y - self.output) * sigmoid_derivative(self.output),
                                                  self.weights2.T) * sigmoid_derivative(self.layer1)))

        # update the weights with the derivative (slope) of the loss function
        self.weights1 += d_weights1
        self.weights2 += d_weights2


if __name__ == "__main__":
    #===特征=======
    X = np.array([[0, 0, 1],
                  [0, 1, 1],
                  [1, 0, 1],
                  [1, 1, 1]])
    #====目标======
    y = np.array([[0], [1], [1], [0]])
    nn = NeuralNetwork(X, y)

    loss_values = [] # 记录loss列表
    for i in range(1500):
        nn.feedforward()
        nn.backprop()
        loss = compute_loss(nn.output, y) # 计算loss
        loss_values.append(loss)

print(nn.output) # 输出
print(f" final loss : {loss}") # 最终loss
# 可视化loss变化
plt.plot(loss_values,color='red',marker='>',linestyle='--',linewidth=2,alpha=0.8,label='loss')
plt.xlabel('迭代次数',fontsize=18) #fontsize=18 调整字大小
plt.ylabel('Loss',fontsize=18)
plt.show()
# coding=gbk

#====导入相关库==========

import numpy as np
import matplotlib.pyplot as plt
import matplotlib as mpl
mpl.rcParams['font.sans-serif'] = ['SimHei']  # 指定默认字体
#mpl.rcParams['font.sans-serif'] = ['Times New Roman'] #Times New Roman字体
mpl.rcParams['axes.unicode_minus'] = False  # 解决保存图像是负号'-'显示为方块的问题
import matplotlib; matplotlib.use('TkAgg')


# 激活函数
def sigmoid(x):
    return 1.0 / (1 + np.exp(-x))

#
def sigmoid_derivative(x):
    return x * (1.0 - x)

# 计算损失函数
def compute_loss(y_hat, y):
    return ((y_hat - y)**2).sum()

class NeuralNetwork:
    def __init__(self, x, y):
        self.input = x
        # 它为每个输入创建 4 个介于 0 和 1 之间的随机数
        self.weights1 = np.random.rand(self.input.shape[1], 4)
        self.weights2 = np.random.rand(4, 1)
        self.y = y
        self.output = np.zeros(self.y.shape)

    def feedforward(self):
        self.layer1 = sigmoid(np.dot(self.input, self.weights1))
        self.output = sigmoid(np.dot(self.layer1, self.weights2))

    def backprop(self):
        # application of the chain rule to find derivative of the loss function with respect to weights2 and weights1
        d_weights2 = np.dot(self.layer1.T, (2 * (self.y - self.output) * sigmoid_derivative(self.output)))
        d_weights1 = np.dot(self.input.T, (np.dot(2 * (self.y - self.output) * sigmoid_derivative(self.output),
                                                  self.weights2.T) * sigmoid_derivative(self.layer1)))

        # update the weights with the derivative (slope) of the loss function
        self.weights1 += d_weights1
        self.weights2 += d_weights2


if __name__ == "__main__":
    #===特征=======
    X = np.array([[0, 0, 1],
                  [0, 1, 1],
                  [1, 0, 1],
                  [1, 1, 1]])
    #====目标======
    y = np.array([[0], [1], [1], [0]])
    nn = NeuralNetwork(X, y)

    loss_values = [] # 记录loss列表
    for i in range(1500):
        nn.feedforward()
        nn.backprop()
        loss = compute_loss(nn.output, y) # 计算loss
        loss_values.append(loss)

print(nn.output) # 输出
print(f" final loss : {loss}") # 最终loss
# 可视化loss变化
plt.plot(loss_values,color='red',marker='>',linestyle='--',linewidth=2,alpha=0.8,label='loss')
plt.xlabel('迭代次数',fontsize=18) #fontsize=18 调整字大小
plt.ylabel('Loss',fontsize=18)
plt.show()
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

神经网络初级学习(Python代码实现) 的相关文章

  • Markdown编辑器Typora标题自动编号

    Typora标题自动编号 Typora官方说明 正文中的各级标题自动编号 来到Typora的主题文件夹 打开Typora界面 点击左上角文件 偏好设置 外观 打开主题文件夹 添加一个名为base user css的文件 用记事本就可 复制以
  • 计算2的n次方的三种方法(C语言实现)

    C代码如下 1 include
  • Git第六讲 本地配置Git与中文乱码解决

    配置本地用户和邮箱 git config global 命名 值 可以添加新值 如 git config global user name 你的用户名 git config global user email 你的邮箱 git config
  • umi3查看 “@umijs/preset-react“版本

    umi3在项目初始化时 对于 umijs preset react 官方默认安装版本为1 x 如下图 那怎么查看目前可以安装的版本都有哪些 输入命令 npm view umijs preset react versions 可用版本这么多
  • ChatGPT在哪些领域可以应用?

    ChatGPT是一种多功能的语言模型 可以在各个领域应用 它的强大之处在于其能力跨越多个领域 从文本生成到自然语言理解和对话处理 下面是一些ChatGPT的应用领域 1 对话系统 ChatGPT可以作为人机对话系统的核心 它可以接受用户的自
  • 稳压二极管的工作原理是什么?

    请问此图中稳压二极管的工作原理是什么 1 原理图 2 功能 只要从b到a流过一个大于或等于2mA的电流 反向电流 那么b和a两端之间的电压基本会稳定在稳压值附近 如果是从a流到b 稳压管就是一个普通的二极管 3 稳压管的类型 1N53XXA
  • hbase 启动时 Name or service not known -完美解决

    异常描述 Name or service not known 解决方式 root Hades kk bin vim etc hosts 在127 0 0 1 最后加上服务器hostname 即可 注意空格

随机推荐

  • GitLab HTTPS配置方法

    1 准备证书和密钥 需要获得SSL证书和密钥 您可以使用您已经购买的证书 或者使用免费的SSL自签证书 2 备份GitLab的配置文件 更改之前 备份GitLab配置文件 默认可以在 etc gitlab gitlab rb 中找到该文件
  • 《软件调试艺术》读后感一

    1 预备知识 在进入正题之前要对GDB有一个大概的了解 GDB能干什么 GDB如今的有用性还有多少 等问题 我们带着这种问题去书中探索 这样会使我们学到很多其它的东西 首先 我看一张图 这张图不是我画的 可是这张图基本涵盖了 软件调试艺术
  • 如果去掉vim里讨厌的beep声

    用过vim的人都知道 当光标移动到行首 行尾 或者文件头文件尾时 如果再继续移动光标 系统就会发出讨厌的beep声 声音还挺大 那么如何去掉beep声呢 今天在网上查了一下 其实很简单 只需要在 vimrc配置文件里增加一句话即可 set
  • .sh文件怎么写_Linux学习笔记:在linux下用打包发布可执行文件的两种方法

    我们在linux下编写代码时 会用到一些额外的库 动态或者静态 如小编在qt下写opencv的程序 是在电脑上 项目需求 需要将其移植到嵌入式板子上 小编这里提供一种简单的方法 将我们在电脑上开发好的程序 可以打包复制到其他只要是Linux
  • N-MOS和P-MOS驱动应用实例

    MOS在电路设计中是比较常见的 按照驱动方式来分的话 有两种 即 N MOS管和P MOS管 MOS管跟三极管的驱动方式有点类似 但又不完全相同 那么今天笔者将会给大家简单介绍一下N MOS管和P MOS管的工作原理 并结合自己实际的应用来
  • mysql根据指定字符拆分某个字段,并将数据分割成多条记录

    mysql根据指定字符拆分某个字段 并将数据分割成多条记录 表名 t course comment 表数据 拆分字段 studentids mysql语句 select distinct a id a teacherid a coursei
  • RxJava 事件流之聚合

    Aggregation 前面介绍了如何过滤掉不需要的数据 如何根据各种条件停止发射数据 如何检查数据是否符合某个条件 这些操作对数据流来说都是非常有意义的 本节介绍如何根据数据流中的数据来生成新的有意义的数据 本节的操作函数会使用源 Obs
  • cad打印表格出现一根竖线 表格_CAD 相关术语表

    下面是本公众号文章分类目录 点击标题文字可打开分类文章列表 安装卸载 异常 退出 文件及输入输出 基本操作技巧 设置及相关问题 界面和显示 快捷键 视图设置和调整 图层管理 颜色 线型 字体 文字样式和文字输入 标注 引线和标注样式 坐标系
  • 手把手带你用Java爬取网站数据

    1 Jsoup介绍 官网文档 https jsoup org Jsoup 是一款Java 的HTML解析器 可直接解析某个URL地址 HTML文本内容 它提供了一套非常省力的API 可通过DOM CSS以及类似于jQuery的操作方法来取出
  • 神经网络下采样、上采样——图文计算

    目录 下采样 上采样 空洞卷积 总结 下采样 4 4 的输入信号 在经过 3 3 的卷积核过滤过滤之后 产生了 2 2 的特征映射 公式 上采样 2 2 的输入信号 经过 3 3 的卷积核过滤 产生了 4 4 的特征映射 维度逐渐由小变大
  • 技术同学必会的 MySQL 设计规约,都是惨痛的教训

    在我们对数据库技术方案设计的时候 我们是否有自己的设计理念或者原则 还是更多的依据自己的直觉去设计 是否曾经懊悔线上发生过的一次低级故障 可能稍微注意点就可以避免 是否想过怎么才能很好的避免 下面规范的价值正是我们工作的检查清单 需要我们不
  • MySQL统计信息相关表介绍

    相信大家都了解MySQL中的统计信息 那么统计信息是存放在哪里呢 我们怎么去查看 在MySQL中提供了两个表记录统计信息的相关内容 分别是 innodb table stats与innodb index stats 下面就这两个表的内容 与
  • scp: No such file or directory

    在Linux服务器之间建立信任关系 是很多线上服务系统的基础性工作 这样能便于程序在多台服务器之间自动传输数据 或者方便用户不输入密码就可以在不同的主机间完成登录或者各种操作 基本场景是想从一台Server服务器直接登录另一台 或者将Ser
  • Vue中实现Web端鼠标横向滑动和触控板滑动效果

    系列文章目录 文章目录 系列文章目录 前言 一 鼠标横向滑动效果 二 触控板滑动效果 总结 前言 在Web端 我们经常需要实现鼠标横向滑动和触控板滑动的效果 以便在页面中展示横向滑动的内容 本文将介绍如何使用Vue和JavaScript来实
  • 使用Chrome浏览器的搜索引擎,谷歌浏览器开启同步功能

    试了很多方法使用谷歌的搜索和登录 结果都是页面加载失败 最后还是找到了一个插件 极简插件 https chrome zzzmh cn extension 右上角搜索 chrome同步助手 点击推荐下载 chrome 打开chrome 点击右
  • 【XCTF 攻防世界】WEB 高手进阶区 web2

    题目链接 https adworld xctf org cn task answer type web number 3 grade 1 id 5326 page 2 打开场景 看到PHP代码 下面还有贴心注释 额 这题为啥不出在密码学里面
  • 每个人都要了解的Hash算法原理和特性

    HASH算法 概念 一般翻译做 散列 就是把任意长度的输入通过散列函数变化成固定长度的输出 该输出就是散列值 散列的空间通常远远小于输入的空间 不同的输入会散列城相同的输出 散列冲突 优秀hash特点 正向快速 逆向困难 输入敏感 输入一点
  • 快速幂算法 Quickmod(C语言)

    快速幂的算法 快速幂算法一般用于指数比较大的幂运算 例如3的100次方 2的50次方等等 相比于使用pow a b 函数来说 快速幂运行所需时间更小 在一些有时间限制的题目上有着非常大的优势 算法原理 例如我要算3的100次方 我们可以不停
  • 关于 ‘else‘ without a previous ‘if‘错误

    Status SearchBST BiSTree T int key if T return ERROR else return 1 这里编译会报错 s ex main cpp 36 error else without a previou
  • 神经网络初级学习(Python代码实现)

    运行结果 Python代码实现 coding gbk 导入相关库 import numpy as np import matplotlib pyplot as plt import matplotlib as mpl mpl rcParam