MQ--3 Message queuing)>>>>kafka

2023-11-05

MQ–1( Message queuing)>>>>RabbitMQ
MQ–2 Message queuing)>>>>ZooKeeper

三.Kafka

http://kafka.apache.org/ #官网链接

https://www.aliyun.com/product/kafka?spm=5176.10695662.1245776.1.1d6c6366RGQApw #阿里云kafka消息队列

Kafka 被称为下一代分布式消息系统,是非营利性组织 ASF( Apache Software Foundation ,简称为 ASF 基金会中的一个开源项目, 比如 HTTP Server 、 H adoop 、ActiveMQ 、 Tomcat 等开源软件都属于 Apache 基金会的开源软件, 类似的消息系统还有 RbbitMQ 、 ActiveMQ 、 ZeroMQ 。
在这里插入图片描述

Kafka®用于构建实时数据管道和流应用程序。 它具有水平可伸缩性,容错性,快速快速性,可在数千家公司中投入生产。

3.1常用消息队列对比

kafka最主要的优势是其具备分布式功能 、并可以结合 zookeeper 可以实现动态扩容 Kafka 是一种高吞吐量的分布式发布订阅消息系统 。
在这里插入图片描述

3.2 kafka 优势

kafka 通过 O(1) 的磁盘数据结构提供消息的持久化,这种结构对于即使数以 TB的消息存储也能够保持长时间的稳定性能。
o(1) 其实说的是复杂度,复杂度包括时间复杂度和空间复杂度,这里应该是时间复杂度,表示在取消息时就像数组一样,根据下标直接就获取到

高吞吐量:即使是非常普通的硬件 Kafka 也可以支持每秒数百万的消息。

支持通过 Kafka 服务器分区消息。

支持 Hadoop 并行数据加载。

在这里插入图片描述
O(1) 就是最低的时空复杂度了,也就是耗时 耗空间与输入数据大小无关,无论输入数据增大多少倍,耗时 耗空间都不变, 哈希算法就是典型的 O(1) 时间复杂度,无论数据规模多大,都可以在一次计算后找到目标.

kafka 角色

https://www.jianshu.com/p/734cf729d77b #kafka基本简介

Broker: Kafka 集群包含一个或多个服务器,这种服务器被称为 broker 。

**Topic:**每条发布到 Kafka 集群的消息都有一个类别,这个类别被称为 topic ,(物理上不同 topic 的消息分开存储 在不同的文件夹 ,逻辑上 一个 topic 的消息虽然保存于一个或多个 broker 上但用户只需指定消息的 topic 即可生产或消费数据而
不必关心数据存于何处) 。

**Partition:**是物理上的概念,每个 topic 包含一个或多个 partition ,创建 topic 时可指定 parition 数量, 每个 partition 对应于一个文件夹,该文件夹下存储该partition: 的数据和索引文件 。

Producer: 负责发布消息到 Kafka broker 。

**Consumer:**消费消息,每个 consumer 属于一个特定的 consuer group 可为每个consumer 指定 group name ,若不指定 group name 则属于默认的 group 使用consumer high level API 时,同一 topic 的一条消息只能被同一个 consumer group
内的一个 consumer 消费,但多个 consumer group 可同时消费这一消息。

在这里插入图片描述

3.4kafka部署

http://kafka.apache.org/quickstart #kafka 快速开始
部署三台服务器 的 高可用 kafka 环境 。
部署环境:

Server 1 :172.18.0.101
Server2 :172.18.0.102
Server3 :172.18.0.103

3.4.1:版本选择

http://kafka.apache.org/downloads #kafka版本下载

目前最新版本为 kafka_2.4.1 版本格式 kafka _scala 版本 kafka 版本

http://distfiles.macports.org/ #scala 版本 选择 这里选择2.12

https://baike.baidu.com/item/Scala/2462287?fr=aladdin #scale 和java 简介

kafka_2.12-2.3.1 版本 更新 内容:

Kafka Connect REST API 进行了一些改进。
Kafka Connect 现在支持增量式合作再平衡。
Kafka Streams 现在支持内存中的会话存储和窗口存储。
AdminClient 现在允许用户确定他们有权对主题执行哪些操作。
有一个新的代理开始时间指标。
JMXTool 现在可以连接到安全的 RMI 端口。
已添加增量式 AlterConfigs API 。 旧的 AlterConfigs API 已被弃用。
现在,我们跟踪低于其最小 IS R 计数的分区。
现在,即使在代理上启用了自动主题创建,消费者也可以选择退出。
Kafka 组件现在可以使用外部配置存储( KIP 421 )。
遇到错误时,我们已实现了改进的副本获取程序行为。

3.4.2各节点部署 kafka

Kafka使用ZooKeeper,首先启动ZooKeeper服务器。
MQ–2 Message queuing)>>>>ZooKeeper #Zookeeper集群参考

实验:这里kafka的服务器既可以和zookeeper服务器复用也可以单独的拿出6个服务器 这里采取复用
172…20.10.100
172…20.10.101
172…20.10.102

3.4.2.1kafka 节点 1

# pwd
/usr/local/src
#tar xvf kafka_2.13-2.4.1.tgz

# ln -sv /usr/local/src/kafka_2.13-2.4.1 /usr/local/kafka

# cd /usr/local/kafka/config/

# mkdir /usr/local/kafka/data  #在配置文件中给log.dirs是使用

#vim server.properties
21 broker.id=1  #每个 broker 在集群中的唯一标识,正整数。
31 listeners=PLAINTEXT://172.20.10.100:9092  #监听地址  本地地址不能写0.0.0.0
42  num.network.threads=128  #网络请求接受数
60 log.dirs=/usr/local/kafka/data  #kakfa 用于保存数据的目录,所有的消息都会存储在该目录当中
65 num.partitions=1 #设置创新新的 topic 默认分区数量
103 log.retention .hours=168 #设置 kafka 中消息保存时间 默认为 168 小时即7天
zookeeper.connect #指定连接的 zk 的地址 zk 中存储了 broker 的元数据信息格式如下:
123 zookeeper.connect=172.20.10.100:2181,172.20.10.101:2181,172.20.10.102:2181
126 zookeeper.connection.timeout.ms=6000  #设置连接 zookeeper 的超时时间, 默认 6 秒钟
3.4.2.2kafka 节点 2
# pwd
/usr/local/src
#tar xvf kafka_2.13-2.4.1.tgz

# ln -sv /usr/local/src/kafka_2.13-2.4.1 /usr/local/kafka

# cd /usr/local/kafka/config/

# mkdir /usr/local/kafka/data  #在配置文件中给log.dirs是使用

#vim server.properties
21 broker.id=2
31 listeners=PLAINTEXT://172.20.10.101 :9092
60 log.dirs=/usr/local/kafka/kafk-logs
65 num.partitions=1
103 log.retention.hours=168
123 zookeeper.connect=172.18.0.101:2181,172.18.0.102:2181,172.18.0.103:2181
126 zookeeper.connection.timeout.ms=6000
3.4.2.3kafka 节点 3
# pwd
/usr/local/src
#tar xvf kafka_2.13-2.4.1.tgz

# ln -sv /usr/local/src/kafka_2.13-2.4.1 /usr/local/kafka

# cd /usr/local/kafka/config/

# mkdir /usr/local/kafka/data  #在配置文件中给log.dirs是使用

#vim server.properties
21 broker.id=3
31 listeners=PLAINTEXT://172.20.10.102 :9092
60 log.dirs=/usr/local/kafka/kafka-logs
65 num.partitions=1
103 log.retention.hours=168
123 zookeeper.connect=172.18.0.101:2181,172.18.0.102:2181,172.18.0.103:2181
126 zookeeper.connection.timeout.ms=6000

3.4.3 :各节点启动 kafka

#/usr/local/kafka/bin/kafka-server-start.sh /usr/local/kafka/config/server.properties &
# 此方式 zookeeper 会在shell断开后关闭 而且正常启动会占据终端
3.4.3.1 :节点 1 启动 kafka
# mkdir /usr/local/kafka/kafka-logs #创建数据目录
# /usr/local/kafka/bin/kafka-server-start.sh -daemon /usr/local/kafka/config/server.properties  #以守护进程启动

在这里插入图片描述

3.4.3.2 :节点 2 启动 kafka
# mkdir /usr/local/kafka/kafka-logs
# /usr/local/kafka/bin/kafka server start.sh -daemon /usr/local/kafka/config/server.properties

在这里插入图片描述

3.4.3.3 :节点 3 启动 kafka
# mkdir /usr/local/kafka/kafka-logs
# /usr/local/kafka/bin/kafka-server-start.sh -daemon /usr/local/kafka/config/server.properties

在这里插入图片描述

实验:
三台服务器都相同的方式启动kafka 如果有报错信息没有起来可能是内存不足导致

root@ZK-serverx:~# cd /usr/local/kafka
root@ZK-serverx:/usr/local/kafka# bin/kafka-server-start.sh config/server.properties

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

后台启动:

# /usr/local/kafka/bin/kafka-server-start.sh -daemon /usr/local/kafka/config/server.properties 
#tail /usr/local/kafka/logs/server.log #查看最后一行是否为INFO [KafkaServer id=1] started (kafka.server.KafkaServer) 的状态
3.4.3.4验证 zookeeper 中 kafka 元数据:

1 、 Broker 依赖于 Zooke eper ,每个 Broker 的 id 和 Topic 、 Partition 这些元数据信息都会写入 Zookeeper 的 ZNode 节点中;

2 、 Consumer 依赖于 Zookeeper Consumer 在消费消息时,每消费完一条消息,会将产生的 offset 保存到 Zookeeper 中,下次消费在当前 offset 往后继续消费;

ps: kafka0.9 之前 Consumer 的 offset 存储在 Zookeeper 中, kafka0,9 以后 offset存储在本地。

3 、 Partition 依赖于 Zookeeper Partition 完成 Replication 备份后,选举出一个Leader ,这个是依托于 Zookeeper 的选举机制实现的;

在这里插入图片描述

3.5:测试 kafka 读写数据

http://kafka.apache.org/quickstart

3.5.1创建 topic

创建名为logstashtest,partitions (分区) 为 3 ,replication (复制) 为 3 的 topic 主题:
在任意 kafaka 服务器操作:

# /usr/local/kafka/bin/kafka-topics.sh -create --zookeeper 172.20.10.100:2181,172.20.10.100:2181,172.20.10.102:2181 
--partitions 3 --replication-factor 3 --topic magedu 
Created topic magedu.

实验:
用一个分区和一个副本创建一个名为“ test”的主题:

root@ZK-server1:/usr/local/kafka# bin/kafka-topics.sh --create --bootstrap-server 172.20.10.102:9092 
--replication-factor 1 --partitions 1 --topic test  #创建一个test topic

运行list topic命令,我们可以看到该主题,可以在集群的任何一个机器中去看都可以

root@ZK-server1:/usr/local/kafka# bin/kafka-topics.sh --list --bootstrap-server 172.20.10.101:9092
test
root@ZK-server1:/usr/local/kafka# bin/kafka-topics.sh --list --bootstrap-server 172.20.10.102:9092
test
root@ZK-server1:/usr/local/kafka# bin/kafka-topics.sh --list --bootstrap-server 172.20.10.100:9092
test

3.5.2验证 topic

状态说明:logstashtest 有三个分区分别为 0 、 1 、 2 ,分区 0 的 leader 是 3 broker.id
分区 0 有三个副本,并且状态都为 lsr (ln-sync ,表示可以参加选举成为 leader )。

# /usr/local/kafka/bin/kafka-topics.sh --describe --zookeeper 172.18.0.101:2181,172.18.0.102:2181,172.18.0.103:2181 --topic magedu
Topic:magedu PartitionCount:3 ReplicationFactor:3 Configs:
Topic: magedu Par tition: 0 Leader: 2 Replicas: 2,1,3 Isr: 2,1,3
Topic: magedu Partition: 1 Leader: 3 Replicas: 3,2,1 Isr: 3,2,1
Topic: magedu Partition: 2 Leader: 1 Replicas: 1,3,2 Isr: 1,3,2
root@ZK-server3:~# /usr/local/kafka/bin/kafka-topics.sh --describe --zookeeper 
172.20.10.100:2181,172.20.10.101:2181,172.20.10.102:2181 --topic test
Topic: test	PartitionCount: 1	ReplicationFactor: 1	Configs: 
	Topic: test	Partition: 0	Leader: 1	Replicas: 1	Isr: 1
root@ZK-server3:~# /usr/local/kafka/bin/kafka-topics.sh --describe --zookeeper 172.20.10.100:2181,172.20.10.101:2181,172.20.10.102:2181 --topic magedu
Topic: magedu	PartitionCount: 1	ReplicationFactor: 1	Configs: 
	Topic: magedu	Partition: 0	Leader: 1	Replicas: 1	Isr: 1

3.5.3获取所有 topic

# /usr/local/kafka/bin/kafka-topics.sh --list --zookeeper 172.18.0.101:2181,172.18.0.102:2181,172.18.0.103:2181
magedu

3.5.4:测试发送消息

# /usr/local/kafka/bin/kafka-console-producer.sh --broker --list 172.18.0.101:9092,172.18.0.102:9092,172.18.0.103:9092 --topic magedu
>msg1
>msg2
>msg3

3.5.5:测试获取消息

可以到任意一台 kafka 服务器测试 消息获取,只要有相应的消息获取客户端即可。

# /usr/local/kafka/bin/kafka-console-consumer.sh --topic magedu --bootstrap-server 172.18.0.102:9092 --from-beginning
msg1
msg3
msg2

在这里插入图片描述
kafka数据会保留一定的时间

3.5.6删除 topic

# /usr/local/kafka/bin/kafka-topics.sh --delete --zookeeper     172.18.0.101:2181,172.18.0.102:2181,172.18.0.103:2181 --topic magedu
Topic magedu is marked for deletion.

在这里插入图片描述

http://www.kafkatool.com/download.html #kafka工具下载

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
https://www.cnblogs.com/frankdeng/p/9452982.html #参考链接

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

MQ--3 Message queuing)>>>>kafka 的相关文章

  • Kafka常见的导致重复消费原因和解决方案

    点击上方蓝色字体 选择 设为星标 回复 资源 获取更多资源 大数据技术与架构 点击右侧关注 大数据开发领域最强公众号 暴走大数据 点击右侧关注 暴走大数据 问题分析 导致kafka的重复消费问题原因在于 已经消费了数据 但是offset没来
  • 面对kafka频发的rebalance,该如何处理?

    Kafka 是我们最常用的消息队列 它那几万 甚至几十万的处理速度让我们为之欣喜若狂 但是随着使用场景的增加 我们遇到的问题也越来越多 其中一个经常遇到的问题就是 rebalance 重平衡 问题 但是要想了解 rebalance 那就得先
  • cdh下spark2-yarn运行sparkstreaming获取kafka数据使用spark-streaming-kafka-0-10_2.11报错解决

    报错问题 20 07 15 17 20 51 INFO utils AppInfoParser Kafka version 0 9 0 kafka 2 0 0 20 07 15 17 20 51 INFO utils AppInfoPars
  • Kafka面试必问几个概念 与 使用场景

    介绍下我写的这个kafka项目 里面做了详细的配置注释已经代码的demo 可供大家学习 项目 地址 springboot kafka集群项目实战 kafka集群批量消费数据去重和一致性 kafka的几个重要概念 接下来围绕下面几个概念来进行
  • kafka如何避免消费组重平衡

    目录 前言 协调者 重平衡的影响 避免重平衡 重平衡发生的场景 参考资料 前言 Rebalance 就是让一个 Consumer Group 下所有的 Consumer 实例就如何消费订阅主题的所有分区达成共识的过程 在 Rebalance
  • Kafka——javaAPI

    文章目录 Kafka的JavaAPI 1 未整合版的Kafka的API 1 1 Producer 消息发送端代码 1 2 Consumer 消息消费端代码 2 Spring Boot整合Kafka 2 1 发送者代码 Producer 2
  • Kafka3.0.0版本——消费者(消费者组案例)

    目录 一 消费者组案例 1 1 案例需求 1 2 案例代码 1 2 1 消费者1代码 1 2 2 消费者2代码 1 2 3 消费者3代码 1 2 4 生产者代码 1 3 测试 一 消费者组案例 1 1 案例需求 测试同一个主题的分区数据 只
  • kafka中partition数量与消费者对应关系

    kafka是由Apache软件基金会开发的一个开源流处理平台 kafka是一种高吞吐量的分布式发布订阅消息系统 它可以处理消费者在网站中的所有动作流数据 kafka中partition类似数据库中的分表数据 可以起到水平扩展数据的目的 比如
  • Kafka剖析(一):Kafka背景及架构介绍

    转载自 http www infoq com cn articles kafka analysis part 1 Kafka 是由 LinkedIn 开发的一个分布式的消息系统 使用 Scala 编写 它以可水平扩展和高吞吐率而被广泛使用
  • windows python kafka 初级使用

    今天花了点时间在这个kafka上 因为我们工作中也用到了kafka 我这边对于kafka的理解是能用或者知道基本原理就行 实现在自己的windows环境搭建一次kafka 然后使用python进行数据的生产和消费 如果之后工作中对于kafk
  • win10系统下安装Kafka 的详细步骤

    Win10 系统下要使用Kafka需要经过以下三个步骤 1 安装JDK 需要安装依赖java JDK 2 安装zookeeper 资源协调 分配管理 3 安装Kafka 一 安装 Java SE Development Kit 13 0 1
  • ELK配置记录(filebeat+kafka+Logstash+Elasticsearch+Kibana)

    一 简介 elk日志平台 日志收集 分析和展示的解决方案 满足用户对 志的查询 排序 统计需求 elk架构 filebeat 采集 kafka Logstash 管道 Elasticsearch 存储 搜索 Kibana 日志应用 各组件功
  • [Docker]使用Docker部署Kafka

    Kafka 是一个分布式流处理平台 它依赖于 ZooKeeper 作为其协调服务 在 Kafka 集群中 ZooKeeper 负责管理和协调 Kafka 的各个节点 因此 要在 Docker 容器中启动 Kafka 通常需要同时启动一个 Z
  • Kafka 监控系统Eagle 使用教程 V1.4.0

    1 下载安装zookeeper 2 下载安装kafka 3 下载安装kafka eagle http download kafka eagle org tar zvxf kafka eagle bin 1 4 0 tar gz 4 配置JA
  • kafka的新API 得到最新一条数据

    业务的需要 需要得到最新的一条消息从kafka中 但是发现ConsumerRecords 这个对象并没有 get index 这种方式的获取并且只能 iterator 或者增强for 循环这种方式来循环 记录 但是有一个count 可以得到
  • MQ - KAFKA 高级篇

    kafak是一个分布式流处理平台 提供消息持久化 基于发布 订阅的方式的消息中间件 同时通过消费端配置相同的groupId支持点对点通信 适用场景 构造实时流数据管道 用于系统或应用之间可靠的消息传输 数据采集及处理 例如连接到一个数据库系
  • 【ranger】CDP环境 更新 ranger 权限策略会发生低概率丢失权限策略的解决方法

    一 问题描述 我们的 kafka 服务在更新 添加 ranger 权限时 会有极低的概率导致 MM2 同步服务报错 报错内容 Not Authorized 但是查看 ranger 权限是赋予的 并且很早配置的权限策略也会报错 相关组件版本
  • 从 MySQL 到 DolphinDB,Debezium + Kafka 数据同步实战

    Debezium 是一个开源的分布式平台 用于实时捕获和发布数据库更改事件 它可以将关系型数据库 如 MySQL PostgreSQL Oracle 等 的变更事件转化为可观察的流数据 以供其他应用程序实时消费和处理 本文中我们将采用 De
  • 【flink番外篇】9、Flink Table API 支持的操作示例(1)-完整版

    Flink 系列文章 一 Flink 专栏 Flink 专栏 系统介绍某一知识点 并辅以具体的示例进行说明 1 Flink 部署系列 本部分介绍Flink的部署 配置相关基础内容 2 Flink基础系列 本部分介绍Flink 的基础部分 比
  • Kafka速度之谜:高性能的幕后秘密大揭秘

    提示 文章写完后 目录可以自动生成 如何生成可参考右边的帮助文档 文章目录 前言 一 kafka高性能的原因 Page Cache ZeroCopy 零拷贝 前言 Kafka的介绍 kafka是linkedIn开源的分布式消息系统 归给Ap

随机推荐

  • ECCV 2022

    论文 https arxiv org abs 2207 08134 https github com HaoruiSong622 Editing Out of Domain Editing Out of domain GAN Inversi
  • 云计算习题

    云计算 一 单选题 二 多选题 三 实操题 单选题 多选题 实操题 一 单选题 下面哪个是软件代码版本控制软件 B A project B SVN C notepad D Xshell 为满足金融业务的监管和安全要求 平台不需要考虑下列哪个
  • 百度PaddleOCR文字识别库下载安装保姆级教程

    文字目录 1 PaddleOCR是什么 2 特性 3 安装总流程 安装步骤在第四单元 1 首先安装PaddlePaddle库 深度学习框架 2 安装shapely库 依赖的库 3 安装PaddleOCR 要使用的库 4 安装步骤 win o
  • 十进制转二进制的方法

    import java util Scanner public class Demo01 public static void main String args Scanner input new Scanner System in Sys
  • 帮我生成一个 Python 爬虫code,浏览知乎上的浏览量,并将结果保存在CSV文件中...

    我可以为你提供一个简单的 Python 爬虫程序 可以用来浏览知乎上的浏览量 并将结果保存在 CSV 文件中 程序的代码如下 import requests import csv 定义知乎的 API 接口 url https www zhi
  • 【Linux】常见基本指令

    目录 1 ls指令 1 1 ls 1 2 ls l或 ll 1 3 ls a 1 4 ls d 1 5 ls i 1 6 ls n 1 7 ls F 1 8 ls R 2 pwd指令 3 cd指令 4 touch指令 5 mkdir 指令
  • onnxruntime 运行过程报错“onnxruntime::Model::Model Unknown model file format version“

    背景 这几天在玩一下yolov6 使用的是paddle框架训练的yolov6 然后使用paddl 转成onnx 再用onnxruntime来去预测模型 由于是在linux服务器上转出来 的onnx模型 并在本地的windows电脑上去使用
  • 希尔(Shell)排序 C++

    希尔排序是一个很有意思的排序算法 就是在选择不同的增量序列时算法的效率会有显著的不同 更有意思的是它和Dijkstra算法都有相似之后 就是刚发明的时候并不知道有那么厉害 特别是Dijkstra 自己都不知道自己发明的这个算法有没有用 希尔
  • 运算放大器分类及运算放大器参数说明

    运算放大器 我们在大部分情况下只了解运放简单的电路模型 而在很多场景中 并不是任何放大器都可以被直接拿过来应用 而是需要更加深入的了解运放的性能 那什么是性能呢 就是运放本身的参数 只有选择符合要求的运放 我们才能放大我们想要的信号 滤除我
  • 生命在于折腾——Obsidian笔记软件折腾记录(一)

    一 开端 我使用过很多笔记软件 OneNote 语雀 Notability GoodNotes 印象笔记 有道云笔记 不得不说 我一直想拥有一款满足以下条件的笔记软件 买断制 符合以下所有条件我考虑订阅 ipad可手写 icloud可同步
  • Cocos2dx——戏如人生(1)

    建立工程 cocos new game3 1 com cn wang l cpp d project 本人用的是cocos2dx 3 6 运行工程 Hello world helloworldscene h ifndef HELLOWORL
  • 使用DVWA进行XSS漏洞实战

    使用DVWA进行XSS漏洞实战 本文记录使用DVWA进行XSS漏洞实战的过程 跨站脚本 Cross Site Scripting XSS 是一种经常出现在 WEB 应用程序中的计算机安全漏洞 是由于 WEB 应用程序对用户的输入过滤不足而产
  • 区块链与分布式数据库的区别

    1 来源 分布式数据库 应对互联网条件下大规模数据的增删改查需求 解决传统数据库面临的通信开销大 性能差 容量可扩展性差和可靠性低的问题 通信开销大 假设只有一个数据库 并且放在北京 那么纽约的用户就需要等待网络从纽约到北京的往返通信延迟
  • 使用python写一个爬取百度前10条热搜

    import requests from bs4 import BeautifulSoup def get baidu hot url https top baidu com board tab realtime headers User
  • 宝塔面板如何部署静态网站?一分钟教会你最简单的方法

    宝塔面板如何部署静态网站 如果你有做好的静态网站源码 想要直接上传到宝塔面板 有的朋友可能不知道放在哪里 这里教大家一个最简单的方法 首先 一键部署好你的网站 这里用WordPress一键部署来举例 填写好你的网站信息 保存好数据库名和密码
  • 神经网络的过拟合是什么,神经网络过拟合的表现

    神经网络过拟合的现象是什么 发生原因 过拟合现象一般都是因为学习的过于精确 就好比让机器学习人脸 取了100个人的脸训练 但是由于你学习的过精确 导致除了这个样本100人外其他的人脸神经网络都认为不是人脸 实际我们只需要学习人脸的基本特征而
  • lstm时间序列预测+GRU(python)

    lstm时间序列预测 GRU python 1 数据分布 2 完整代码 3 实验结果 4 相关代码 4 1 GRU的修改 4 2 BiLSTM的修改 可以参考新发布的文章 1 BP神经网络预测 python 2 mlp多层感知机预测 pyt
  • 1、muduo网络库 ---- Linux平台下muduo编译安装

    muduo库的介绍 一个基于reactor反应堆模型的多线程C 网络库 作者是陈硕大神 muduo库是基于 boost 库开发的 所以需要在 Linux 平台上首先安装 boost 库 1 boost 库安装 1 编译源码安装 第一种方法是
  • Linux Nginx 配置 Thinkphp 两种方式

    第一种常见 前端vue后端Thinkphp接口以 api开头 这种Thinkphp不用启动 但是需要启动 php pfm 遇到的问题是我多个Thinkphp 项目在不同的目录 配置也是对应目录 但是不同域名访问接口 时都指向了第一个Thin
  • MQ--3 Message queuing)>>>>kafka

    MQ 1 Message queuing gt gt gt gt RabbitMQ MQ 2 Message queuing gt gt gt gt ZooKeeper 三 Kafka http kafka apache org 官网链接