kafka安装配置详解和安装成功验证

2023-05-16

kafka安装后测试

kafka配置项详解

默认 kafka server.properties  配置如下:
############################# Server Basics #############################          # 服务器基础知识

# The id of the broker. This must be set to a unique integer for each broker.      # 必须为每个代理设置一个唯一的整数
broker.id=0

############################# Socket Server Settings #############################   # 套接字服务器设置

# The address the socket server listens on. It will get the value returned from 
# java.net.InetAddress.getCanonicalHostName() if not configured.
#   FORMAT:
#     listeners = listener_name://host_name:port
#   EXAMPLE:
#     listeners = PLAINTEXT://your.host.name:9092
#listeners=PLAINTEXT://:9092

# Hostname and port the broker will advertise to producers and consumers. If not set, 
# it uses the value for "listeners" if configured.  Otherwise, it will use the value
# returned from java.net.InetAddress.getCanonicalHostName().
#advertised.listeners=PLAINTEXT://your.host.name:9092

# Maps listener names to security protocols, the default is for them to be the same. See the config documentation for more details
#listener.security.protocol.map=PLAINTEXT:PLAINTEXT,SSL:SSL,SASL_PLAINTEXT:SASL_PLAINTEXT,SASL_SSL:SASL_SSL

# The number of threads that the server uses for receiving requests from the network and sending responses to the network
num.network.threads=3                                       # 服务器用于从网络接收请求并向网络发送响应的线程数  默认是3 

# The number of threads that the server uses for processing requests, which may include disk I/O
num.io.threads=8                                               # 服务器用于处理请求的线程数,可能包括磁盘I / O.  默认是 8

# The send buffer (SO_SNDBUF) used by the socket server         #套接字服务器使用的发送缓冲区(SO_SNDBUF)
socket.send.buffer.bytes=102400

# The receive buffer (SO_RCVBUF) used by the socket server      #套接字服务器使用的接收缓冲区(SO_RCVBUF)
socket.receive.buffer.bytes=102400

# The maximum size of a request that the socket server will accept (protection against OOM)         # 套接字服务器将接受的请求的最大大小(防止OOM)
socket.request.max.bytes=104857600

############################# Log Basics #############################   日志基础

# A comma separated list of directories under which to store log files          #逗号分隔的目录列表,用于存储日志文件
log.dirs=/tmp/kafka-logs

# The default number of log partitions per topic. More partitions allow greater    #每个主题的默认日志分区数。更多分区允许更大
# parallelism for consumption, but this will also result in more files across      #dileism for consumption,但这也会导致更多的文件
# the brokers.
num.partitions=1                                                                   # 建议broker少的话,默认就几个broker 就设置成几个分区

#在启动时用于日志恢复和在关闭时刷新的每个数据目录的线程数。
#对于数据目录位于RAID阵列中的安装,建议增加此值。
# The number of threads per data directory to be used for log recovery at startup and flushing at shutdown.
# This value is recommended to be increased for installations with data dirs located in RAID array.
num.recovery.threads.per.data.dir=1

############################# Internal Topic Settings  #############################   内部主题设置
#组元数据内部主题“__consumer_offsets”和“__transaction_state”的复制因子
#对于除开发测试之外的任何其他内容,建议使用大于1的值以确保可用性,例如3。
# The replication factor for the group metadata internal topics "__consumer_offsets" and "__transaction_state"
# For anything other than development testing, a value greater than 1 is recommended for to ensure availability such as 3.
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
//关于这3个参数,可以在修改kafka程序中指定的 __consumer_offsets 的副本数 
然后@上海-马吉辉 说只要num.partitions=3,__consumer_offsets副本数就是3,我测试不是 还是1
所以还是以offsets.topic.replication.factor参数控制为准
如果不是第一次启动kafka  那几个配置只有在初次启动生效的。 apache kafka 下载下来应该都默认是 1 吧,2.* 也是 1 啊。
可以这样修改
先停止kafka集群,删除每个broker  data目录下所有__consumer_offsets_*
然后删除zookeeper下rmr /kafkatest/brokers/topics/__consumer_offsets    然后重启kafka
消费一下,这个__consumer_offsets就会创建了
注意:是在第一次消费时,才创建这个topic的,不是broker集群启动就创建,还有那个__trancation_state  topic也是第一次使用事务的时候才会创建

小结:在生产上,没人去删zk里的内容,危险系数大,还是推荐动态扩副本,只要把json写对就好

############################# Log Flush Policy #############################    日志刷新政策
#消息立即写入文件系统,但默认情况下我们只有fsync()才能同步
#懒惰的操作系统缓存。以下配置控制将数据刷新到磁盘。
#这里有一些重要的权衡:
#1。持久性:如果您不使用复制,则可能会丢失未刷新的数据。
#2。延迟:当刷新确实发生时,非常大的刷新间隔可能会导致延迟峰值,因为会有大量数据需要刷新。
#3。吞吐量:冲洗通常是最昂贵的操作,并且小的冲洗间隔可能导致过多的搜索。
#以下设置允许配置刷新策略以在一段时间后刷新数据或
#每N条消息(或两者)。这可以在全局范围内完成,并在每个主题的基础上进行覆盖。

# Messages are immediately written to the filesystem but by default we only fsync() to sync
# the OS cache lazily. The following configurations control the flush of data to disk.
# There are a few important trade-offs here:
#    1. Durability: Unflushed data may be lost if you are not using replication.
#    2. Latency: Very large flush intervals may lead to latency spikes when the flush does occur as there will be a lot of data to flush.
#    3. Throughput: The flush is generally the most expensive operation, and a small flush interval may lead to excessive seeks.
# The settings below allow one to configure the flush policy to flush data after a period of time or
# every N messages (or both). This can be done globally and overridden on a per-topic basis.

# The number of messages to accept before forcing a flush of data to disk   #强制刷新数据到磁盘之前要接受的消息数
#log.flush.interval.messages=10000

# The maximum amount of time a message can sit in a log before we force a flush  #强制刷新之前消息可以在日志中停留的最长时间
#log.flush.interval.ms=1000

############################# Log Retention Policy #############################   日志保留政策
#以下配置控制日志段的处理。政策可以
#设置为在一段时间后或在累积给定大小后删除段。
#只要满足这些条件* *,就会删除一个段。删除总是发生
#从日志的末尾开始。

# The following configurations control the disposal of log segments. The policy can
# be set to delete segments after a period of time, or after a given size has accumulated.
# A segment will be deleted whenever *either* of these criteria are met. Deletion always happens
# from the end of the log.

# The minimum age of a log file to be eligible for deletion due to age      #由于年龄原因有资格删除的日志文件的最小年龄
log.retention.hours=168

#日志的基于大小的保留策略。除非剩下,否则将从日志中删除段
#segments落在log.retention.bytes之下。功能独立于log.retention.hours。
#log.retention.bytes = 1073741824
# A size-based retention policy for logs. Segments are pruned from the log unless the remaining
# segments drop below log.retention.bytes. Functions independently of log.retention.hours.
#log.retention.bytes=1073741824

#日志段文件的最大大小。达到此大小时,将创建新的日志段。
# The maximum size of a log segment file. When this size is reached a new log segment will be created.
log.segment.bytes=1073741824

#检查日志段以查看是否可以删除日志段的时间间隔
# The interval at which log segments are checked to see if they can be deleted according
# to the retention policies
log.retention.check.interval.ms=300000

############################# Zookeeper #############################

# Zookeeper connection string (see zookeeper docs for details).
# This is a comma separated host:port pairs, each corresponding to a zk
# server. e.g. "127.0.0.1:3000,127.0.0.1:3001,127.0.0.1:3002".
# You can also append an optional chroot string to the urls to specify the
# root directory for all kafka znodes.
zookeeper.connect=localhost:2181                      # zookeeper集群的地址,可以是多个,多个之间用逗号分割 hostname1:port1,hostname2:port2,hostname3:port3

# Timeout in ms for connecting to zookeeper
zookeeper.connection.timeout.ms=6000                # ZooKeeper的连接超时时间

############################# Group Coordinator Settings #############################   组协调员设置
#以下配置指定GroupCoordinator将延迟初始消费者重新平衡的时间(以毫秒为单位)。
#当新成员加入组时,重新平衡将进一步延迟group.initial.rebalance.delay.ms的值,最多为max.poll.interval.ms。
#默认值为3秒。
#我们将此覆盖为0,因为它为开发和测试提供了更好的开箱即用体验。
#但是,在生产环境中,默认值3秒更合适,因为这有助于避免在应用程序启动期间不必要且可能很昂贵的重新平衡。
group.initial.rebalance.delay.ms = 0

# The following configuration specifies the time, in milliseconds, that the GroupCoordinator will delay the initial consumer rebalance.
# The rebalance will be further delayed by the value of group.initial.rebalance.delay.ms as new members join the group, up to a maximum of max.poll.interval.ms.
# The default value for this is 3 seconds.
# We override this to 0 here as it makes for a better out-of-the-box experience for development and testing.
# However, in production environments the default value of 3 seconds is more suitable as this will help to avoid unnecessary, and potentially expensive, rebalances during application startup.
group.initial.rebalance.delay.ms=0
kafka的扩展参数 抓重点说明
background.threads =4                           # 一些后台任务处理的线程数,例如过期消息文件的删除等,一般情况下不需要去做修改
queued.max.requests =500                          # 等待IO线程处理的请求队列最大数,若是等待IO的请求超过这个数值,那么会停止接受外部消息,应该是一种自我保护机制。
controller.socket.timeout.ms =30000             # partition leader与replicas之间通讯时,socket的超时时间 
controller.message.queue.size=10                # partition leader与replicas数据同步时,消息的队列尺寸
replica.lag.time.max.ms =10000                  # replicas响应partition leader的最长等待时间,若是超过这个时间,就将replicas列入ISR(in-sync replicas),并认为它是死的,不会再加入管理中 
replica.lag.max.messages =4000                  # 如果follower落后与leader太多,将会认为此follower[或者说partition relicas]已经失效
                                                ##通常,在follower与leader通讯时,因为网络延迟或者链接断开,总会导致replicas中消息同步滞后
                                                ##如果消息之后太多,leader将认为此follower网络延迟较大或者消息吞吐能力有限,将会把此replicas迁移
                                                ##到其他follower中.
                                                ##在broker数量较少,或者网络不足的环境中,建议提高此值.
                                                // Leader会跟踪与其保持同步的Replica列表,该列表称为ISR(即in-sync Replica)。如果一个Follower宕机,或者落后太多,Leader将把它从ISR中移除。这里所描述的“落后太多”指Follower复制的消息落后于Leader后的条数超过预定值(该值可在$KAFKA_HOME/config/server.properties中通过replica.lag.max.messages配置,其默认值是4000)或者Follower超过一定时间(该值可在$KAFKA_HOME/config/server.properties中通过replica.lag.time.max.ms来配置,其默认值是10000)未向Leader发送fetch请求。
replica.socket.timeout.ms=30*1000               # follower与leader之间的socket超时时间 
replica.socket.receive.buffer.bytes=64*1024      # leader复制时候的socket缓存大小  建议  1048576 B = 1M 
replica.fetch.max.bytes =1024*1024             # replicas每次获取数据的最大大小 
replica.fetch.wait.max.ms =500                  # replicas同leader之间通信的最大等待时间,失败了会重试
replica.fetch.min.bytes =1                      # fetch的最小数据尺寸,如果leader中尚未同步的数据不足此值,将会阻塞,直到满足条件
num.replica.fetchers=1                          # leader进行复制的线程数,增大这个数值会增加follower的IO
replica.high.watermark.checkpoint.interval.ms =5000   # 每个replica检查是否将最高水位进行固化的频率
leader.imbalance.per.broker.percentage =10     # leader的不平衡比例,若是超过这个数值,会对分区进行重新的平衡
leader.imbalance.check.interval.seconds =300   # 检查leader是否不平衡的时间间隔
zookeeper.connect = localhost:2181             # zookeeper集群的地址,可以是多个,多个之间用逗号分割 hostname1:port1,hostname2:port2,hostname3:port3
zookeeper.session.timeout.ms=6000              # ZooKeeper的最大超时时间,就是心跳的间隔,若是没有反映,那么认为已经死了,不易过大
zookeeper.connection.timeout.ms =6000          # ZooKeeper的连接超时时间
zookeeper.sync.time.ms =2000                   # ZooKeeper集群中leader和follower之间的同步时间
###############################################
grep '^[a-Z]' server.properties 
broker.id=1                             # //当前机器在集群中的唯一标识,和zookeeper的myid性质一样
host.name=10.9.39.110                   # 这个参数默认是关闭的,在0.8.1有个bug,DNS解析问题,失败率的问题。 尽量写ip
num.network.threads=8                   # 这个是borker进行网络处理的线程数 一般num.network.threads主要处理网络io,读写缓冲区数据,基本没有io等待,配置线程数量为cpu核数加1
num.io.threads=16                       # num.io.threads主要进行磁盘io操作,高峰期可能有些io等待,因此配置需要大些。配置线程数量为cpu核数2倍,最大不超过3倍  
socket.send.buffer.bytes=102400         # 发送缓冲区buffer大小,数据不是一下子就发送的,先回存储到缓冲区了到达一定的大小后在发送,能提高性能   100kb (发送缓冲区)推荐1M
socket.receive.buffer.bytes=102400      # kafka接收缓冲区大小,当数据到达一定大小后在序列化到磁盘   100kb   (接收缓冲区)  推荐1M
socket.request.max.bytes=104857600      # 这个参数是向kafka请求消息或者向kafka发送消息的请请求的最大数,这个值不能超过java的堆栈大小 104857600B =  100M (防止oom)
log.dirs=/data/kafka/kafka-logs         # 消息存放的目录,这个目录可以配置为“,”逗号分割的表达式,上面的num.io.threads要大于这个目录的个数,
                                        //这个目录如果配置多个目录,新创建的topic他把消息持久化的地方是,当前以逗号分割的目录中,那个分区数最少就放那一个
num.partitions=1                        # 默认的分区数,一个topic默认1个分区数  我建议根据brocker数设置 broker有3个 就设置成默认分区为3
num.recovery.threads.per.data.dir=1     # 每个数据目录用来日志恢复的线程数目 对于数据目录位于RAID阵列中的安装,建议增加此值。 一般保持默认
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1 
//以上3个推荐#组元数据内部主题“__consumer_offsets”和“__transaction_state”的复制因子对于除开发测试之外的任何其他内容,建议使用大于1的值以确保可用性,例如3。
#log.flush.interval.messages=10000       # 强制刷新数据到磁盘之前要接受的消息数 
#log.flush.interval.ms=1000              # 强制刷新之前消息可以在日志中停留的最长时间 
log.retention.hours=24                  # 默认消息的最大持久化时间,168小时,7天 
#log.retention.bytes = 1073741824      # 日志的基于大小的保留策略。除非剩下,否则将从日志中删除段  segments落在log.retention.bytes之下。功能独立于log.retention.hours。
log.segment.bytes=1073741824            # 这个参数是:因为kafka的消息是以追加的形式落地到文件,当超过这个值的时候,kafka会新起一个文件
log.retention.check.interval.ms=300000  # 每隔300000毫秒去检查上面配置的log失效时间 
zookeeper.connect=10.9.39.110:2181,10.9.139.65:2181,10.9.35.206:2181,10.9.88.40:2181,10.9.74.126:2181/kafkagroup  # 设置zookeeper的连接端口
zookeeper.connection.timeout.ms=60000   # 设置zookeeper的连接超时时间 
group.initial.rebalance.delay.ms=3      # 以下配置指定GroupCoordinator将延迟初始消费者重新平衡的时间(以毫秒为单位)。 官方推荐成 3

kafka安装过程省略,网上有详细教程请自行百度

kafka安装后验证

先看下进程是否在

ps -ef |grep kafka

在这里插入图片描述
进入kafka的bin目录

cd /root/apps/kafka_2.12-2.4.0/bin

创建名为test的topic

./kafka-topics.sh --create --zookeeper 192.168.3.17:2181 --topic test --partitions 3 --replication-factor 1

写入消息 按ctrl+c输入完成

./kafka-console-producer.sh --broker-list 192.168.3.17:9092 --topic test

在这里插入图片描述

重新打开另一个窗口

cd /root/apps/kafka_2.12-2.4.0/bin

输入以下命令

./kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning

在这里插入图片描述

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

kafka安装配置详解和安装成功验证 的相关文章

  • kafka3.1 docker-compose方式安装(二)

    ZooKeeper 是为 Kafka 提供协调服务的工具 xff0c 所以得启动一个ZooKeeper 容器 配置文件 docker compose yml span class token key atrule version span
  • 效能优化实践:C/C++单元测试万能插桩工具

    作者 xff1a mannywang xff0c 腾讯安全平台后台开发 研发效能是一个涉及面很广的话题 xff0c 它涵盖了软件交付的整个生命周期 xff0c 涉及产品 架构 开发 测试 运维 xff0c 每个环节都可能影响顺畅 高质量地持
  • Windows使用cmd刷入recovery.img

    Windows使用cmd刷入recovery img Windows键 43 R回车后进入cmd命令终端 进入fastboot 手机进入fastboot模式有2种方法 第一种进入方法是 xff0c 如果你的手机能用adb识别到 xff0c
  • Linux系统安装环境桌面

    最近工作加班还有在弄大数据 xff0c 有段时间没有记录了 xff0c 后续有空的话整理下大数据的东西分享 xff0c 今天记录下Linux安装环境桌面 之前弄了个阿里云服务器玩玩 xff0c CentOS 7的版本 xff0c CentO
  • 【Linux学习笔记】关于ubuntu开机菜单栏和任务栏不见了的有效解决方法

    一 问题描述 ubuntu开机只有桌面 xff0c 没有菜单栏和任务栏 xff0c 如下图 xff1a 二 问题解决 刚学习ubuntu xff0c 总有些像我这样不折腾就不舒服的人 xff0c 今天改了一下主题 xff0c 图标什么的 x
  • 【数据结构与算法】深入浅出递归和迭代的通用转换思想

    深入浅出递归和迭代的通用转换思想 一般来说 xff0c 能用迭代的地方就不要用递归 xff01 理论上讲 xff0c 所有的递归和迭代之间都能相互转换 xff01 刷题碰到 一天一道LeetCode 130 Surrounded Regio
  • 【unix网络编程第三版】阅读笔记(二):套接字编程简介

    unp第二章主要将了TCP和UDP的简介 xff0c 这些在 TCP IP详解 和 计算机网络 等书中有很多细致的讲解 xff0c 可以参考本人的这篇博客 计算机网络 第五版 阅读笔记之五 xff1a 运输层 xff0c 这篇博客就不再赘述
  • 带你深入理解STL之Deque容器

    在介绍STL的deque的容器之前 xff0c 我们先来总结一下vector和list的优缺点 vector在内存中是分配一段连续的内存空间进行存储 xff0c 其迭代器采用原生指针即可 xff0c 因此其支持随机访问和存储 xff0c 支
  • 带你深入理解STL之Set和Map

    在上一篇博客 带你深入理解STL之RBTree中 xff0c 讲到了STL中关于红黑树的实现 xff0c 理解起来比较复杂 xff0c 正所谓前人种树 xff0c 后人乘凉 xff0c RBTree把树都种好了 xff0c 接下来就该set
  • Redis源码剖析--字符串t_string

    前面一直在分析Redis的底层数据结构 xff0c Redis利用这些底层结构设计了它面向用户可见的五种数据结构 xff0c 字符串 哈希 xff0c 链表 xff0c 集合和有序集合 xff0c 然后用redisObject对这五种结构进
  • 制作启动盘安装Ubuntu 18.04.1

    1 使用UltraISO制作启动盘 首先 xff0c 下载Ubuntu镜像文件 链接 xff1a https pan baidu com s 1saIJuLzAR5ojc7 F3EQ Q 提取码 xff1a 1hc1 打开UItralISO
  • Redis源码剖析--快速列表quicklist

    在RedisObject这一篇博客中 xff0c 有介绍到list结构的底层编码类型有OBJ ENCODING QUICKLIST xff0c 当时就发现这个底层数据结构被我遗漏了 昨天花了点时间补了补这个知识 xff0c 看完发现这货就跟
  • Redis源码剖析--列表list

    上一篇博客Redis源码剖析 快速列表 带大家一起剖析了quicklist这个底层数据结构的实现原理 Redis对外开放的列表list结构就是采用quicklist作为底层实现 xff08 在新版本的Redis源码中 xff0c 不再采用z
  • lottie图片图层的json参数

    https juejin cn post 6992014666159357989
  • Android 各镜像文件img详解

    Android编译后生成文件 xff0c 在out target product xxx下 xff1a cache img cust img metadata img misc img xff08 本地无 xff09 recovery im
  • Android 10 来袭

    Android 10围绕三个重要主题构建 首先 xff0c Android 10正在塑造移动创新的领先优势 xff0c 具有先进的机器学习功能 xff0c 并支持新兴设备 xff0c 如可折叠和5G手机 接下来 xff0c Android
  • python代码规范 以及如何处理Pycharm的波浪号警告

    一 命名规范 1 模块名和包名采用小写字母并且以下划线分隔单词的形式 xff1b 如 regex syntax py compile winreg 2 类名或异常名采用每个单词首字母大写的方式 xff1b 如 xff1a BaseServe
  • java 两数相除 四舍五入 精确 保留2位小数点、任意位小数点

    java 四舍五入 精确 保留2位小数点 任意位小数点 int i 61 4 int j 61 14 float result 61 float i j java text DecimalFormat format 61 java text
  • 电脑关机或重启C盘数据被清空还原问题

    电脑关机后清空数据是因为电脑装有还原精灵 xff0c 可以下载冰点破坏工具 还原精灵破坏工具 硬盘保护卡破坏工具来取消数据的清空 电脑重启不还原 xff0c 方法如下 xff1a 方案一 一般情况下可以用带FDISK的启动盘启动电脑 xff
  • 敏捷教练的十种能力

    1 具备神奇的 读懂一个房间 的能力 只要走进一个房间 xff0c 就能判断出不在的过程中 xff0c 房间里发生了什么事情 xff0c 能立即读出空气中蕴含的情绪 xff0c 从而判断是否一切正常 xff1b 2 关心人本身胜过关心产品

随机推荐

  • Java数组之二分法查找数

    数组的二分法查找数据 使用前提 xff1a 查找的数组必须是有序的 span class token keyword public span span class token keyword class span span class to
  • MQ 队列管理器常见错误解析

    消息管理器无法连接到目标队列管理器 请确保以下事项 xff1a 在 消息管理器 队列管理器定义中所定义的端口与通道侦听器使用的端口相匹配 WebSphere MQ 队列管理器通道侦听器已启动 WebSphere MQ 队列管理器命令服务器已
  • 【简单理解】ubuntu中的sudo和su

    参考 xff1a https blog csdn net liberty12345678 article details 87686284 https cloud tencent com developer article 1721753
  • 那些女程序员们的故事

    点击上方蓝字 关注我们 xff0c 和小伙伴一起聊技术 xff01 程序媛是程序员大军中一道美丽的风景线 xff0c 今天的这篇文章就选取了一些女程序员们的故事 xff0c 希望当所有人了解了他们的经历后 xff0c 能让这个 重男轻女 的
  • 直播分享丨前沿技术讲习班:知识图谱前沿技术与应用(CIPS ATT27)

    本文转载自公众号 xff1a 智源社区助手 作为大数据时代重要的知识表示方式 xff0c 知识图谱是人工智能领域构建和应用知识的新阶段 xff0c 它能够更好地实现大规模数据的认知与推理 同时 xff0c 知识图谱和深度学习相互协作 xff
  • 图谱实战 | 京东基于时序知识图谱的问答系统

    转载公众号 DataFunSummit 分享嘉宾 xff1a 商超博士 京东硅谷研究院 研究员 编辑整理 xff1a 张存旺 北航杭州创新研究院 出品平台 xff1a DataFunTalk 导读 xff1a 本文将分享Temporal K
  • 肖仰华 | 基于知识图谱的问答系统

    本文转载自公众号知识工场 本文整理自复旦大学知识工场肖仰华教授在VLDB 2017 会议上的论文报告 xff0c 题目为 KBQA Learning Question Answering over QA Corpora and Knowle
  • 研讨会 | 知识图谱前沿技术课程暨学术研讨会(武汉大学站)

    知识图谱作为大数据时代重要的知识表示方式之一 xff0c 已经成为人工智能领域的一个重要支撑 4月 28日 xff0c 武汉大学信息集成与应用实验室 与 复旦大学知识工场实验室 联合举办 知识图谱前沿技术课程暨学术研讨会 xff0c 将结合
  • jdbc中Statement和PreparedStatement有什么区别?哪个性能更好?

    Statement和PreparedStatement的功能主要是对sql语句的执行 区别 xff08 1 xff09 Statement每执行一条sql语句就需要生成一条执行计划 xff0c 执行100条就需要100条执行计划Prepar
  • redis的特性

    redis的特性 承接上文redis入门篇 xff0c 本文具体介绍一下redis的特性 xff0c 以及与另外一个nosql数据库memcached的对比 一 redis的优点 根据上文 xff0c 我们知道redis的如下特性成为了他的
  • Ubuntu22.04安装windows字体

    找到C Windows目录 xff0c 将其中的Fonts文件夹拷贝至ubuntu中 将该文件夹放至ubuntu的 usr share fonts目录下面 xff0c 可用下列命令 span class token function sud
  • 阿里巴巴笔试题选解

    阿里巴巴笔试题选解 9月22日 xff0c 阿里巴巴北邮站 小题 xff1a 1 有三个结点 xff0c 可以构成多少种二叉树形结构 xff1f 2 一副牌52 张 去掉大小王 xff0c 从中抽取两张牌 xff0c 一红一黑的概率是多少
  • ActiveMQ与Logback日志组件SLF4J冲突导致日志不输出

    ActiveMQ与Logback中的SLF4J日志组件冲突导致日志不输出 xff0c 控制台提示 Class path contains multiple SLF4J bindings 的解决方案 近期码的时候发现logback的组件日志都
  • 腾讯2014软件开发笔试题目

    腾讯2014软件开发笔试题目 9月21日 xff0c 腾讯2014软件开发校招 简答题 广州 简答题 xff1a 1 请设计一个排队系统 xff0c 能够让每个进入队伍的用户都能看到自己在 中所处的位置和变化 队伍可能随时有人加入和退出 x
  • C++ 进程间通信详解

    一 xff0c C 43 43 常用进程间通信 管道 Pipe xff1a 管道可用于具有亲缘关系进程间的通信 xff0c 允许一个进程和另一个与它有共同祖先的进程之间进行通信 命名管道 named pipe xff1a 命名管道克服了管道
  • OTA系统包的制作和测试方法

    OTA有两种制作方案 整包升级 xff0c 以及差分包升级 整包升级 完整的升级文件aosp XXXX XXX ota 01 20 010 00 00 zip 差异包 将第一个ota整包升级包和第二个ota整包升级包 xff0c 执行 bu
  • JAVA日记之javaJDK原生简单爬虫

    java原生爬虫 指定一个种子url放入到队列中 从队列中获取某个URL 使用HTTP协议发起网络请求 在发起网络请求的过程中 xff0c 需要将域名转化成IP地址 xff0c 也就是域名解析 得到服务器的响应 xff0c 此时是二进制的输
  • idea中修改自定义maven打包参数,打成一个大的jar

    解决idea打包只会把项目本身打成一个jar的问题 加上这条指令 clean package spring boot repackage Dmaven test skip 61 true f pom xml 在maven命令单这个里会生成新
  • 虚拟机桥接后更换外部网络无法访问

    另外一个网卡也改成这样 然后关闭再打开即可
  • kafka安装配置详解和安装成功验证

    kafka安装后测试 kafka配置项详解 默认 kafka server properties 配置如下 xff1a Server Basics 服务器基础知识 The id of the broker This must be set