Failed to start Ceph object storage daemon osd.14

2023-05-16

问题:ceph集群osd变为down的状态,并且重启osd也一直失败。
分析:

[root@shnode183 ~]# systemctl status ceph-osd@14
● ceph-osd@14.service - Ceph object storage daemon osd.14
   Loaded: loaded (/usr/lib/systemd/system/ceph-osd@.service; enabled-runtime; vendor preset: disabled)
   Active: failed (Result: start-limit) since Mon 2020-06-08 17:47:25 CST; 2s ago
  Process: 291595 ExecStart=/usr/bin/ceph-osd -f --cluster ${CLUSTER} --id %i --setuser ceph --setgroup ceph (code=exited, status=1/FAILURE)
  Process: 291589 ExecStartPre=/usr/lib/ceph/ceph-osd-prestart.sh --cluster ${CLUSTER} --id %i (code=exited, status=0/SUCCESS)
 Main PID: 291595 (code=exited, status=1/FAILURE)

Jun 08 17:47:25 shnode183 systemd[1]: Unit ceph-osd@14.service entered failed state.
Jun 08 17:47:25 shnode183 systemd[1]: ceph-osd@14.service failed.
Jun 08 17:47:25 shnode183 systemd[1]: ceph-osd@14.service holdoff time over, scheduling restart.
Jun 08 17:47:25 shnode183 systemd[1]: Stopped Ceph object storage daemon osd.14.
Jun 08 17:47:25 shnode183 systemd[1]: start request repeated too quickly for ceph-osd@14.service
Jun 08 17:47:25 shnode183 systemd[1]: Failed to start Ceph object storage daemon osd.14.
Jun 08 17:47:25 shnode183 systemd[1]: Unit ceph-osd@14.service entered failed state.
Jun 08 17:47:25 shnode183 systemd[1]: ceph-osd@14.service failed.

[root@shnode183 ~]# tail /var/log/ceph/ceph-osd.14.log
2020-06-08 17:47:25.091 7f8f9d863a80  0 set uid:gid to 167:167 (ceph:ceph)
2020-06-08 17:47:25.091 7f8f9d863a80  0 ceph version 14.2.8 (2d095e947a02261ce61424021bb43bd3022d35cb) nautilus (stable), process ceph-osd, pid 291575
2020-06-08 17:47:25.091 7f8f9d863a80  0 pidfile_write: ignore empty --pid-file
2020-06-08 17:47:25.114 7f8f9d863a80 -1 bluestore(/var/lib/ceph/osd/ceph-14/block) _read_bdev_label failed to read from /var/lib/ceph/osd/ceph-14/block: (5) Input/output error
2020-06-08 17:47:25.114 7f8f9d863a80 -1  ** ERROR: unable to open OSD superblock on /var/lib/ceph/osd/ceph-14: (2) No such file or directory
2020-06-08 17:47:25.343 7f826fb16a80  0 set uid:gid to 167:167 (ceph:ceph)
2020-06-08 17:47:25.343 7f826fb16a80  0 ceph version 14.2.8 (2d095e947a02261ce61424021bb43bd3022d35cb) nautilus (stable), process ceph-osd, pid 291595
2020-06-08 17:47:25.343 7f826fb16a80  0 pidfile_write: ignore empty --pid-file
2020-06-08 17:47:25.366 7f826fb16a80 -1 bluestore(/var/lib/ceph/osd/ceph-14/block) _read_bdev_label failed to read from /var/lib/ceph/osd/ceph-14/block: (5) Input/output error
2020-06-08 17:47:25.366 7f826fb16a80 -1  ** ERROR: unable to open OSD superblock on /var/lib/ceph/osd/ceph-14: (2) No such file or directory

[root@shnode183 ~]# dmesg -T
[Tue Jun  2 04:07:26 2020] sd 0:2:1:0: [sdb] tag#10 FAILED Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK
[Tue Jun  2 04:07:26 2020] sd 0:2:1:0: [sdb] tag#10 CDB: Read(16) 88 00 00 00 00 02 fc 7f 41 80 00 00 02 00 00 00
[Tue Jun  2 04:07:26 2020] print_req_error: I/O error, dev sdb, sector 12826132864
[Tue Jun  2 04:07:30 2020] sd 0:2:1:0: [sdb] tag#31 FAILED Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK
[Tue Jun  2 04:07:30 2020] sd 0:2:1:0: [sdb] tag#43 FAILED Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK
[Tue Jun  2 04:07:30 2020] sd 0:2:1:0: [sdb] tag#31 CDB: Write(16) 8a 00 00 00 00 02 18 71 bc d0 00 00 00 10 00 00
[Tue Jun  2 04:07:30 2020] sd 0:2:1:0: [sdb] tag#43 CDB: Read(16) 88 00 00 00 00 02 bf 09 53 80 00 00 02 00 00 00
[Tue Jun  2 04:07:30 2020] print_req_error: I/O error, dev sdb, sector 11794994048
[Tue Jun  2 04:07:30 2020] print_req_error: I/O error, dev sdb, sector 9000041680
[Tue Jun  2 04:07:30 2020] Buffer I/O error on dev dm-1, logical block 1125004954, lost async page write
[Tue Jun  2 04:07:30 2020] sd 0:2:1:0: [sdb] tag#17 FAILED Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK
[Tue Jun  2 04:07:30 2020] print_req_error: I/O error, dev sdb, sector 10183874816
[Tue Jun  2 04:07:30 2020] sd 0:2:1:0: [sdb] tag#8 FAILED Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK
[Tue Jun  2 04:07:30 2020] sd 0:2:1:0: [sdb] tag#18 FAILED Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK
[Tue Jun  2 04:07:30 2020] sd 0:2:1:0: [sdb] tag#17 CDB: Read(16) 88 00 00 00 00 00 5a 16 d3 80 00 00 00 48 00 00
[Tue Jun  2 04:07:30 2020] Buffer I/O error on dev dm-1, logical block 1125004955, lost async page write
[Tue Jun  2 04:07:30 2020] print_req_error: I/O error, dev sdb, sector 1511445376
[Tue Jun  2 04:07:30 2020] sd 0:2:1:0: [sdb] tag#18 CDB: Read(16) 88 00 00 00 00 02 19 12 0f 00 00 00 00 10 00 00
[Tue Jun  2 04:07:30 2020] print_req_error: I/O error, dev sdb, sector 9010548480
[Tue Jun  2 04:07:30 2020] sd 0:2:1:0: [sdb] tag#8 CDB: Read(16) 88 00 00 00 00 02 19 e7 83 80 00 00 00 10 00 00
[Tue Jun  2 04:07:30 2020] sd 0:2:1:0: [sdb] tag#44 FAILED Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK
[Tue Jun  2 04:07:30 2020] print_req_error: I/O error, dev sdb, sector 9024537472
[Tue Jun  2 04:07:30 2020] sd 0:2:1:0: [sdb] tag#44 CDB: Read(16) 88 00 00 00 00 02 bf 09 55 80 00 00 01 e8 00 00
[Tue Jun  2 04:07:30 2020] print_req_error: I/O error, dev sdb, sector 11794994560
[Tue Jun  2 04:07:30 2020] sd 0:2:1:0: [sdb] tag#8 FAILED Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK
[Tue Jun  2 04:07:30 2020] sd 0:2:1:0: [sdb] tag#13 FAILED Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK
[Tue Jun  2 04:07:30 2020] sd 0:2:1:0: [sdb] tag#8 CDB: Read(16) 88 00 00 00 00 02 19 12 0f 00 00 00 00 08 00 00
[Tue Jun  2 04:07:30 2020] print_req_error: I/O error, dev sdb, sector 9010548480
[Tue Jun  2 04:07:30 2020] sd 0:2:1:0: [sdb] tag#13 CDB: Read(16) 88 00 00 00 00 02 19 e7 83 80 00 00 00 08 00 00
[Tue Jun  2 04:07:30 2020] print_req_error: I/O error, dev sdb, sector 9024537472
[Tue Jun  2 04:07:30 2020] Buffer I/O error on dev dm-1, logical block 1126318304, async page read
[Tue Jun  2 04:07:30 2020] Buffer I/O error on dev dm-1, logical block 1128066928, async page read

[root@shnode183 ~]# pvs
  Error reading device /dev/sdb at 0 length 512.
  Error reading device /dev/sdb at 0 length 4.
  Error reading device /dev/sdb at 4096 length 4.
  PV         VG                                        Fmt  Attr PSize  PFree
  /dev/sdb   ceph-0a213fb7-3bdd-49fc-904c-9aecf750ef05 lvm2 a--   8.73t    0
  /dev/sdc   ceph-bf6136eb-671c-44ee-aa24-9a460c2901bd lvm2 a--   8.73t    0
  /dev/sdd   ceph-22bbd5e1-f98d-40a2-950d-023a08ba5eb3 lvm2 a--   8.73t    0
  /dev/sde   ceph-b1df4cad-fc0e-430a-8a2b-8fd08ce4cb62 lvm2 a--   8.73t    0
  /dev/sdf   ceph-36c57ac2-0724-4f6f-bdb0-020cd18d0643 lvm2 a--   8.73t    0
  /dev/sdg   ceph-52d9bdc0-f9f0-4659-83d4-4b6cc80e387f lvm2 a--  <6.55t    0
  /dev/sdh   ceph-75b81cc4-095c-4281-8b26-222a7e669d09 lvm2 a--  <6.55t    0
[root@shnode183 ~]# hpssacli ctrl slot=0  show  config detail
-bash: hpssacli: command not found
You have new mail in /var/spool/mail/root
[root@shnode183 ~]# vgs
  VG                                        #PV #LV #SN Attr   VSize  VFree
  ceph-0a213fb7-3bdd-49fc-904c-9aecf750ef05   1   1   0 wz--n-  8.73t    0
  ceph-22bbd5e1-f98d-40a2-950d-023a08ba5eb3   1   1   0 wz--n-  8.73t    0
  ceph-36c57ac2-0724-4f6f-bdb0-020cd18d0643   1   1   0 wz--n-  8.73t    0
  ceph-52d9bdc0-f9f0-4659-83d4-4b6cc80e387f   1   1   0 wz--n- <6.55t    0
  ceph-75b81cc4-095c-4281-8b26-222a7e669d09   1   1   0 wz--n- <6.55t    0
  ceph-b1df4cad-fc0e-430a-8a2b-8fd08ce4cb62   1   1   0 wz--n-  8.73t    0
  ceph-bf6136eb-671c-44ee-aa24-9a460c2901bd   1   1   0 wz--n-  8.73t    0
You have new mail in /var/spool/mail/root

排查发现时磁盘/dev/sdb损坏,需要更换。清楚/dev/sdb的逻辑卷信息

[root@shnode183 ~]# df -h|grep ceph
tmpfs            63G   24K   63G   1% /var/lib/ceph/osd/ceph-15
tmpfs            63G   24K   63G   1% /var/lib/ceph/osd/ceph-17
tmpfs            63G   24K   63G   1% /var/lib/ceph/osd/ceph-20
tmpfs            63G   24K   63G   1% /var/lib/ceph/osd/ceph-16
tmpfs            63G   24K   63G   1% /var/lib/ceph/osd/ceph-19
tmpfs            63G   24K   63G   1% /var/lib/ceph/osd/ceph-18
tmpfs            63G   24K   63G   1% /var/lib/ceph/osd/ceph-14
[root@shnode183 ~]# umount /var/lib/ceph/osd/ceph-14
[root@shnode183 ~]# lvs
  LV                                             VG                                        Attr       LSize  Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  osd-block-fbd4f71a-9ada-4fbd-b87f-9d1f4f9dab93 ceph-0a213fb7-3bdd-49fc-904c-9aecf750ef05 -wi-a-----  8.73t
  osd-block-091f4915-e79f-43fa-b40d-89f3cdf1cf4f ceph-22bbd5e1-f98d-40a2-950d-023a08ba5eb3 -wi-ao----  8.73t
  osd-block-f52a5fbd-e4ac-41dd-869c-f25b7867b726 ceph-36c57ac2-0724-4f6f-bdb0-020cd18d0643 -wi-ao----  8.73t
  osd-block-8035bf12-6a30-4a57-910e-ddf7e7f319cd ceph-52d9bdc0-f9f0-4659-83d4-4b6cc80e387f -wi-ao---- <6.55t
  osd-block-882e7034-f5d2-480d-be60-3e7c8a746f1b ceph-75b81cc4-095c-4281-8b26-222a7e669d09 -wi-ao---- <6.55t
  osd-block-1fbd5079-51bd-479b-9e2e-80a3264f46ba ceph-b1df4cad-fc0e-430a-8a2b-8fd08ce4cb62 -wi-ao----  8.73t
  osd-block-0a09de8e-354f-407e-a57e-cb346d8cac6c ceph-bf6136eb-671c-44ee-aa24-9a460c2901bd -wi-ao----  8.73t
[root@shnode183 ~]# pvs
  Error reading device /dev/sdb at 0 length 512.
  Error reading device /dev/sdb at 0 length 4.
  Error reading device /dev/sdb at 4096 length 4.
  PV         VG                                        Fmt  Attr PSize  PFree
  /dev/sdb   ceph-0a213fb7-3bdd-49fc-904c-9aecf750ef05 lvm2 a--   8.73t    0
  /dev/sdc   ceph-bf6136eb-671c-44ee-aa24-9a460c2901bd lvm2 a--   8.73t    0
  /dev/sdd   ceph-22bbd5e1-f98d-40a2-950d-023a08ba5eb3 lvm2 a--   8.73t    0
  /dev/sde   ceph-b1df4cad-fc0e-430a-8a2b-8fd08ce4cb62 lvm2 a--   8.73t    0
  /dev/sdf   ceph-36c57ac2-0724-4f6f-bdb0-020cd18d0643 lvm2 a--   8.73t    0
  /dev/sdg   ceph-52d9bdc0-f9f0-4659-83d4-4b6cc80e387f lvm2 a--  <6.55t    0
  /dev/sdh   ceph-75b81cc4-095c-4281-8b26-222a7e669d09 lvm2 a--  <6.55t    0
[root@shnode183 ~]# lvremove osd-block-fbd4f71a-9ada-4fbd-b87f-9d1f4f9dab93/ceph-0a213fb7-3bdd-49fc-904c-9aecf750ef05
  Volume group "osd-block-fbd4f71a-9ada-4fbd-b87f-9d1f4f9dab93" not found
  Cannot process volume group osd-block-fbd4f71a-9ada-4fbd-b87f-9d1f4f9dab93
[root@shnode183 ~]# lvremove ceph-0a213fb7-3bdd-49fc-904c-9aecf750ef05/osd-block-fbd4f71a-9ada-4fbd-b87f-9d1f4f9dab93
Do you really want to remove active logical volume ceph-0a213fb7-3bdd-49fc-904c-9aecf750ef05/osd-block-fbd4f71a-9ada-4fbd-b87f-9d1f4f9dab93? [y/n]: y
  Error reading device /dev/sdb at 4096 length 512.
  Failed to read metadata area header on /dev/sdb at 4096
  WARNING: Failed to write an MDA of VG ceph-0a213fb7-3bdd-49fc-904c-9aecf750ef05.
  Failed to write VG ceph-0a213fb7-3bdd-49fc-904c-9aecf750ef05.

此时是无法删除的,需要用以下命令刷新缓存即可。

[root@shnode183 ~]#  pvscan --cache
You have new mail in /var/spool/mail/root
[root@shnode183 ~]# pvs
  Error reading device /dev/sdb at 0 length 512.
  Error reading device /dev/sdb at 0 length 4.
  Error reading device /dev/sdb at 4096 length 4.
  PV         VG                                        Fmt  Attr PSize  PFree
  /dev/sdc   ceph-bf6136eb-671c-44ee-aa24-9a460c2901bd lvm2 a--   8.73t    0
  /dev/sdd   ceph-22bbd5e1-f98d-40a2-950d-023a08ba5eb3 lvm2 a--   8.73t    0
  /dev/sde   ceph-b1df4cad-fc0e-430a-8a2b-8fd08ce4cb62 lvm2 a--   8.73t    0
  /dev/sdf   ceph-36c57ac2-0724-4f6f-bdb0-020cd18d0643 lvm2 a--   8.73t    0
  /dev/sdg   ceph-52d9bdc0-f9f0-4659-83d4-4b6cc80e387f lvm2 a--  <6.55t    0
  /dev/sdh   ceph-75b81cc4-095c-4281-8b26-222a7e669d09 lvm2 a--  <6.55t    0
[root@shnode183 ~]# lvs
  LV                                             VG                                        Attr       LSize  Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  osd-block-091f4915-e79f-43fa-b40d-89f3cdf1cf4f ceph-22bbd5e1-f98d-40a2-950d-023a08ba5eb3 -wi-ao----  8.73t
  osd-block-f52a5fbd-e4ac-41dd-869c-f25b7867b726 ceph-36c57ac2-0724-4f6f-bdb0-020cd18d0643 -wi-ao----  8.73t
  osd-block-8035bf12-6a30-4a57-910e-ddf7e7f319cd ceph-52d9bdc0-f9f0-4659-83d4-4b6cc80e387f -wi-ao---- <6.55t
  osd-block-882e7034-f5d2-480d-be60-3e7c8a746f1b ceph-75b81cc4-095c-4281-8b26-222a7e669d09 -wi-ao---- <6.55t
  osd-block-1fbd5079-51bd-479b-9e2e-80a3264f46ba ceph-b1df4cad-fc0e-430a-8a2b-8fd08ce4cb62 -wi-ao----  8.73t
  osd-block-0a09de8e-354f-407e-a57e-cb346d8cac6c ceph-bf6136eb-671c-44ee-aa24-9a460c2901bd -wi-ao----  8.73t

可见损坏的逻辑卷已消失。

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

Failed to start Ceph object storage daemon osd.14 的相关文章

  • Objective-C 中的类对象和实例变量

    我很难理解这个概念 我直接引用书中的一句话 类对象还继承自层次结构中位于其上方的类 但因为它们没有实例变量 只有实例有 所以它们只继承方法 如果我错了 请纠正我 但类对象将是这样的 NSString aString NSString all
  • 如何编写一个函数来测试链接列表是否已排序

    我查看了其他帖子 但没有找到适合我的查询的很好的解决方案 我不想对链接列表进行实际排序 我想看看它是否已排序 我有一个 C 中的链表问题 我被要求编写一个给定链表定义的函数来查看它是否已排序 实现函数 isSorted 如果链表中的值按升序
  • 将属性添加到对象数组

    我有一个对象数组 如下所示 Object Results Array 2 Results Array 2 0 1 0 Object id 1 name Rick 1 Object id 2 name david 我想向该对象数组的每个元素添
  • Laravel 5.3 存储和读取文件目录

    目前正在尝试处理文件 但很难弄清楚将它们放在哪里以及如何在列表中读回它们 我尝试过将一些测试文件放入 files array dir opendir asset files open the cwd also do an err check
  • java中引用和对象有什么区别? [复制]

    这个问题在这里已经有答案了 我有类 GUI 所以我可以创建这样的对象 GUI g1 new GUI 和一个像这样的引用变量 GUI g2 现在据我所知 g2 是一个引用变量 它引用 GUI 类 而 g1 是 GUI 类的对象 g1和g2有什
  • Angular 2 - 通过引用传递对象字段。可重复使用的编辑对象的方式

    我正在创建可重用的表组件 该组件将允许编辑对象字段 以准备将它们发送到 API 拥有一个对象 person name John job type IT title Software Engineer 我想将对象嵌套字段传递给组件并进行编辑
  • 具有字典属性的 C# 匿名对象

    我正在尝试将字典转换为匿名类型 每个键都有一个属性 我尝试用谷歌搜索 但我所能找到的只是如何将匿名对象转换为字典 我的字典看起来像这样 var dict new Dictionary
  • super 在 python 中真正做什么[关闭]

    Closed 这个问题需要细节或清晰度 help closed questions 目前不接受答案 我刚刚读过方法解析顺序 http python history blogspot com 2010 06 method resolution
  • 在 Linux 中使用仅限 CLI 的工具生成磁盘使用情况图/图表

    在这个问题中 https stackoverflow com questions 32230 tracking down where disk space has gone on linux有人询问如何在 Linux 中显示磁盘使用情况 我
  • 如何查找 Android 上剩余的可用存储空间(磁盘空间)? [复制]

    这个问题在这里已经有答案了 我试图找出运行我的应用程序的 Android 手机上的可用磁盘空间 有没有办法以编程方式执行此操作 Thanks 示例 获取人类可读的大小 如 1 Gb 字符串内存 bytesToHuman totalMemor
  • Java:如何复制对象数组?

    现在 我有一个 Point 对象数组 我想制作一个COPY该数组的 我尝试过以下方法 1 Point temp mypointarray 2 Point temp Point mypointarray clone 3 Point temp
  • 为什么.NET中的每个类都继承自Object?

    我不明白 为什么他们需要一个共同的基础 这个问题预设了一个谎言 他们不need一个共同的基础类型 这个选择并不是出于必要 这是出于为客户提供最佳价值的愿望 当设计类型系统或任何其他相关问题时 有时您会遇到决策点 您必须决定 X 或非 X 公
  • 二进制增量存储

    我正在寻找一种二进制增量存储解决方案来版本化大型二进制文件 数字音频工作站文件 使用 DAW 文件时 与用于存储原始数据 波形 的大量数据相比 大多数更改 尤其是在混音结束时 都非常小 如果我们的 DAW 文件有一个版本控制系统 让我们可以
  • 如何将对象转换为传递给函数的类型?

    这不会编译 但我想做的只是将对象转换为传递给函数的 t public void My Func Object input Type t t object ab TypeDescriptor GetConverter t ConvertFro
  • 使用另一个对象数组过滤对象数组

    这个问题与这个问题类似Jquery 过滤带循环的对象数组 https stackoverflow com questions 30998424 jquery filter array of object with loop但这次我需要使用对
  • Javascript 中“是……的实例”是什么意思?

    这个问题的答案 JavaScript 函数的原型属性的初始值是多少 https stackoverflow com questions 4073677 what is the initial value of a javascript fu
  • 从平面数组创建嵌套对象

    我目前有一个对象数组 我正在尝试将其重塑为嵌套对象ID作为对象键 并将其作为目标ID与parentid 如果不是 0 我尝试了几种方法 但我很挣扎 主要绊脚石for me是超过一两层深度的任何东西 理想情况下 我需要它是动态的 这样它就可以
  • 当key未知时如何获取js对象中的属性值

    我有一个对象数组 a 81 25 p 81 25 81 26 p 81 26 我想循环遍历数组并获取值p在每个元素中 for var key in a console log a key outputs 81 25 Object How d
  • Java中如何对对象数组进行排序?

    我的数组不包含任何字符串 但它包含对象引用 每个对象引用都通过 toString 方法返回名称 id 作者和发布者 public String toString return name n id n author n publisher n
  • PHP 对象创建和内存使用

    一个基本的虚拟类 class foo var bar 0 function foo function boo echo memory get usage echo n foo new foo echo memory get usage ec

随机推荐

  • Linux--day04\05

    知识点和问题 1 Linux组基本介绍2 查看文件的所有者3 创建一个组police 再创建一个用户tom xff0c 将tom放在police中 xff0c 然后使用tom来创建ok txt文件 xff0c 看看情况如何 4 使用root
  • 如何在Ubuntu上运行.run文件

    在Ubuntu上运行 run文件 xff0c 有以下几个步骤 xff1a 1 打开一个终端 ctrl 43 alt 43 t 2 cd 到 run文件所在目录 3 输入 34 chmod 43 x foo run 34 4 输入 34 fo
  • /dev/tty、/dev/ttyS/、/dev/ttyUSB区别

    1 dev tty 当前控制终端Terminal 可以使用命令 ps ax 来查看进程与哪个控制终端相连 xff0c 使用命令 tty 可以查看它 具体对应哪个实际终端设备 2 dev ttyn和 dev console xff08 虚拟
  • 怎么解决你的Segmentation fault (core dumped)问题

    http westsoftware blog 163 com blog static 260941092011460252776 开发一个Linux Unix C C 43 43 程序的时候 xff0c 有时候会出现莫名的core dump
  • 前端生成图表

    http www cnblogs com skiler p 6679828 html 1 常用的前端生成图表的工具HighCharts和echarts 2 具体内容可参考官方文档 xff0c 有一些具体实例 xff0c JS和HTML的代码
  • C语言与C++的区别终于有人说清楚了!

    点击蓝字 关注我们 来源于网络 xff0c 侵删 1 前言 在很大程度上 xff0c C 43 43 是C的超集 xff0c 这意味着一个有效的C程序也是一个有效的C 43 43 程序 C和C 43 43 的主要区别是 xff0c C 43
  • python3,浅谈with的神奇魔法

    在实际的编码过程中 xff0c 有时有一些任务 xff0c 需要事先做一些设置 xff0c 事后做一些清理 xff0c 这时就需要python with出场了 xff0c with能够对这样的需求进行一个比较优雅的处理 xff0c 最常用的
  • archlinux安装配置vnc+openbox

    为什么用openbox xff0c 因为它很小 xff0c 占用资源少 够我用了 我用linux大部分只用命令行界面就够了 图形界面程序用的最多的也就是浏览器了 安装相关软件包 span class token comment 更新下系统
  • 安装vsftpd,并将用户锁定到家目录中,不能切换其他目录

    安装vsftpd span class token function rpm span ivh vsftpd 3 0 2 28 el7 x86 64 rpm 创建用户 span class token function useradd sp
  • c语言——http编程

    HTTP协议简介 超文本传输协议是一种用于分布式 协作式和超媒体信息系统的应用层协议 HTTP是一个客户端终端 xff08 用户 xff09 和服务器端 xff08 网站 xff09 请求和应答的标准 xff08 一般基于TCP xff09
  • 4、【STM32】蜂鸣器/按键实验

    目录 前言 理论学习 一 蜂鸣器简介 二 机械按键简介 三 GPIO配置简介 实践学习 一 设计规划 1 1 实验目标 1 2 硬件资源 二 程序设计 2 1 建立工程文件 2 2 led配置 2 3 beep配置 2 4 key配置 2
  • 多个线程ThreadLocal中存的是什么

    之前所学不精 xff0c 现在看一下确实是 xff0c 我ThreadLocal里如果都存的是一个共享变量的话 xff0c 那么肯定是会两边都相同的 其实现在回头看这些代码就没有了当初学术不精时候的疑惑了 xff0c 反正也被喷了 xff0
  • HashMap的indexFor方法

    关于HashMap中的IndexOf方法原来一直没有想通为什么用 amp 并且和length 1做运算 xff0c 今天琢磨了一下 static int indexFor int h int length return h amp leng
  • 网易云音乐歌曲带时间轴歌词的提取

    本文章的结果 xff1a 1 获取网易云上带时间轴的lrc歌词文本 2 对获取到的文本进行延时矫正处理 xff08 整体 xff0c 也就是说每一行都处理 xff09 获取到网易云音乐上带时间轴的歌词文本 xff0c 效果如下 xff1a
  • zookeeper单机部署服务无法启动的问题

    注意你的zoo cfg中是不是乱码了 xff0c 可能你自己看起来是没问题 xff0c 但解析的时候乱码 今天调试单机部署ZooKeeper xff0c 还真是千奇百怪的问题都有 xff0c 搜了百度谷歌各种关键词 xff0c 说的都在理
  • Git与IDEA的一些冲突问题

    今天 xff0c 在IDEA上跑代码 xff0c 一系列的pull push之后 xff0c 在最后所在的工作区上跑代码时候 xff0c 出现了debug跑的代码和我工作区看见的代码不一致的问题 xff0c 换句话说就是你看见的那些代码是A
  • IDEA :Cannot start compilation: the output path is not specified for module “Test”. Specify the outp

    文章转从 https blog csdn net zZ life article details 51318306 错误是发生在从github上checkout自己的项目时 因为没有将配置文件一起上传 xff0c 所以在运行java程序时有
  • ERROR: Cannot uninstall 'PyYAML'. It is a distutils installed project and thus we cannot accurately

    ERROR Cannot uninstall 39 PyYAML 39 It is a distutils installed project and thus we cannot accurately determine which fi
  • 三层交换机LACP协议对 L2/L3端口,报文处理实验

    测试结果 span class token macro property lacp 支持在 L2 L3端口 及路由聚合组 span span class token punctuation span Router span class to
  • Failed to start Ceph object storage daemon osd.14

    问题 xff1a ceph集群osd变为down的状态 xff0c 并且重启osd也一直失败 分析 xff1a root 64 shnode183 systemctl status ceph osd 64 14 ceph osd 64 14