企业运维之 openstack 的私有网络以及图形化配置

2023-05-16

企业运维之 openstack 的私有网络以及图形化

    • 1. 私有网络
    • 2. 图形化配置虚拟机
    • 3. 封装镜像
    • 4. 上传镜像
    • 5. 块存储
    • 6. kolla-ansible

在上一篇的基础上,来继续完善 openstack 的相关配置。先将控制节点启动,然后在启动计算节点。
调用管理员的权限,查看相关组件的状态。

[root@controller ~]# source admin-openrc 
[root@controller ~]# openstack-status

1. 私有网络

私有网络在共有网络的基础上多了layer-3服务,支持实例连接到私有网络。demo或者其他没有特权的用户可以管理自己的私有网络,包含连接公网和私网的路由器。另外,浮动IP地址可以让实例使用私有网络连接到外部网络,例如互联网.

典型的私有网络一般使用覆盖网络。覆盖网络,例如VXLAN包含了额外的数据头,这些数据头增加了开销,减少了有效内容和用户数据的可用空间。在不了解虚拟网络架构的情况下,实例尝试用以太网 最大传输单元 (MTU) 1500字节发送数据包。网络服务会自动给实例提供正确的MTU的值通过DHCP的方式。

  1. 控制节点
    安装组件
yum install openstack-neutron openstack-neutron-ml2 \
  openstack-neutron-linuxbridge ebtables

配置服务组件
在前面共有网络的基础上增加一些配置即可;

[root@controller ~]# vim /etc/neutron/neutron.conf 
 1 [DEFAULT]

 3 service_plugins = router		#路由服务和重叠的IP地址
 4 allow_overlapping_ips = True

[root@controller ~]# vim /etc/neutron/plugins/ml2/ml2_conf.ini
 99 [ml2]
100 type_drivers = flat,vlan,vxlan	#启用flat,VLAN以及VXLAN网络
101 tenant_network_types = vxlan	#启用VXLAN私有网络
102 mechanism_drivers = linuxbridge,l2population	#启用Linuxbridge和layer-2机制
205 [ml2_type_vxlan]
206 vni_ranges = 1:1000	#为私有网络配置VXLAN网络识别的网络范围


[root@controller ~]# vim /etc/neutron/plugins/ml2/linuxbridge_agent.ini
#启用VXLAN覆盖网络,配置覆盖网络的物理网络接口的IP地址,启用layer-2 population
168 [vxlan]
169 enable_vxlan = True
170 local_ip = 172.25.25.1
171 l2_population = True

[root@controller ~]# vim /etc/neutron/l3_agent.ini
#配置Linuxbridge接口驱动和外部网络网桥

  1 [DEFAULT]
  2 interface_driver = neutron.agent.linux.interface.BridgeInterfaceDriver
  3 external_network_bridge =

重启修改过的服务,

[root@controller ~]# systemctl restart neutron-server.service \
>   neutron-linuxbridge-agent.service
[root@controller ~]# systemctl enable --now neutron-l3-agent.service

[root@controller ~]# neutron agent-list	#查看组件信息
+----------+------------+----------+-------------------+-------+----------------+---------------+
| id       | agent_type | host     | availability_zone | alive | admin_state_up | binary        |
+----------+------------+----------+-------------------+-------+----------------+---------------+
| b111bed6 | Metadata   | controll |                   | :-)   | True           | neutron-      |
| -18f0-48 | agent      | er       |                   |       |                | metadata-     |
| 5f-9168- |            |          |                   |       |                | agent         |
| 9734251e |            |          |                   |       |                |               |
| 82a8     |            |          |                   |       |                |               |
| c642e952 | Linux      | computer |                   | :-)   | True           | neutron-      |
| -f88d-42 | bridge     | 1        |                   |       |                | linuxbridge-  |
| 92-bbe6- | agent      |          |                   |       |                | agent         |
| 7cf124dd |            |          |                   |       |                |               |
| 44ca     |            |          |                   |       |                |               |
| cac3fd3d | L3 agent   | controll | nova              | :-)   | True           | neutron-l3-ag |
| -1f4b-45 |            | er       |                   |       |                | ent           |
| 54-96a6- |            |          |                   |       |                |               |
| 6e39ae25 |            |          |                   |       |                |               |
| 251b     |            |          |                   |       |                |               |
| d71c96c1 | DHCP agent | controll | nova              | :-)   | True           | neutron-dhcp- |
| -1b1b-   |            | er       |                   |       |                | agent         |
| 4b9f-    |            |          |                   |       |                |               |
| a76a-a2a |            |          |                   |       |                |               |
| 077f111c |            |          |                   |       |                |               |
| 2        |            |          |                   |       |                |               |
| f59b2f02 | Linux      | controll |                   | :-)   | True           | neutron-      |
| -c047    | bridge     | er       |                   |       |                | linuxbridge-  |
| -4c3f-ae | agent      |          |                   |       |                | agent         |
| e4-374d9 |            |          |                   |       |                |               |
| a81f6da  |            |          |                   |       |                |               |
+----------+------------+----------+-------------------+-------+----------------+---------------+
  1. 计算节点
    在之前共有网络的基础上来修改配置信息即可;
[root@computer1 ~]# vim /etc/neutron/plugins/ml2/linuxbridge_agent.ini

168 [vxlan]
169 enable_vxlan = True
170 local_ip = 172.25.25.2
171 l2_population = True

[root@computer1 ~]# systemctl restart neutron-linuxbridge-agent.service

此时想要用图像的方式来配置,还不可用;需要将dashboard3层网络打开;

[root@controller ~]# vim /etc/openstack-dashboard/local_settings 

275 OPENSTACK_NEUTRON_NETWORK = {
276     'enable_router': True,
277     'enable_quotas': True,
278     'enable_ipv6': True,
279     'enable_distributed_router': True,
280     'enable_ha_router': True,
281     'enable_lb': True,
282     'enable_firewall': True,
283     'enable_vpn': True,
284     'enable_fip_topology_check': True,

[root@controller ~]# systemctl restart httpd.service memcached.service

2. 图形化配置虚拟机

用来模拟的主机没有共有的IP,在登陆图形化界面admin用户时,选择外部网络。将其视作共有IP。

在这里插入图片描述1. 创建私有网络和主机
然后切换到demo用户来创建私有网络:

定义网络名称;勾选创建子网,不对外可见;

在这里插入图片描述
设置子网名称以及网络地址;

在这里插入图片描述

激活dhcp 让其自动分配IP ;设定DNS ;

在这里插入图片描述

然后启动之前的云主机;然后再创建一个私有网络的云主机;

在这里插入图片描述

此处可以下载软件包来查看云主机:

[root@computer1 ~]# yum install -y libvirt-client
[root@computer1 ~]# virsh list
 Id    Name                           State
----------------------------------------------------
 1     instance-00000002              running
 2     instance-00000003              running
  1. 路由器:
    此时是内网一台主机,外网一台主机;彼此是不能通信的,给其加路由让其可以通信;

在这里插入图片描述

创建完成之后,此时路由器已经和外部网络连接在一起,下来只需要将其和内部网络接通即可;

在这里插入图片描述
此时内网和外网便已经连通。此时内部网络主机打开控制台,可以ping通外部网络IP。

在这里插入图片描述

此时是一个SNAT ,也就是内外网络可以访问外部网络。但是外部网络不可以访问内部网络。

此时需要给内部网络做合法认证,此处直接申请一个外部IP,此时外网便可以访问内部网络;

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
此时便完成了私有网络和共有网络的配置,并且可以让其之间互相通信。

3. 封装镜像

参考官网文档:https://docs.openstack.org/image-guide/centos-image.html

此处直接用图形化的虚拟机管理用具来封装镜像:
选择最小化的安装;设置需要的语言,时区等相应的信息。

注:此处需要根据文档中的内容。

在这里插入图片描述

安装完成之后,此时在开机时将selinux禁用;开启之后,编辑selinux文件,将其改为disabled;然后禁用火墙。为其添加IP;然后可以远程连接设置。

连接之后先配置软件源,然后下载相应的配件。

[westos@westos Desktop]$ ssh root@172.25.25.200
[root@localhost yum.repos.d]# vi dvd.repo
[root@localhost yum.repos.d]# cat dvd.repo
[dvd]
name=rhel7.6
baseurl=http://172.25.25.250/rhel7
gpgcheck=0

然后根据文档信息,安装需要的信息;

[root@localhost yum.repos.d]# yum install acpid -y
[root@localhost yum.repos.d]# systemctl enable acpid

此处有一些官方源里面没有,需要自己去下载,然后放在软件源中;

[root@localhost yum.repos.d]# cat cloud-init.repo 
[cloud]
name=cloud-init
baseurl=http://172.25.25.250/cloud-init
gpgcheck=0
[root@localhost yum.repos.d]# yum install cloud-init -y
[root@localhost yum.repos.d]# yum install cloud-utils-growpart -y #扩展根分区所需要
[root@localhost yum.repos.d]# cd /etc/cloud/
[root@localhost cloud]# ls		##配置信息
cloud.cfg  cloud.cfg.d  templates
[root@localhost cloud]# echo "NOZEROCONF=yes" >> /etc/sysconfig/network	#禁用0配置网络
[root@localhost cloud]# vi /boot/grub2/grub.cfg 
#让云主机将日志传到 console中
    100         linux16 /boot/vmlinuz-3.10.0-957.el7.x86_64 root=UUID=99b21c64-2bc0-4dbc-a5d9-        b6782663eb23 ro rhgb quiet LANG=en_US.UTF-8 console=tty0 console=ttyS0,115200n8 
[root@localhost cloud]# cat /etc/sysconfig/network-scripts/ifcfg-eth0
BOOTPROTO=dhcp	#激活dhcp
ONBOOT=yes
DEVICE=eth0
[root@localhost cloud]# poweroff

最后关机,关机之后就不要在启动,然后对封装的镜像进行清理;并压缩;此时镜像已经封装完成。

[root@westos images]# virt-sysprep -d small
[root@westos images]# du -sh small.qcow2 
8.1G	small.qcow2
[root@westos images]# virt-sparsify --compress small.qcow2 /var/www/html/small.qcow2
[root@westos html]# ll small.qcow2 
-rw-r--r--. 1 root root 545993216 Jul 24 15:27 small.qcow2
[root@westos html]# du -sh small.qcow2 
521M	small.qcow2

此时封装完毕,只须将其上传至云平台上即可使用;

4. 上传镜像

用管理员的身份来登陆上传镜像;

在这里插入图片描述

然后在创建一个云主机类型。然后来和该镜像结合。

在这里插入图片描述

此时再次切换到demo来将镜像和云主机结合起来;
从控制台进去之后,可以看到主机信息。

在这里插入图片描述

5. 块存储

参考官网文档:https://docs.openstack.org/mitaka/zh_CN/install-guide-rdo/cinder.html

块存储服务(cinder)为实例提供块存储。存储的分配和消耗是由块存储驱动器,或者多后端配置的驱动器决定的。还有很多驱动程序可用:NAS/SAN,NFS,ISCSI,Ceph等。

典型情况下,块服务API和调度器服务运行在控制节点上。取决于使用的驱动,卷服务器可以运行在控制节点、计算节点或单独的存储节点。

此处在开一台虚拟机,来做为存储;添加虚拟磁盘10G。

解析,时间同步,软件仓库;

[root@block1 ~]# vim /etc/hosts
[root@block1 ~]# cat /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
172.25.25.250	 foundation39.ilt.example.com
172.25.25.1	controller	
172.25.25.2	compute1
172.25.25.3	block1
[root@block1 ~]# yum install -y chrony
[root@block1 ~]# vim /etc/chrony.conf 
#同步时间
[root@block1 ~]# systemctl enable --now chronyd
[root@block1 yum.repos.d]# ls
dvd.repo  openstack.repo  redhat.repo
  1. 控制节点:
  1. 先决条件
    在你安装和配置块存储服务之前,你必须创建数据库、服务证书和API端点.
[root@controller ~]# mysql -pwestos

MariaDB [(none)]> CREATE DATABASE cinder;
#创建 cinder 数据库
MariaDB [(none)]> GRANT ALL PRIVILEGES ON cinder.* TO 'cinder'@'localhost' \
    ->   IDENTIFIED BY 'cinder';
MariaDB [(none)]> GRANT ALL PRIVILEGES ON cinder.* TO 'cinder'@'%'    IDENTIFIED BY 'cinder'; 
#允许 cinder 数据库合适的访问权限

用超级用户创建服务证书:

[root@controller ~]# openstack user create --domain default --password cinder cinder
#创建一个 cinder 用户
[root@controller ~]# openstack role add --project service --user cinder admin
#添加 admin 角色到 cinder 用户上
[root@controller ~]# openstack service create --name cinder \
>   --description "OpenStack Block Storage" volume
[root@controller ~]# openstack service create --name cinderv2 \
>   --description "OpenStack Block Storage" volumev2
#创建 cinder 和 cinderv2 服务实体

创建块设备存储服务的 API 入口点:

[root@controller ~]# openstack endpoint create --region RegionOne \
>   volume public http://controller:8776/v1/%\(tenant_id\)s
[root@controller ~]# openstack endpoint create --region RegionOne \
>   volume internal http://controller:8776/v1/%\(tenant_id\)s
[root@controller ~]# openstack endpoint create --region RegionOne \
>   volume admin http://controller:8776/v1/%\(tenant_id\)s
[root@controller ~]# openstack endpoint create --region RegionOne \
>   volumev2 public http://controller:8776/v2/%\(tenant_id\)s
[root@controller ~]# openstack endpoint create --region RegionOne \
>   volumev2 internal http://controller:8776/v2/%\(tenant_id\)s
[root@controller ~]# openstack endpoint create --region RegionOne \
>   volumev2 admin http://controller:8776/v2/%\(tenant_id\)s

2)安装并配置组件

[root@controller ~]# yum install openstack-cinder -y
[root@controller ~]# vim /etc/cinder/cinder.conf

[database]	#配置数据库访问
connection = mysql+pymysql://cinder:cinder@controller/cinder

[DEFAULT]		#配置 “RabbitMQ” 消息队列访问
rpc_backend = rabbit

[oslo_messaging_rabbit]	#配置 “RabbitMQ” 消息队列访问
rabbit_host = controller
rabbit_userid = openstack
rabbit_password = openstack

#在 “[DEFAULT]” 和 “[keystone_authtoken]” 部分,配置认证服务访问
auth_strategy = keystone

[keystone_authtoken]
auth_uri = http://controller:5000
auth_url = http://controller:35357
memcached_servers = controller:11211
auth_type = password
project_domain_name = default
user_domain_name = default
project_name = service
username = cinder
password = cinder

#在 [DEFAULT] 部分,配置``my_ip`` 来使用控制节点的管理接口的IP 地址。
my_ip = 172.25.25.1[oslo_concurrency] 部分,配置锁路径
lock_path = /var/lib/cinder/tmp

[root@controller ~]# su -s /bin/sh -c "cinder-manage db sync" cinder
#初始化块设备服务的数据库

MariaDB [(none)]> show databases;
+--------------------+
| Database           |
+--------------------+
| cinder             |
| glance             |
| information_schema |
| keystone           |
| mysql              |
| neutron            |
| nova               |
| nova_api           |
| performance_schema |
+--------------------+
9 rows in set (0.00 sec)
  1. 配置计算节点以使用块设备存储
[root@controller ~]# vim /etc/nova/nova.conf 

[cinder]
os_region_name = RegionOne
  1. 完成安装
[root@controller ~]# systemctl restart openstack-nova-api.service	#重启计算API 服务
[root@controller ~]# systemctl enable --now openstack-cinder-api.service openstack-cinder-scheduler.service
#启动块设备存储服务,并将其配置为开机自启
  1. 存储节点

1)先决条件

[root@block1 ~]# yum install lvm2
[root@block1 ~]# systemctl enable --now lvm2-lvmetad.service
#启动LVM的metadata服务并且设置该服务随系统启动	
[root@block1 ~]# pvcreate /dev/vdb	#创建LVM 物理卷 /dev/sdb
[root@block1 ~]# vgcreate cinder-volumes /dev/vdb
#创建 LVM 卷组 cinder-volumes,块存储服务会在这个卷组中创建逻辑卷

[root@block1 ~]# vim /etc/lvm/lvm.conf
 143         filter = [ "a/sdb/", "a/vdb/", "r/.*/"]
#在这两个盘上支持LVM卷,其他的全部拒绝

2)安装并配置组件

[root@block1 ~]# yum install openstack-cinder targetcli python-keystone -y
[root@block1 ~]# vim /etc/cinder/cinder.conf
[database]		#配置数据库访问
connection = mysql+pymysql://cinder:cinder@controller/cinder

#在 “[DEFAULT]” 和 “[oslo_messaging_rabbit]”部分,配置 “RabbitMQ” 消息队列访问
[DEFAULT]
rpc_backend = rabbit
[oslo_messaging_rabbit]
rabbit_host = controller
rabbit_userid = openstack
rabbit_password = openstack

#在 “[DEFAULT]” 和 “[keystone_authtoken]” 部分,配置认证服务访问
auth_strategy = keystone

[keystone_authtoken]
auth_uri = http://controller:5000
auth_url = http://controller:35357
memcached_servers = controller:11211
auth_type = password
project_domain_name = default
user_domain_name = default
project_name = service
username = cinder
password = cinder

#在 [DEFAULT] 部分,配置 my_ip 选项
my_ip = 172.25.25.3

#在[lvm]部分,配置LVM后端以LVM驱动结束,卷组cinder-volumes,iSCSI 协议和正确的 iSCSI服务
[lvm]
volume_driver = cinder.volume.drivers.lvm.LVMVolumeDriver
volume_group = cinder-volumes
iscsi_protocol = iscsi
iscsi_helper = lioadm

#在 [DEFAULT] 部分,启用 LVM 后端
enabled_backends = lvm

#在 [DEFAULT] 区域,配置镜像服务 API 的位置
glance_api_servers = http://controller:9292

#在 [oslo_concurrency] 部分,配置锁路径
[oslo_concurrency]
lock_path = /var/lib/cinder/tmp

3)完成安装

[root@block1 ~]# systemctl enable --now openstack-cinder-volume.service target.service
  1. 验证

在控制结点上,获得 admin 凭证来获取只有管理员能执行的命令的访问权限;列出服务组件以验证是否每个进程都成功启动。

[root@controller ~]# cinder service-list
+------------------+------------+------+---------+-------+----------------------------+-----------------+
|      Binary      |    Host    | Zone |  Status | State |         Updated_at         | Disabled Reason |
+------------------+------------+------+---------+-------+----------------------------+-----------------+
| cinder-scheduler | controller | nova | enabled |   up  | 2021-07-24T10:14:26.000000 |        -        |
|  cinder-volume   | block1@lvm | nova | enabled |   up  | 2021-07-24T10:14:33.000000 |        -        |
+------------------+------------+------+---------+-------+----------------------------+-----------------+

此时再次登陆网页,会看到堕落一个卷;然后可以创建云硬盘:

在这里插入图片描述

将新建的硬盘加到云主机上;

在这里插入图片描述

然后打开控制台查看信息:

在这里插入图片描述
此时当挂载的外部设备中有数据时,先将设备从云主机中卸载,然后再分离云硬盘,此时便可以回收掉云主机,但是数据还是会保留。当云主机再次上线时,再将其挂载上去。

此处还有扩展硬盘等操作。此处扩展为5G,然后再将其挂载上去;查看大小,此时进入数据目录,此时可以看到数据已经可以显示;

在这里插入图片描述

在这里插入图片描述
此时数据恢复,但是之前挂载的大小还是位2G;需要扩展;

在这里插入图片描述

6. kolla-ansible

由于接下来的操作需要支持python2,企业七中缺一些依赖性,此处改为企业八来实现。

先创建一台企业八的虚拟机;双网卡双硬盘,CPU做直通。所有服务部署到一台主机。

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

企业运维之 openstack 的私有网络以及图形化配置 的相关文章

随机推荐

  • 90后阿里P7晒出工资单:狠补了这个,真香...

    最近一哥们跟我聊天装逼 xff0c 说他最近从阿里跳槽了 xff0c 我问他跳出来拿了多少 xff1f 哥们表示很得意 xff0c 说跳槽到新公司一个月后发了工资 xff0c 月入5万多 xff0c 表示很满足 xff01 这样的高薪资着实
  • 自动化测试脚本总结

    Part1 先来谈谈文件的路径问题吧 发现用到了好多os的属性 xff0c 干脆将表贴出来吧 关于os模块中文件 目录常用函数 函数名 使用方法 getcwd 返回当前工作目录 chdir path 改变工作目录 listdir path
  • linux系统--进程管理&计划任务

    kill 9 PID 强制关闭PID kill 1 PID 重启PID的进程 pgrep ssh 查询ssh所有的PID pkill ssh 关闭ssh服务 不需要查询ssh进程的PID 进程优先级 nice指定程序的运行和优先级 n的取值
  • Java+TestNG+Maven+Selenium的web自动化测试脚本环境的搭建

    一 环境搭建 1 安装java环境 a 安装JDK b 安装eclipse c 安装maven 参考 xff1a http www cnblogs com s1328 p 4620812 html 2 安装eclipse下的testng插件
  • UWP UI自动化测试(一)------WinAppDriver/Inspect.exe环境准备

    安装的软件 xff1a 1 WinAppDriver WinAppDriver官网 xff1a GitHub microsoft WinAppDriver Windows Application Driver上面有些 demo Applic
  • python自动化测试(2) 自动化基本技术原理

    1 概述 在之前的文章里面提到过 xff1a 做自动化的首要本领就是要会 透过现象看本质 xff0c 落实到实际的IT工作中就是 透过界面看数据 掌握上面的这样的本领可不是容易的事情 xff0c 必须要有扎实的计算机理论基础 xff0c 才
  • Python自动化测试(1)-自动化测试及基本技术手段概述

    生产力概述 在如今以google为首的互联网时代 xff0c 软件的开发和生产模式都已经发生了变化 xff0c 在 参与感 一书提到 xff1a 某位从微软出来的工程师很困惑 xff0c 微软在google还有facebook这些公司发展的
  • python自动化测试(3) 自动化框架及工具

    1 概述 手续的关于测试的方法论 xff0c 都是建立在之前的文章里面提到的观点 xff1a 功能测试不建议做自动化接口测试性价比最高接口测试可以做自动化 后面所谈到的 测试自动化 也将围绕着 接口自动化 来介绍 本系列选择的测试语言是 p
  • python自动化测试(4)-使用第三方python库技术实现

    1 概述 关于测试的方法论 xff0c 都是建立在之前的文章里面提到的观点 xff1a 功能测试不建议做自动化接口测试性价比最高接口测试可以做自动化做好接口自动化 xff0c 一定要有透过界面看到数据本质的能力 后面所谈到的 测试自动化 也
  • 测试开发-怎么能忘记打卡呢-神器AppleScript

    写在前面 今天给大家介绍一款我自认为比较好用的东西 xff0c Mac OS 下的 AppleScript xff0c AppleScript像是 mac电脑给开发者留下的一个入口一样 xff0c 他不同于其他语言那么复杂 xff0c 可以
  • 自动化测试_Mac安装python+selenium

    1 下载安装 参照下文 https blog csdn net kacylining article details 60587484 https www zhihu com question 30496889 a 下载 pip https
  • 使用Postman实现批量接口执行自动化测试

    一 创建文件夹 1 点击 34 Collections 34 TAB进入 xff0c 再次点击 New Collection 按钮创建文件夹 示例图文 xff1a 二 定义变量及调用执行测试 xff0c 方便灵活调用 1 定义全局变量 xf
  • 真人踩过的坑,告诉你避免自动化测试常犯的10个错误

    虽然从自己的错误中学习也不错 xff0c 但从别人的错误中学习总是更好的 作为一个自动化测试人员 xff0c 分享常见的容易犯的10个错误 xff0c 可以从中吸取教训 xff0c 引以为鉴 一 必要时才自动化 新人小王接到为Web应用程序
  • linux上传下载网速脚本

    bin sh LANG 61 34 34 while true do up time1 61 96 ifconfig 1 grep 34 bytes 34 awk 39 print 6 39 awk F 39 print 2 39 96 d
  • 部门刚来的00后太卷,还没2年班,跳到我们公司起薪20k....

    都说00后躺平了 xff0c 但是有一说一 xff0c 该卷的还是卷 这不 xff0c 前段时间我们公司来了个00后 xff0c 工作都没两年 xff0c 跳槽到我们公司起薪18K xff0c 都快接近我了 后来才知道人家是个卷王 xff0
  • 在阿里我是如何当面试官的

    前言 由于疫情关系 xff0c 最近看到很多测试同学的工作情况内心还是蛮触动的 xff08 降薪 变相裁员 辞退等 xff09 可能这并不是当下一个普遍的现象 xff0c 但仍然使我感受到前端这碗青春饭不好混 于此同时联系我内推的同学很多都
  • 3月面试了一个4年的测试,一问三不知,还反怼我...

    最近看了很多简历 xff0c 很多候选人年限不小 xff0c 但是做的都是一些非常传统的项目 xff0c 想着也不能通过简历就直接否定一个人 xff0c 何况现在大环境越来 越难 xff0c 大家找工作也不容易 xff0c 于是就打算见一见
  • Jenkins参数化构建自动化测试

    测试人员在进行支付类型相关的场景测试过程中 xff0c 需要真实支付的金额较大 xff0c 测试过程中又难以控制测试支付成本 xff0c 无法确切的向公司申请测试备用金 那么问题来了 xff1a 在无法避免自掏腰包进行巨额支付测试时 xff
  • 运维实战 kubernetes(k8s) 之 service

    64 TOC 运维实战 kubernetes k8s 之 service 1 service 介绍 Service可以看作是一组提供相同服务的Pod对外的访问接口 借助Service xff0c 应用可以方便地实现服务发现和负载均衡 ser
  • 企业运维之 openstack 的私有网络以及图形化配置

    企业运维之 openstack 的私有网络以及图形化 1 私有网络2 图形化配置虚拟机3 封装镜像4 上传镜像5 块存储6 kolla ansible 在上一篇的基础上 xff0c 来继续完善 openstack 的相关配置 先将控制节点启