一文学会Canal怎么用

2023-11-19

一.概念

1.什么是Canal

canal是用java开发的基于数据库增量日志解析,提供增量数据订阅&消费的中间件。目前,canal主要支持了MySQL的binlog解析,解析完成后才利用canal client 用来处理获得的相关数据。

2.Canal的基本原理

想了解canal的工作原理,首先你得知道什么是主从复制?

  • Master主库将改变记录,写到二进制日志(binary log)中
  • Slave从库向mysql master发送dump协议,将master主库的binary log events拷贝到它的中继日志(relay log);
  • Slave从库读取并重做中继日志中的事件,将改变的数据同步到自己的数据库。

binlog的格式有三种:STATEMENT,MIXED,ROW
在这里插入图片描述

canal的工作原理就是把自己伪装成MySQL slave,模拟MySQL slave的交互协议向MySQL Mater发送 dump协议,MySQL mater收到canal发送过来的dump请求,开始推送binary log给canal,然后canal解析binary log,再发送到存储目的地,比如MySQL,Kafka,Elastic Search等等。

canal的数据同步不是全量的,而是增量。基于binary log增量订阅和消费,canal可以做:
在这里插入图片描述

在这里插入图片描述

二.Mysql配置

1. 安装

参考教程:添加链接描述

2. 开启mysql的binlog

[client]
default_character_set=utf8
[mysqld]
collation_server = utf8_general_ci
character_set_server = utf8

##局域网内唯一id
server_id=111
##指定不需要同步的数据库名称
binlog-ignore-db=mysql
##开启二进制日志功能
log-bin=mysql-bin
##设置二进制日志使用内存大小
binlog_cache_size=1M
## 二进制日志格式
binlog-format=ROW
## 二进制日志过期清理时间 默认值为0 表示不自动清理
expire_logs_days=7
## 跳过主从复制中遇到的错误
slave_skip_errors=1062

配置完成后重启mysql,并查询是否配置生效:ON就是开启
在这里插入图片描述

注意:
不是执行命令后binlog显示ON就开启了
监听多个MySQL数据库需要在mysql配置添加多个binlog-do-db

3.mysql创建cannl用户并授权

CREATE USER canal IDENTIFIED BY '123456';
GRANT SELECT, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'canal'@'%';
FLUSH PRIVILEGES;

在这里插入图片描述ue

三.安装配置ES,kibana

四.安装canal-server

可以直接监听MySQL的binlog,把自己伪装成MySQL的从库,只负责接收数据,并不做处理。

在这里插入图片描述

  • 解压
    tar -zxvf canal.deployer-1.1.4.tar.gz

  • canal.properties的common属性前四个配置项

canal.id= 1             #canal的编号,在集群环境下,不同canal的id不同,注意它和mysql的server_id不同。
canal.ip=               # ip这里不指定,默认为本机
canal.port= 11111       # 端口号,是给tcp模式(netty)时候用的,如果用了kafka或者rocketmq,就不会去起这个端口了
canal.zkServers=         # zk用于canal cluster
canal.serverMode = tcp   # 用于指定什么模式拉取数据

完整的canal.properties文件
在这里插入图片描述

在这里插入图片描述

  • 查看监听的数据库状态
    在这里插入图片描述

  • 修改conf/example/instance.properties


canal.instance.gtidon=false

# position info
#数据库地址
##slaveId 不能与 my.cnf 中的 server-id 项重复
## canal.instance.mysql.slaveId = 1234
canal.instance.master.address=192.168.111.5:3306
#binlog日志名称
canal.instance.master.journal.name=mysql-bin.000005
#binlog偏移量
canal.instance.master.position=154
canal.instance.master.timestamp=
canal.instance.master.gtid=

# rds oss binlog
canal.instance.rds.accesskey=
canal.instance.rds.secretkey=
canal.instance.rds.instanceId=

# table meta tsdb info
canal.instance.tsdb.enable=true
#canal.instance.tsdb.url=jdbc:mysql://127.0.0.1:3306/canal_tsdb
#canal.instance.tsdb.dbUsername=canal
#canal.instance.tsdb.dbPassword=canal

#canal.instance.standby.address =
#canal.instance.standby.journal.name =
#canal.instance.standby.position =
#canal.instance.standby.timestamp =
#canal.instance.standby.gtid=

# username/password
#mysql授权用户
canal.instance.dbUsername=canal
canal.instance.dbPassword=123456
canal.instance.connectionCharset = UTF-8
canal.instance.defaultDatabaseName =test_canal
# enable druid Decrypt database password
canal.instance.enableDruid=false
#canal.instance.pwdPublicKey=MFwwDQYJKoZIhvcNAQEBBQADSwAwSAJBALK4BUxdDltRRE5/zXpVEVPUgunvscYFtEip3pmLlhrWpacX7y7GCMo2/JM6LeHmiiNdH1FWgGCpUfircSwlWKUCAwEAAQ==

# table regex
canal.instance.filter.regex=.*\\..*
# table black regex
canal.instance.filter.black.regex=

# mq config
#canal.mq.topic=example
# 多主题 canal会将对应表的数据推送到“库名—表名”的主题队列里面
canal.mq.dynanicTopic=.*\\..*
canal.mq.partition=0
# hash partition config
#canal.mq.partitionsNum=3
#canal.mq.partitionHash=mytest.person:id,mytest.role:id

在这里插入图片描述
在这里插入图片描述

  • 启动
sh bin/startup.sh 

在这里插入图片描述

  • 测试

创建数据库表
在这里插入图片描述
创建对应的队列并绑定到相应的交换机上
在这里插入图片描述

消费队列里面同步数据
canal发送到mq的数据为byte[]类型

    @RabbitListener(queues = {"test_canal_stu"})
    public void stu(byte[] input) throws IOException {

        JSONObject o = JSON.parseObject(input, JSONObject.class);
        String action = o.getString("type");
        System.out.println("=============stu-action=================");
        System.out.println(action);
        
        List<testStu> data = JSON.parseArray(o.getString("data"), testStu.class);
        System.out.println("============stu-data==================");
        System.out.println(data);
    }

在这里插入图片描述

五.安装canal-admin

  • 解压canal.admin-1.1.6.tar.gz

  • 初始化脚本: conf/canal_manager.sql
    在这里插入图片描述

  • 修改conf/application.yml:
    在这里插入图片描述

  • 启动
    ./bin/startup.sh

cat logs/admin.log
在这里插入图片描述

  • 修改canal-server配置文件
vi conf/canal_local.properties

在这里插入图片描述

  • 启动canal-server服务
指定启动配置为local,或者将canal_local.properties替换掉canal.properties
./bin/startup.sh local
  • canal-server启动成功后,刷新admin的server管理列表,canal-server会自动注册到admin
    在这里插入图片描述

  • 新建server
    在这里插入图片描述

  • 载入server模板
    在这里插入图片描述

  • 添加instance

配置
在这里插入图片描述
在server配置里面添加
在这里插入图片描述

canal-admin Handler dispatch failed; nested exception is java.lang.NoSuchMethodError: java.nio.ByteBuffer.clear()Ljava/nio/ByteBuffer;

无法启动成功
在这里插入图片描述

jdk版本问题,官方写的是1.5以上,使用的jdk1.8不行,后面采用了11测试通过,其它版本大家可以自行测试

  • 密码需要加密
select password('123456');
  • Caused by: com.alibaba.otter.canal.common.CanalException: requestGet for canal config error: auth :admin is failed
    赋予数据库权限
grant select, insert, update, delete on canal_manager.* to canal@'%'

六.安装canal-adapter

相当于canal的客户端,会从canal-server中获取数据,然后对数据进行同步,可以同步到MySQL、Elasticsearch和HBase等存储中去。

在这里插入图片描述

  • 解压: tar -zxvf canal.adapter-1.1.2.tar.gz

  • 修改canal-adapter/conf/application.yml


server:
  port: 8081
spring:
  jackson:
    date-format: yyyy-MM-dd HH:mm:ss
    time-zone: GMT+8
    default-property-inclusion: non_null
 
canal.conf:
  mode: tcp #tcp kafka rocketMQ rabbitMQ
  flatMessage: true
  zookeeperHosts:
  syncBatchSize: 1000
  retries: 0
  timeout:
  accessKey:
  secretKey:
  consumerProperties:
    # canal tcp consumer
    canal.tcp.server.host: 127.0.0.1:11111 #  之前起的 canal-server 地址  url
    canal.tcp.zookeeper.hosts:
    canal.tcp.batch.size: 500
    canal.tcp.username:
    canal.tcp.password:
    # kafka consumer
    # kafka.bootstrap.servers: 127.0.0.1:9092
    # kafka.enable.auto.commit: false
    # kafka.auto.commit.interval.ms: 1000
    # kafka.auto.offset.reset: latest
    # kafka.request.timeout.ms: 40000
    # kafka.session.timeout.ms: 30000
    # kafka.isolation.level: read_committed
    # kafka.max.poll.records: 1000
    # rocketMQ consumer
    # rocketmq.namespace:
    # rocketmq.namesrv.addr: 127.0.0.1:9876
    # rocketmq.batch.size: 1000
    # rocketmq.enable.message.trace: false
    # rocketmq.customized.trace.topic:
    # rocketmq.access.channel:
    # rocketmq.subscribe.filter:
    # rabbitMQ consumer
    # rabbitmq.host:
    # rabbitmq.virtual.host:
    # rabbitmq.username:
    # rabbitmq.password:
    # rabbitmq.resource.ownerId:
 
  srcDataSources:
    defaultDS:
      url: jdbc:mysql://127.0.0.1:3306/mytest?useUnicode=true # 你的数据库地址 最好填写公网地址
      username: root   # 数据库账号
      password: admin  # 数据库密码
  canalAdapters:
  - instance: example # canal instance Name or mq topic name
    groups:
    - groupId: g1
      outerAdapters:
      - name: logger
      - name: es7  # 你的es配置
        hosts: 127.0.0.1:9200 # 你的es配置  最好是公网地址
        properties:
         mode: rest # 你的es配置
         cluster.name: test-es # 你的es配置  之前第一步在elasticsearch中配置的 cluster.name
  • 修改canal-adapter/conf/es7/test.yml
dataSourceKey: defaultDS
destination: .*\\..*
groupId: g1
esMapping:
  _index: test_adapter
  _id: _id
#  upsert: true
#  pk: id
  sql: "SELECT id as _id,user_id as user_id,name as name,unit as unit FROM test_adapter"
#  objFields:
#    _labels: array:;
  etlCondition: "where a.c_time>={}"
  commitBatch: 3000
  • 添加索引
PUT /test_adapter/
{
  "mappings": {
    "properties": {
      "id": {
          "type": "keyword"
        },
      "user_id": {
        "type": "integer"
      },
      "name": {
        "type": "text"
      },
      "unit": {
        "type": "text"
      },
      "record_date":{
        "type": "date"
      }
    }
  }
}

七.通过canal和RabbitMQ将mysql数据同步ES

  • 1.修改canal-server 的conf/canal.properties文件
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
  • 2.修改conf/example/instance.properties文件

在这里插入图片描述
在这里插入图片描述

  • 3创建数据库表,交换机和主题队列
CREATE TABLE `stu` (
  `id` int(11) NOT NULL,
  `stu_no` int(11) DEFAULT NULL,
  `createdAt` date DEFAULT NULL,
  PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8 COLLATE=utf8_bin;

在这里插入图片描述
只需要在mq中创建对应的队列并以’数据库名_表名’为topic,canal就会监听mysql的binlog日志并将其发送到对应的队列

@Data
public class testStu implements Serializable {
    private String id;
    private String stuNo;
    private Date createdAt;
}
  • 3.测试同步代码
    @RabbitListener(queues = {"test_canal_stu"})
    public void stu(byte[] input) throws IOException {

        JSONObject o = JSON.parseObject(input, JSONObject.class);
        String action = o.getString("type");
        System.out.println("=============stu-action=================");
        System.out.println(action);

        List<testStu> data = JSON.parseArray(o.getString("data"), testStu.class);
        System.out.println("============stu-data==================");
        System.out.println(data);
    }

在这里插入图片描述

  • 4.同步ES测试代码
    @RabbitListener(queues = {"test_canal_stu"})
    public void stu(byte[] input) throws IOException {

        JSONObject o = JSON.parseObject(input, JSONObject.class);
        String action = o.getString("type");
        List<testStu> data = JSON.parseArray(o.getString("data"), testStu.class);

        try {
            esTest(action,data);
        } catch (Exception e) {
            e.printStackTrace();
        }
    }


    private void esTest(String action,List<testStu> stuList) throws Exception {

        if ("DELETE".equals(action)) {
            //数据库表进行硬删除
            batchDeleteFromEs(stuList);
        } else {
            batchSaveToEs(stuList);
        }
    }


    //根据时间进行分片 并批量删除
    public void batchDeleteFromEs(List<testStu> data) throws Exception {
        Map<String, List<String>> map = data.stream().collect(
                Collectors.groupingBy(dto -> getIndex(dto.getCreatedAt()),
                        Collectors.mapping(testStu::getId, Collectors.toList()))
        );
        for (Map.Entry<String, List<String>> entry : map.entrySet()) {
            String index = entry.getKey();
            List<String> ids = entry.getValue();
            batchDeleteByIds(index, ids);
        }
    }


    //保存
    public void batchSaveToEs(List<testStu> data) throws Exception {
        List<Object> appointLog = new ArrayList<>();
        for (testStu dto : data) {
            testStu esDto = new testStu();
            BeanUtils.copyProperties(dto, esDto);
            //处理相关数据
            dealDate(esDto);
            appointLog.add(esDto);
        }
        esOperation.batchUpdateOrCreate(getIndex(data.getCreatdAt), appointLog);
    }

    //通过创建时间生成对应索引 将数据进行分片处理
    public String getIndex(Date date) {
        String index = "test_stu";
        DateFormat format = new SimpleDateFormat("yyyy");
        return index + "_" + format.format(date);
    }
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

一文学会Canal怎么用 的相关文章

随机推荐

  • python大规模数据处理技巧之一:数据常用操作

    面对读取上G的数据 python不能像做简单代码验证那样随意 必须考虑到相应的代码的实现形式将对效率的影响 如下所示 对pandas对象的行计数实现方式不同 运行的效率差别非常大 虽然时间看起来都微不足道 但一旦运行次数达到百万级别时 其运
  • 线程的创建及性能

    目录 1 多线程 VS 单线程性能 2 线程3中创建方式 2 1 创建方式一 继承Thread 1种写法 2 2 创建方式二 实现Runnable及变种 4种写法 2 3 创建方式三 带返回值的Callable 2种写法 线程休眠演示打印电
  • momentJS 时间差计算

    momentJS时间差计算 最近在使用JavaScript计算时间差的时候 发现很多问题需要处理 在查看momentJS之后 发现非常容易 console log moment format YYYY MM DD HH mm ss 当前时间
  • 完全二叉树与满二叉树

    去笔试了很多次 每次都有有关于二叉树的题目 而且其中最多的是关于完全二叉树 然而完全二叉树在哥心中的形态一直很模糊 究其原因是我把完全二叉树和满二叉树搞混了 其实满二叉树是完全二叉树的特例 因为满二叉树已经满了 而完全并不代表满 所以形态你
  • 提升应用性能的关键步骤——UniApp性能优化策略与技巧详解

    前言 作者主页 雪碧有白泡泡 个人网站 雪碧的个人网站 推荐专栏 java一站式服务 前端炫酷代码分享 uniapp 从构建到提升 从0到英雄 vue成神之路 解决算法 一个专栏就够了 架构咱们从0说 数据流通的精妙之道 文章目录 前言 代
  • JAVA,异常

    异常概念 通常大家认为异常就是错误 但这个错误有很多种 1 语法错误 2 JVM虚拟机错误 3 平台错误 4 程序运行错误 平台或者资源或者逻辑 数值等错误 常见的异常 1 java lang NullPointerException 空指
  • C++ 模板简介(一)—— SFINAE

    SFINAE 类型检查 Concepts SFINAE 机制是组成 C 模板机制及类型安全的相当重要的基础 全称是 Substitution failure is not an error 大概的意思就是只要找到了可用的原型 比如函数模板
  • Video Device Class Codes

    ifndef LINUX USB VIDEO H define LINUX USB VIDEO H include
  • 解决导入keras.engine 问题

    导入 keras engine 可能会产生No module named tensorflow keras engine 我们采用下列方式导入时 from tensorflow keras engine topology import La
  • 2019-面向小白的微信小程序-视频教学-基础

    看掘金链接 https juejin im post 5dd739a1e51d4523053c4282
  • react和react jsx基础

    本文是个人学习笔记 例子都是来自React Native官网 之前不是做前端的 没有使用过react 要学习react native做混合开发 react 包括react jsx还是得补补 react和react jsx react是一个j
  • RabbitMQ访问Web端口报错User can only log in via localhost

    RabbitMQ访问Web端口报错User can only log in via localhost 一 错误信息 在项目开发过程中 通过浏览器访问Web端口时报错 User can only log in via localhost 外
  • 图像识别小车(电机部分)——电赛学习笔记(2)

    图片来源 B站唐老师讲电赛 目录 一 电机部分结构 二 步进电机示例 三 伺服电机示例 四 我们的方案 一 电机部分结构 二 步进电机示例 1 驱动器 L298N CSDN搜索使用方法 控制器 stm32 电源暂时用12V直流源 2 控制
  • 目标检测之二(传统算法和深度学习的源码学习)

    目标检测之二 传统算法和深度学习的源码学习 本系列写一写关于目标检测的东西 包括传统算法和深度学习的方法都会涉及到 注重实验而不着重理论 理论相关的看论文去哈 主要依赖opencv 本文主要内容 简单分析下yolo9000的原理 然后使用o
  • python解释器安装教程(3.10版本)

    文章目录 一 Python下载 二 Python安装 三 检查Python是否安装成功 很多小伙伴在学习pyhton的时候 还会卡在第一步 开发环境的搭建 今天就简单的写一个python的安装教程 希望对你们有用 一 Python下载 1
  • Vue引入elementUI组件

    Element Ul是饿了么前端团队推出的一款基于Vue js 2 0 的桌面端UI框架 一套为开发者 设计师和产品经理准备的基于 Vue 2 0 的桌面端组件库 手机端有对应框架是Mint UI 中文文档 http element cn
  • 基于Java实现的DES加密算法

    1 总结DES原理 DES算法为密码体制中的对称密码体制 又被称为美国数据加密标准 是1972年美国IBM公司研制的对称密码体制加密算法 明文按64位进行分组 密钥长64位 密钥事实上是56位参与DES运算 第8 16 24 32 40 4
  • fiddler APP抓包设置

    IOS设置 http t istester com 3000 istester 21Day src master Fiddler V1 0 21Day Fiddler 13 md 安卓设置 http t istester com 3000
  • Spring容器和应用上下文理解

    有了Spring之后 通过依赖注入的方式 我们的业务代码不用自己管理关联对象的生命周期 业务代码只需要按照业务本身的流程 走啊走啊 走到哪里 需要另外的对象来协助了 就给Spring说 我想要个对象 于是Spring就很贴心的给你个对象 听
  • 一文学会Canal怎么用

    文章目录 一 概念 1 什么是Canal 2 Canal的基本原理 二 Mysql配置 1 安装 2 开启mysql的binlog 3 mysql创建cannl用户并授权 三 安装配置ES kibana 四 安装canal server 五