zoukankan      html  css  js  c++  java
  • Canal-HA | 搭建| 配置| 使用

    1.canal

    Canal是用java开发的基于数据库增量日志解析,提供增量数据订阅&消费的中间件。目前,Canal主要支持了MySQL的Binlog解析,解析完成后才利用Canal Client 用来处理获得的相关数据。(数据库同步需要阿里的otter中间件,基于Canal)

    同步mysql;做拉链表;更新redis

    某些情况无法从日志中获取信息,而又无法利用sqoop等ETL工具对数据实时的监控

    工作原理:

                                                                                                                                                                                                                                                                                                                     

     canal的工作原理很简单,就是把自己伪装成slave,假装从master复制数据。

    • 复制过程分成三步:

      1)Master主库将改变记录写到二进制日志(binary log)中;

      2)Slave从库向mysql master发送dump协议,将master主库的binary log events拷贝到它的中继日志(relay log);

      3)Slave从库读取并重做中继日志中的事件,将改变的数据同步到自己的数据库。

           canal的工作原理很简单,就是把自己伪装成slave,假装从master复制数据。

    mysql的binlog

      MySQL的二进制日志可以说是MySQL最重要的日志了,它记录了所有的DDLDML(除了数据查询语句)语句,以事件形式记录,还包含语句所执行的消耗的时间MySQL的二进制日志是事务安全型的。
    一般来说开启二进制日志大概会有1%的性能损耗 。二进制有两个最重要的使用场景:
      其一:MySQL ReplicationMaster端开启binlogMaster把它的二进制日志传递给slaves来达到master-slave数据一致的目的
      其二:自然就是数据恢复了,通过使用mysqlbinlog工具来使恢复数据。
    二进制日志包括两类文件:二进制日志索引文件(文件名后缀为.index)用于记录所有的二进制文件,二进制日志文件(文件名后缀为.00000*)记录数据库所有的DDL和DML(除了数据查询语句)语句事件。

      分类

      mysql binlog的格式,是有三种,分别是STATEMENT,  MIXED,  ROW。在配置文件中可以选择配置binlog_format=row
      它们的区别在于:
    statement
      语句级,binlog会记录每次一执行写操作的语句。
      相对row模式节省空间,但是可能产生不一致性,比如update tt set create_date=now()
      如果用binlog日志进行恢复,由于执行时间不同可能产生的数据就不同。
     优点: 节省空间;  缺点: 有可能造成数据不一致。
    row
      行级, binlog会记录每次操作后每行记录的变化。
      优点:保持数据的绝对一致性。因为不管sql是什么,引用了什么函数,他只记录执行后的效果。  缺点:占用较大空间。
    mixed
      statement的升级版,一定程度上解决了,因为一些情况而造成的statement模式不一致问题
      在某些情况下譬如: 当函数中包含 UUID() 时; 包含 AUTO_INCREMENT 字段的表被更新时; 执行 INSERT DELAYED 语句时;  用 UDF 时;会按照 ROW的方式进行处理
      优点:节省空间,同时兼顾了一定的一致性。
      缺点:还有些极个别情况依旧会造成不一致,另外statement和mixed对于需要对binlog的监控的情况都不方便。

    binlog的开启

     在mysql的配置文件(Linux: /etc/my.cnf ,  Windows: my.ini)下,修改配置

     在[mysqld] 区块  设置/添加 log-bin=mysql-bin
     这个表示binlog日志的前缀是mysql-bin ,以后生成的日志文件就是 mysql-bin.123456 的文件后面的数字按顺序生成。 每次mysql重启或者到达单个文件大小的阈值时,新生一个文件,按顺序编号。

    mysql准备,建议安装mysql 5.6及以上版本

    mysql赋予canal权限

      GRANT ALL PRIVILEGES ON *.* TO canal@'%' IDENTIFIED BY 'canal'

      SELECT * FROM mysql.`user`

    开启binlog

    在数据库服务器上将mysql binlog模式开启,并设置为row模式,因为canal对row模式支持较好,支持从指定的binlog的位置读取信息

    [kris@hadoop101 bin]$ which mysql      
      /usr/bin/mysql
    [kris@hadoop101 bin]$ sudo find / -name my.cnf  //mysql的my.cnf文件所在的目录  /usr/my.cnf
    
    sudo vim /usr/my.cnf 
      server-id=1
      log-bin=mysql-bin
      binlog_format=row
      binlog-do-db=gmall

    重启MySql服务,查看配置是否生效,并添加canal用户赋权限。

     sudo service mysql restart
    
     mysql -uroot -p123456
    mysql> show variables like 'binlog_format';
    +---------------+-------+
    | Variable_name | Value |
    +---------------+-------+
    | binlog_format | ROW   |
    +---------------+-------+
    mysql> show variables like 'log_bin';
    +---------------+-------+
    | Variable_name | Value |
    +---------------+-------+
    | log_bin       | ON    |
    +---------------+-------+配置起效果后,创建canale用户,并赋予权限
    mysql> CREATE USER canal IDENTIFIED BY 'canal'; 
    mysql> GRANT SELECT, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'canal'@'%';
    mysql> FLUSH PRIVILEGES; 
    mysql> show grants for 'canal' ;
    +----------------------------------------------------------------------------------------------------------------------------------------------+
    | Grants for canal@%                                                                                                                           |
    +----------------------------------------------------------------------------------------------------------------------------------------------+
    | GRANT SELECT, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'canal'@'%' IDENTIFIED BY PASSWORD '*E3619321C1A937C46A0D8BD1DAC39F93B27D4458' |
    +----------------------------------------------------------------------------------------------------------------------------------------------+
    1 row in set (0.00 sec)

    查看Mysql的mysql-bin文件

    [kris@hadoop101 mysql]$ pwd
       /var/lib/mysql
    重启mysql
    [kris@hadoop101 mysql]$ sudo service mysql restart
    Shutting down MySQL....                                    [确定]
    Starting MySQL..... 
      在mysql中更新数据:
    
      CALL init_data('2019-05-04',10,20,10,TRUE)
        可以看到mysql-bin.000001文件大小发生的变化
    
    [kris@hadoop101 mysql]$ ll //sudo ls -l
    总用量 176448
    -rw-rw---- 1 mysql mysql       56 3月  15 01:11 auto.cnf
    drwx------ 2 mysql mysql     4096 3月  20 19:15 azkaban
    drwx------ 2 mysql mysql     4096 5月   4 22:42 gmall
    -rw-r----- 1 mysql root    253742 5月   4 22:38 hadoop101.err
    -rw-rw---- 1 mysql mysql        5 5月   4 22:37 hadoop101.pid
    -rw-rw---- 1 mysql mysql 79691776 5月   4 22:42 ibdata1
    -rw-rw---- 1 mysql mysql 50331648 5月   4 22:42 ib_logfile0
    -rw-rw---- 1 mysql mysql 50331648 3月  15 01:10 ib_logfile1
    drwx------ 2 mysql mysql     4096 4月  23 01:32 metastore
    drwx--x--x 2 mysql mysql     4096 3月  15 01:10 mysql
    -rw-rw---- 1 mysql mysql    19755 5月   4 22:42 mysql-bin.000001
    -rw-rw---- 1 mysql mysql       19 5月   4 22:37 mysql-bin.index
    srwxrwxrwx 1 mysql mysql        0 5月   4 22:37 mysql.sock
    drwx------ 2 mysql mysql     4096 3月  15 01:10 performance_schema
    -rw-r--r-- 1 root  root       125 3月  15 01:10 RPM_UPGRADE_HISTORY
    -rw-r--r-- 1 mysql mysql      125 3月  15 01:10 RPM_UPGRADE_MARKER-LAST
    drwx------ 2 mysql mysql     4096 4月  19 16:16 sparkmall
    drwxr-xr-x 2 mysql mysql     4096 3月  15 01:10 test
    View Code

    2.Canal-HA模式搭建

    环境准备

    (1)启动zookeeper

    (2)启动kafka

    canal-server

    在hadoop101和hadoop102上安装canal-server

    在两台节点机器都安装部署:

    mkdir -p /opt/module/canal-server tar -zxvf canal.deployer-1.1.4.tar.gz -C /opt/module/canal-server/

    在hadoop101和hadoop102上的canal-server上各配置如下:

    1)添加zookeeper地址,将file-instance.xml注释,解开default-instance.xml注释。修改两个canal-server节点的配置

    vim conf/canal.properties  ##默认端口号为1111,可以修改
      canal.zkServers =hadoop101:2181,hadoop102:2181,hadoop103:2181
      #canal.instance.global.spring.xml = classpath:spring/file-instance.xml
      canal.instance.global.spring.xml = classpath:spring/default-instance.xml

    2)在进入conf/example目录修改instance配置,instance.properties是针对要追踪的mysql的实例配置

    vim conf/example/instance.properties    //hadoop101机器配置
      canal.instance.mysql.slaveId = 100   //不能与mysql的server-id重复
       canal.instance.master.address = hadoop101:3306
    vim conf/example/instance.properties //hadoop102机器的配置   canal.instance.mysql.slaveId = 101   canal.instance.master.address = hadoop101:3306

    3)启动两台canal-server

    [kris@hadoop101 canal-server]$ sh bin/startup.sh 
    [kris@hadoop102 canal-server]$ sh bin/startup.sh 

    查看日志,无报错便启动成功,一台节点有日志,一台节无日志

          tail -f logs/example/example.log

    通过zookeeper查看当前工作节点,可以看出当前活动节点为101

    [kris@hadoop101 canal-server]$ /opt/module/zookeeper-3.4.10/bin/zkCli.sh 
      [zk: localhost:2181(CONNECTED) 0] ls /
      [kafa_2.11, zookeeper, yarn-leader-election, hadoop-ha, otter, rmstore]
      [zk: localhost:2181(CONNECTED) 1] get /otter/canal/destinations/example/running  
      {"active":true,"address":"192.168.1.101:11111"}

    关闭canal

    [kris@hadoop101 canal-server]$ sh bin/stop.sh 
    [kris@hadoop102 canal-server]$ sh bin/stop.sh

    对接Kafka

    canal 1.1.1版本之后, 默认支持将canal server接收到的binlog数据直接投递到MQ, 目前默认支持的MQ系统有:

    (1)修改instance配置文件 (两台节点)

    [kris@hadoop101 canal-server]$ vim conf/example/instance.properties
      canal.mq.topic=test  ##将数据发送到指定的topic
      canal.mq.partition=0

    (2)修改canal.properties(两台节点)

    [kris@hadoop101 canal-server]$ vim conf/canal.properties
    
    canal.serverMode = kafka
    canal.mq.servers = hadoop101:9092,hadoop102:9092,hadoop103:9092
    canal.mq.retries = 0
    canal.mq.batchSize = 16384
    canal.mq.maxRequestSize = 1048576
    canal.mq.lingerMs = 100
    canal.mq.bufferMemory = 33554432
    canal.mq.canalBatchSize = 50
    canal.mq.canalGetTimeout = 100
    canal.mq.flatMessage = true
    canal.mq.compressionType = none
    canal.mq.acks = all
    #canal.mq.properties. =
    canal.mq.producerGroup = test

    (3)启动canal

    [kris@hadoop101 canal-server]$ sh bin/startup.sh
    [kris@hadoop102 canal-server]$ sh bin/startup.sh

    (4)启动kafka消费者监听topic test

    [kris@hadoop103 ~]$ /opt/module/kafka/bin/kafka-console-consumer.sh --bootstrap-server hadoop101:9092 --topic test

    (5)向MySql数据库插入条数据 测试

     

    Kafka中接收到的数据格式如下:

    [kris@hadoop101 ~]$ /opt/module/kafka/bin/kafka-console-consumer.sh --bootstrap-server hadoop101:9092 --topic test
    {"data":null,"database":"gmall","es":1593570507000,"id":1,"isDdl":true,"mysqlType":null,"old":null,"pkNames":null,"sql":"CREATE TABLE aa (
     `name` VARCHAR(55),
      age INT)","sqlType":null,"table":"aa","ts":1593570507514,"type":"CREATE"}
    {"data":null,"database":"gmall","es":1593570591000,"id":3,"isDdl":true,"mysqlType":null,"old":null,"pkNames":null,"sql":"CREATE TABLE aa (
     `name` VARCHAR(55),
      age INT)","sqlType":null,"table":"aa","ts":1593570591494,"type":"CREATE"}
    {"data":[{"name":"kris","age":"22"}],"database":"gmall","es":1593570627000,"id":4,"isDdl":false,"mysqlType":{"name":"VARCHAR(55)","age":"INT"},"old":null,"pkNames":null,"sql":"","sqlType":{"name":12,"age":4},"table":"aa","ts":1593570627029,"type":"INSERT"}
    {"data":[{"name":"kris","age":"18"}],"database":"gmall","es":1593570728000,"id":5,"isDdl":false,"mysqlType":{"name":"VARCHAR(55)","age":"INT"},"old":[{"age":"22"}],"pkNames":null,"sql":"","sqlType":{"name":12,"age":4},"table":"aa","ts":1593570728392,"type":"UPDATE"}
    {"data":null,"database":"gmall","es":1593571055000,"id":6,"isDdl":true,"mysqlType":null,"old":null,"pkNames":null,"sql":"DROP TABLE `aa` /* generated by server */","sqlType":null,"table":"aa","ts":1593571055252,"type":"ERASE"}

    canal-admin安装

    准备

       canal-admin的限定依赖:

    (1)MySQL,用于存储配置和节点等相关数据

    (2)canal版本,要求>=1.1.4 (需要依赖canal-server提供面向admin的动态运维管理接口)

    安装

    (1)解压安装

     wget https://github.com/alibaba/canal/releases/download/canal-1.1.4/canal.admin-1.1.4.tar.gz
    
     mkdir -p /opt/module/canal-admin
     tar -zxvf canal.admin-1.1.4.tar.gz -C /opt/module/canal-admin/

    (2)初始化元数据库

    [kris@hadoop101 canal-admin]$ vim conf/application.yml
    server:
      port: 8089
    spring:
      jackson:
        date-format: yyyy-MM-dd HH:mm:ss
        time-zone: GMT+8
    spring.datasource:
      address: hadoop101:3306
      database: canal_manager
      username: root
      password: 123456
      driver-class-name: com.mysql.jdbc.Driver
      url: jdbc:mysql://${spring.datasource.address}/${spring.datasource.database}?useUnicode=true&characterEncoding=UTF-8&useSSL=false
      hikari:
        maximum-pool-size: 30
        minimum-idle: 1
    
    canal:
      adminUser: admin
      adminPasswd: admin
    [kris@hadoop101 software]$ cd /opt/module/canal-admin/
    
    [kris@hadoop101 canal-admin]$ mysql -uroot -p123456
    mysql>  source conf/canal_manager.sql
    
    启动canal-admin
    [kris@hadoop101 canal-admin]$ sh bin/startup.sh
    
    查看日志
    [kris@hadoop101 canal-admin]$ tail -f logs/admin.log 

    访问hadoop101 8089端口, 默认账号密码是admin /123456进行登录

    [kris@hadoop101 bin]$ rm -rf canal.pid 
    启动之后jps
    9239 CanalLauncher 检查 vim /bigdata/canal/logs/example.log 中是否有报错

    3.Canal-admin使用

     配置启动:

    配置启动
    1)修改配置填写Canal-damin地址 (两台节点都改)
    [kris@hadoop101 canal-server]$ vim conf/canal.properties
    canal.admin.manager = hadoop101:8089
    # admin auto register
    canal.admin.register.auto = true
    canal.admin.register.cluster =

    2)启动Canal-admin [kris@hadoop101 canal-admin]$ sh bin/startup.sh

    3)启动Canal-server [kris@hadoop101 canal-server]$ sh bin/startup.sh [kris@hadoop102 canal-server]$ sh bin/startup.sh4)登录页面查看 hadoop101:8089

    集群运维

    点击主配置后可以对canal.properies设计出一份全局的配置集群共享,可以创建多个集群

    Server运维

    配置项:

    • 所属集群,可以选择为单机 或者 集群。一般单机Server的模式主要用于一次性的任务或者测试任务
    • Server名称,唯一即可,方便自己记忆
    • Server Ip,机器ip
    • admin端口,canal 1.1.4版本新增的能力,会在canal-server上提供远程管理操作,默认值11110
    • tcp端口,canal提供netty数据订阅服务的端口
    • metric端口, promethues的exporter监控数据端口 (未来会对接监控)

     

       

    Instance运维

    创建instance

     

    Canal和Zookeeper对应节点的关系
    /otter/canal:canal的根目录
    /otter/canal/cluster:整个canal server的集群列表
    /otter/canal/destinations:destination的根目录
    /otter/canal/destinations/example/running:服务端当前正在提供服务的running节点
    /otter/canal/destinations/example/cluster:针对某个destination的工作集群列表
    /otter/canal/destinations/example/1001/running:客户端当前正在读取的running节点
    /otter/canal/destinations/example/1001/cluster:针对某个destination的客户端列表
    /otter/canal/destinations/example/1001/cursor:客户端读取的position信息
  • 相关阅读:
    To Do List
    Linux 替换文本中对空格为下划线
    Jumpserver开源堡垒机
    用jmeter编写脚本做实时线上监控
    Supervisor使用详解
    Python模块之pysnooper
    Java读取json文件并进行处理
    IOS APP自动化测试 真机测试 遇到的坑
    测试人员入职必须了解的东西包括下面一些内容
    linux 和MacBook下的批替换
  • 原文地址:https://www.cnblogs.com/shengyang17/p/10834781.html
Copyright © 2011-2022 走看看