[转帖]使用 mydumper/loader 全量导入数据

使用,mydumper,loader,导入,数据 · 浏览次数 : 0

小编点评

**内容生成排版** 内容生成时需要带简单的排版,例如以下排版: ``` #内容生成 #排版 #内容生成 #排版 #内容生成 #排版 ``` **排版说明** * `#` 标记开始排版 * `#` 标记结束排版 * `` 标记内容生成 * `` 标记排版结束 **示例** 以下内容生成排版示例: ``` # MySQL 更新同步到 TiDB # 内容生成 # 排版 # MySQL 更新同步到 TiDB # 内容生成 # 排版 ``` **注意** * 以上示例仅供参考,内容生成排版需要根据具体需求进行调整。 * 排版要以 `#` 开始和 `#`结束的格式进行排版。

正文

数据迁移

mydumper 是一个更强大的数据迁移工具,具体可以参考 https://github.com/maxbube/mydumper

我们使用 mydumper 从 MySQL 导出数据,然后用 loader 将其导入到 TiDB 里面。

注意:虽然 TiDB 也支持使用 MySQL 官方的 mysqldump 工具来进行数据的迁移工作,但相比于 mydumper / loader,性能会慢很多,大量数据的迁移会花费很多时间,这里我们并不推荐。

mydumper/loader 全量导入数据最佳实践

为了快速的迁移数据 (特别是数据量巨大的库), 可以参考下面建议

  • mydumper 导出数据至少要拥有 SELECT , RELOAD , LOCK TABLES 权限
  • 使用 mydumper 导出来的数据文件尽可能的小, 最好不要超过 64M, 可以设置参数 -F 64
  • loader的 -t 参数可以根据 tikv 的实例个数以及负载进行评估调整,例如 3个 tikv 的场景, 此值可以设为 3 *(1 ~ n);当 tikv 负载过高,loader 以及 tidb 日志中出现大量 backoffer.maxSleep 15000ms is exceeded 可以适当调小该值,当 tikv 负载不是太高的时候,可以适当调大该值。

某次导入示例,以及相关的配置

  • mydumper 导出后总数据量 214G,单表 8 列,20 亿行数据
  • 集群拓扑
    • TIKV * 12
    • TIDB * 4
    • PD * 3
  • mydumper -F 设置为 16, loader -t 参数 64

结果:导入时间 11 小时左右,19.4 G/小时

从 MySQL 导出数据

我们使用 mydumper 从 MySQL 导出数据,如下:

  1. ./bin/mydumper -h 127.0.0.1 -P 3306 -u root -t 16 -F 64 -B test -T t1,t2 --skip-tz-utc -o ./var/test

上面,我们使用 -B test 表明是对 test 这个 database 操作,然后用 -T t1,t2 表明只导出 t1t2 两张表。

-t 16 表明使用 16 个线程去导出数据。-F 64 是将实际的 table 切分成多大的 chunk,这里就是 64MB 一个 chunk。

--skip-tz-utc 添加这个参数忽略掉 MySQL 与导数据的机器之间时区设置不一致的情况,禁止自动转换。

注意:在阿里云等一些需要 super privilege 的云上面,mydumper 需要加上 --no-locks 参数,否则会提示没有权限操作。

向 TiDB 导入数据

注意:目前 TiDB 支持 UTF8mb4 字符编码,假设 mydumper 导出数据为 latin1 字符编码,请使用 iconv -f latin1 -t utf-8 $file -o /data/imdbload/$basename 命令转换,$file 为已有文件,$basename 为转换后文件。

注意:如果 mydumper 使用 -m 参数,会导出不带表结构的数据,这时 loader 无法导入数据。

我们使用 loader 将之前导出的数据导入到 TiDB。Loader 的下载和具体的使用方法见 Loader 使用文档

  1. ./bin/loader -h 127.0.0.1 -u root -P 4000 -t 32 -d ./var/test

导入成功之后,我们可以用 MySQL 官方客户端进入 TiDB,查看:

  1. mysql -h127.0.0.1 -P4000 -uroot
  2. mysql> show tables;
  3. +----------------+
  4. | Tables_in_test |
  5. +----------------+
  6. | t1 |
  7. | t2 |
  8. +----------------+
  9. mysql> select * from t1;
  10. +----+------+
  11. | id | age |
  12. +----+------+
  13. | 1 | 1 |
  14. | 2 | 2 |
  15. | 3 | 3 |
  16. +----+------+
  17. mysql> select * from t2;
  18. +----+------+
  19. | id | name |
  20. +----+------+
  21. | 1 | a |
  22. | 2 | b |
  23. | 3 | c |
  24. +----+------+

使用 syncer 增量导入数据

上面我们介绍了如何使用 mydumper/loader 将 MySQL 的数据全量导入到 TiDB,但如果后续 MySQL 的数据有更新,我们仍然希望快速导入,使用全量的方式就不合适了。

TiDB 提供 syncer 工具能方便的将 MySQL 的数据增量的导入到 TiDB 里面。

syncer 属于 TiDB 企业版工具集,如何获取可以参考 下载 TiDB 企业版工具集

下载 TiDB 企业版工具集 (Linux)

  1. # 下载 tool 压缩包
  2. wget http://download.pingcap.org/tidb-enterprise-tools-latest-linux-amd64.tar.gz
  3. wget http://download.pingcap.org/tidb-enterprise-tools-latest-linux-amd64.sha256
  4. # 检查文件完整性,返回 ok 则正确
  5. sha256sum -c tidb-enterprise-tools-latest-linux-amd64.sha256
  6. # 解开压缩包
  7. tar -xzf tidb-enterprise-tools-latest-linux-amd64.tar.gz
  8. cd tidb-enterprise-tools-latest-linux-amd64

假设我们之前已经使用 mydumper/loader 导入了 t1 和 t2 两张表的一些数据,现在我们希望这两张表的任何更新,都是实时的同步到 TiDB 上面。

获取同步 position

如上文所提,mydumper 导出的数据目录里面有一个 metadata 文件,里面就包含了我们所需的 position 信息。

medadata 文件信息内容举例:

  1. Started dump at: 2017-04-28 10:48:10
  2. SHOW MASTER STATUS:
  3. Log: mysql-bin.000003
  4. Pos: 930143241
  5. GTID:
  6. Finished dump at: 2017-04-28 10:48:11

我们将 position 相关的信息保存到一个 syncer.meta 文件里面,用于 syncer 的同步:

  1. # cat syncer.meta
  2. binlog-name = "mysql-bin.000003"
  3. binlog-pos = 930143241
  4. binlog-gtid = "2bfabd22-fff7-11e6-97f7-f02fa73bcb01:1-23,61ccbb5d-c82d-11e6-ac2e-487b6bd31bf7:1-4"
  • 注意:syncer.meta 只需要第一次使用的时候配置,后续 syncer 同步新的 binlog 之后会自动将其更新到最新的 position。

  • 注意: 如果使用 binlog position 同步则只需要配置 binlog-name binlog-pos; 使用 gtid 同步则需要设置 gtid,且启动 syncer 时带有 --enable-gtid

启动 syncer

启动 syncer 服务之前请详细阅读 Syncer 增量导入

syncer 的配置文件 config.toml:

  1. log-level = "info"
  2. server-id = 101
  3. ## meta 文件地址
  4. meta = "./syncer.meta"
  5. worker-count = 16
  6. batch = 10
  7. ## pprof 调试地址, Prometheus 也可以通过该地址拉取 syncer metrics
  8. ## 将 127.0.0.1 修改为相应主机 IP 地址
  9. status-addr = "127.0.0.1:10086"
  10. ## 跳过 DDL 或者其他语句,格式为 **前缀完全匹配**,如: `DROP TABLE ABC`,则至少需要填入`DROP TABLE`.
  11. # skip-sqls = ["ALTER USER", "CREATE USER"]
  12. ## 在使用 route-rules 功能后,
  13. ## replicate-do-db & replicate-ignore-db 匹配合表之后(target-schema & target-table )数值
  14. ## 优先级关系: replicate-do-db --> replicate-do-table --> replicate-ignore-db --> replicate-ignore-table
  15. ## 指定要同步数据库名;支持正则匹配,表达式语句必须以 `~` 开始
  16. #replicate-do-db = ["~^b.*","s1"]
  17. ## 指定要同步的 db.table 表
  18. ## db-name 与 tbl-name 不支持 `db-name ="dbname,dbname2"` 格式
  19. #[[replicate-do-table]]
  20. #db-name ="dbname"
  21. #tbl-name = "table-name"
  22. #[[replicate-do-table]]
  23. #db-name ="dbname1"
  24. #tbl-name = "table-name1"
  25. ## 指定要同步的 db.table 表;支持正则匹配,表达式语句必须以 `~` 开始
  26. #[[replicate-do-table]]
  27. #db-name ="test"
  28. #tbl-name = "~^a.*"
  29. ## 指定**忽略**同步数据库;支持正则匹配,表达式语句必须以 `~` 开始
  30. #replicate-ignore-db = ["~^b.*","s1"]
  31. ## 指定**忽略**同步数据库
  32. ## db-name & tbl-name 不支持 `db-name ="dbname,dbname2"` 语句格式
  33. #[[replicate-ignore-table]]
  34. #db-name = "your_db"
  35. #tbl-name = "your_table"
  36. ## 指定要**忽略**同步数据库名;支持正则匹配,表达式语句必须以 `~` 开始
  37. #[[replicate-ignore-table]]
  38. #db-name ="test"
  39. #tbl-name = "~^a.*"
  40. # sharding 同步规则,采用 wildcharacter
  41. # 1. 星号字符 (*) 可以匹配零个或者多个字符,
  42. # 例子, doc* 匹配 doc 和 document, 但是和 dodo 不匹配;
  43. # 星号只能放在 pattern 结尾,并且一个 pattern 中只能有一个
  44. # 2. 问号字符 (?) 匹配任一一个字符
  45. #[[route-rules]]
  46. #pattern-schema = "route_*"
  47. #pattern-table = "abc_*"
  48. #target-schema = "route"
  49. #target-table = "abc"
  50. #[[route-rules]]
  51. #pattern-schema = "route_*"
  52. #pattern-table = "xyz_*"
  53. #target-schema = "route"
  54. #target-table = "xyz"
  55. [from]
  56. host = "127.0.0.1"
  57. user = "root"
  58. password = ""
  59. port = 3306
  60. [to]
  61. host = "127.0.0.1"
  62. user = "root"
  63. password = ""
  64. port = 4000

启动 syncer:

  1. ./bin/syncer -config config.toml
  2. 2016/10/27 15:22:01 binlogsyncer.go:226: [info] begin to sync binlog from position (mysql-bin.000003, 1280)
  3. 2016/10/27 15:22:01 binlogsyncer.go:130: [info] register slave for master server 127.0.0.1:3306
  4. 2016/10/27 15:22:01 binlogsyncer.go:552: [info] rotate to (mysql-bin.000003, 1280)
  5. 2016/10/27 15:22:01 syncer.go:549: [info] rotate binlog to (mysql-bin.000003, 1280)

在 MySQL 插入新的数据

  1. INSERT INTO t1 VALUES (4, 4), (5, 5);

登录到 TiDB 查看:

  1. mysql -h127.0.0.1 -P4000 -uroot -p
  2. mysql> select * from t1;
  3. +----+------+
  4. | id | age |
  5. +----+------+
  6. | 1 | 1 |
  7. | 2 | 2 |
  8. | 3 | 3 |
  9. | 4 | 4 |
  10. | 5 | 5 |
  11. +----+------+

syncer 每隔 30s 会输出当前的同步统计,如下

  1. 2017/06/08 01:18:51 syncer.go:934: [info] [syncer]total events = 15, total tps = 130, recent tps = 4,
  2. master-binlog = (ON.000001, 11992), master-binlog-gtid=53ea0ed1-9bf8-11e6-8bea-64006a897c73:1-74,
  3. syncer-binlog = (ON.000001, 2504), syncer-binlog-gtid = 53ea0ed1-9bf8-11e6-8bea-64006a897c73:1-17
  4. 2017/06/08 01:19:21 syncer.go:934: [info] [syncer]total events = 15, total tps = 191, recent tps = 2,
  5. master-binlog = (ON.000001, 11992), master-binlog-gtid=53ea0ed1-9bf8-11e6-8bea-64006a897c73:1-74,
  6. syncer-binlog = (ON.000001, 2504), syncer-binlog-gtid = 53ea0ed1-9bf8-11e6-8bea-64006a897c73:1-35

可以看到,使用 syncer,我们就能自动的将 MySQL 的更新同步到 TiDB。

与[转帖]使用 mydumper/loader 全量导入数据相似的内容:

[转帖]使用 mydumper/loader 全量导入数据

数据迁移 mydumper 是一个更强大的数据迁移工具,具体可以参考 https://github.com/maxbube/mydumper。 我们使用 mydumper 从 MySQL 导出数据,然后用 loader 将其导入到 TiDB 里面。 注意:虽然 TiDB 也支持使用 MySQL 官方

[转帖]TIDB - 使用 Dumpling 和 TiDB Lightning 迁移Mysql数据至TIDB中

一、TiDB Lightning介绍 TiDB Lightning 是一个将全量数据高速导入到 TiDB 集群的工具,目前支持 Mydumper 或 CSV 输出格式的数据源。你可以在以下两种场景下使用 Lightning: 迅速导入大量新数据。 备份恢复所有数据。 目前,TiDB Lightnin

[转帖]使用JMX服务监控Java程序性能

https://www.jianshu.com/p/3c3c836c1c20?utm_campaign=maleskine&utm_content=note&utm_medium=seo_notes&utm_source=recommendation 背景 单机收集服务器需要性能监控和测试。 JMX

[转帖]使用 tc netem 模拟网络异常

https://cizixs.com/2017/10/23/tc-netem-for-terrible-network/ 在某些情况下,我们需要模拟网络很差的状态来测试软件能够正常工作,比如网络延迟、丢包、乱序、重复等。linux 系统强大的流量控制工具 tc 能很轻松地完成,tc 命令行是 ipr

[转帖]使用 sysdig 进行监控和调试 linux 机器

https://cizixs.com/2017/04/27/sysdig-for-linux-system-monitor-and-analysis/ sysdig 简介 sysdig 官网 上对自己的介绍是: Open Source Universal System Visibility With

[转帖]使用MAT命令行工具生成堆dump分析文件

https://www.cnblogs.com/hellxz/p/use_mat_linux_command_line_generate_reports.html 写作目标 Java程序运行过程中,难免会出现 OOM,往往是在 JVM 启动参数中添加出现 OOM 时输出堆 dump(又名:堆转储、堆

[转帖]使用火焰图(FlameGraph)分析程序性能

火焰图概念 火焰图(FlameGraph)是 svg 格式的矢量图,是先通过 perf 等工具分析得到结果,并将该结果生成的具有不同层次且支持互动的图片,看起来就像是火焰,这也是它的名字的由来。表现形式如下所示: 需要注意以下几点: 纵向(Y 轴)高低不平,表示的是函数调用栈的深度。每一层都是一个函

[转帖]使用Prometheus和Grafana监控RabbitMQ集群 (使用RabbitMQ自带插件)

https://www.cnblogs.com/hahaha111122222/p/15683696.html 配置RabbitMQ集群 官方文档:https://www.rabbitmq.com/prometheus.html#quick-start 官方github地址:https://gith

[转帖]使用Flame Graph进行系统性能分析

http://t.zoukankan.com/arnoldlu-p-10148558.html 关键词:Flame Graph、perf、perl。 FlameGraph是由BrendanGregg开发的一款开源可视化性能分析工具,形象的成为火焰图。 从底向上像火苗一样逐渐变小,也反映了相互之间的包

[转帖]使用 nsenter、dig 和 tcpdump 调试 Kubernetes 网络问题

https://zhuanlan.zhihu.com/p/410217354 使用 nsenter、dig 和 tcpdump 调试 Kubernetes 网络问题 作为 Kubernetes 管理员,我经常发现自己需要调试应用程序和系统问题。我遇到的大多数问题都可以通过 Grafana 仪表板和