https://zhuanlan.zhihu.com/p/369414808
TiUP 是 TiDB 4.0 版本引入的集群运维工具,TiUP cluster 是 TiUP 提供的使用 Golang 编写的集群管理组件,通过 TiUP cluster 组件就可以进行日常的运维工作,包括部署、启动、关闭、销毁、弹性扩缩容、升级 TiDB 集群,以及管理 TiDB 集群参数。
最小规模的 TiDB 集群拓扑:
生产环境部署,建议使用 EXT4 类型文件系统的 NVME 类型的 SSD 磁盘存储 TiKV 数据文件。这个配置方案为最佳实施方案,其可靠性、安全性、稳定性已经在大量线上场景中得到证实。
使用 root 用户登录目标机器,将部署目标机器数据盘格式化成 ext4 文件系统,挂载时添加 nodelalloc 和 noatime 挂载参数。nodelalloc 是必选参数,否则 TiUP 安装时检测无法通过;noatime 是可选建议参数。
注意:
如果你的数据盘已经格式化成 ext4 并挂载了磁盘,可先执行 umount /dev/vdb 命令卸载,从编辑 /etc/fstab 文件步骤开始执行,添加挂载参数重新挂载即可。
fdisk -l
Disk /dev/vdb: 107.4 GB, 107374182400 bytes, 209715200 sectors
parted -s -a optimal /dev/vdb mklabel gpt -- mkpart primary ext4 1 -1
mkfs.ext4 /dev/vdb
[root@tidb01 ~]# lsblk -f
NAME FSTYPE LABEL UUID MOUNTPOINT
sr0 iso9660 CONTEXT 2021-04-30-09-59-46-00
vda
└─vda1 xfs de86ba8a-914b-4104-9fd8-f9de800452ea /
vdb ext4 957bb4c8-68f7-40df-ab37-1de7a4b5ee5e
vi /etc/fstab
UUID=957bb4c8-68f7-40df-ab37-1de7a4b5ee5e /data ext4 defaults,nodelalloc,noatime 0 2
mkdir -p /data && mount -a
执行以下命令,如果文件系统为 ext4,并且挂载参数中包含 nodelalloc,则表示已生效。
[root@tidb01 ~]# mount -t ext4
/dev/vdb on /data type ext4 (rw,noatime,nodelalloc,data=ordered)
curl --proto '=https' --tlsv1.2 -sSf https://tiup-mirrors.pingcap.com/install.sh | sh
tiup cluster
需要打开一个新的终端或重新加载source /root/.bash_profile文件才能执行tiup
命令
tiup update --self && tiup update cluster
由于模拟多机部署,需要通过 root 用户调大 sshd 服务的连接数限制:
systemctl restart sshd.service
按下面的配置模板,编辑配置文件,命名为 topo.yaml,其中:
[root@tidb01 .tiup]# pwd
/root/.tiup
[root@tidb01 .tiup]# cat topo.yaml
# # Global variables are applied to all deployments and used as the default value of
# # the deployments if a specific deployment value is missing.
global:
user: "tidb"
ssh_port: 22
deploy_dir: "/data/tidb-deploy"
data_dir: "/data/tidb-data"
# # Monitored variables are applied to all the machines.
monitored:
node_exporter_port: 9100
blackbox_exporter_port: 9115
server_configs:
tidb:
log.slow-threshold: 300
tikv:
readpool.storage.use-unified-pool: false
readpool.coprocessor.use-unified-pool: true
pd:
replication.enable-placement-rules: true
replication.location-labels: ["host"]
tiflash:
logger.level: "info"
pd_servers:
- host: 10.186.65.41
tidb_servers:
- host: 10.186.65.41
tikv_servers:
- host: 10.186.65.41
port: 20160
status_port: 20180
config:
server.labels: { host: "logic-host-1" }
- host: 10.186.65.41
port: 20161
status_port: 20181
config:
server.labels: { host: "logic-host-2" }
- host: 10.186.65.41
port: 20162
status_port: 20182
config:
server.labels: { host: "logic-host-3" }
tiflash_servers:
- host: 10.186.65.41
monitoring_servers:
- host: 10.186.65.41
grafana_servers:
- host: 10.186.65.41
tiup cluster deploy <cluster-name> <tidb-version> ./topo.yaml --user root -p
tiup cluster deploy barlow 4.0.12 ./topo.yaml --user root -p
按照引导,输入”y”及 root 密码,来完成部署:
Do you want to continue? [y/N]: y
Input SSH password:
成功安装会提示如下启动字样:
Cluster `barlow` deployed successfully, you can start it with command: `tiup cluster start barlow`
tiup cluster start barlow
tiup cluster start <cluster-name>
yum install -y mysql
mysql -uroot -p -h10.186.65.41 -P4000
通过 http://{grafana-ip}:3000 访问集群 Grafana 监控页面,默认用户名和密码均为 admin。 http://10.186.65.41:3000/
通过 http://{pd-ip}:2379/dashboard 访问集群 TiDB Dashboard 监控页面,默认用户名为 root,密码为空。 http://10.186.65.41:2379/dashboard
tiup cluster list
[root@tidb01 .tiup]# tiup cluster list
Starting component `cluster`: /root/.tiup/components/cluster/v1.4.2/tiup-cluster list
Name User Version Path PrivateKey
---- ---- ------- ---- ----------
barlow tidb v4.0.12 /root/.tiup/storage/cluster/clusters/barlow /root/.tiup/storage/cluster/clusters/barlow/ssh/id_rsa
tiup cluster display <cluster-name>
[root@tidb01 .tiup]# tiup cluster display barlow
Starting component `cluster`: /root/.tiup/components/cluster/v1.4.2/tiup-cluster display barlow
Cluster type: tidb
Cluster name: barlow
Cluster version: v4.0.12
SSH type: builtin
Dashboard URL: http://10.186.65.41:2379/dashboard
ID Role Host Ports OS/Arch Status Data Dir Deploy Dir
-- ---- ---- ----- ------- ------ -------- ----------
10.186.65.41:3000 grafana 10.186.65.41 3000 linux/x86_64 Up - /data/tidb-deploy/grafana-3000
10.186.65.41:2379 pd 10.186.65.41 2379/2380 linux/x86_64 Up|L|UI /data/tidb-data/pd-2379 /data/tidb-deploy/pd-2379
10.186.65.41:9090 prometheus 10.186.65.41 9090 linux/x86_64 Up /data/tidb-data/prometheus-9090 /data/tidb-deploy/prometheus-9090
10.186.65.41:4000 tidb 10.186.65.41 4000/10080 linux/x86_64 Up - /data/tidb-deploy/tidb-4000
10.186.65.41:9000 tiflash 10.186.65.41 9000/8123/3930/20170/20292/8234 linux/x86_64 Up /data/tidb-data/tiflash-9000 /data/tidb-deploy/tiflash-9000
10.186.65.41:20160 tikv 10.186.65.41 20160/20180 linux/x86_64 Up /data/tidb-data/tikv-20160 /data/tidb-deploy/tikv-20160
10.186.65.41:20161 tikv 10.186.65.41 20161/20181 linux/x86_64 Up /data/tidb-data/tikv-20161 /data/tidb-deploy/tikv-20161
10.186.65.41:20162 tikv 10.186.65.41 20162/20182 linux/x86_64 Up /data/tidb-data/tikv-20162 /data/tidb-deploy/tikv-20162
Total nodes: 8
easydb.net
微信公众号:easydb
关注我,不走丢!