title | summary | aliases | ||
---|---|---|---|---|
TiFlash 常见问题 |
介绍 TiFlash 的常见问题、原因及解决办法。 |
|
本文介绍了一些 TiFlash 常见问题、原因及解决办法。
该问题可能由多个因素构成,可以通过以下步骤依次排查:
-
检查系统环境是否是 CentOS8。
CentOS8 中缺少
libnsl.so
系统库,可以通过手动安装的方式解决:{{< copyable "shell-regular" >}}
dnf install libnsl
-
检查系统的
ulimit
参数设置。{{< copyable "shell-regular" >}}
ulimit -n 1000000
-
使用 PD Control 工具检查在该节点(相同 IP 和 Port)是否有之前未成功下线的 TiFlash 实例,并将它们强制下线。(下线步骤参考手动缩容 TiFlash 节点)
如果遇到上述方法无法解决的问题,可以打包 TiFlash 的 log 文件夹,并在 AskTUG 社区中提问。
该问题一般由于配置错误或者环境问题导致 TiFlash 处于异常状态,可以先通过以下步骤定位问题组件:
-
使用 pd-ctl 检查 PD 的 Placement Rules 功能是否开启:
{{< copyable "shell-regular" >}}
echo 'config show replication' | /path/to/pd-ctl -u http://<pd-ip>:<pd-port>
预期结果为
"enable-placement-rules": "true"
(已开启)。如未开启,具体开启方法参考开启 Placement Rules 特性。 -
通过 TiFlash-Summary 监控面板下的 UpTime 检查操作系统中 TiFlash 进程是否正常。
-
通过 pd-ctl 查看 TiFlash proxy 状态是否正常:
{{< copyable "shell-regular" >}}
echo "store" | /path/to/pd-ctl -u http://<pd-ip>:<pd-port>
store.labels 中含有
{"key": "engine", "value": "tiflash"}
信息的为 TiFlash proxy。 -
查看 pd buddy 是否正常打印日志(日志路径的对应配置项 [flash.flash_cluster] log 设置的值,默认为 TiFlash 配置文件配置的 tmp 目录下)。
-
检查配置的副本数是否小于等于集群 TiKV 节点数。若配置的副本数超过 TiKV 节点数,则 PD 不会向 TiFlash 同步数据;
{{< copyable "shell-regular" >}}
echo 'config placement-rules show' | /path/to/pd-ctl -u http://<pd-ip>:<pd-port>
再确认 "default: count" 参数值。
注意:
开启 Placement Rules 后,原先的
max-replicas
及location-labels
配置项将不再生效。如果需要调整副本策略,应当使用 Placement Rules 相关接口。 -
检查 TiFlash 节点对应 store 所在机器剩余的磁盘空间是否充足。默认情况下当磁盘剩余空间小于该 store 的 capacity 的 20%(通过 low-space-ratio 参数控制)时,PD 不会向 TiFlash 调度数据。
该问题是由于集群中存在大量写入,导致 TiFlash 查询时遇到锁并发生查询重试。
可以在 TiDB 中将查询时间戳设置为 1 秒前(例如:假设当前时间为 '2020-04-08 20:15:01',可以在执行 query 前执行 set @@tidb_snapshot='2020-04-08 20:15:00';
),来减小 TiFlash 查询碰到锁的可能性,从而减轻查询时间不稳定的程度。
如果在 TiFlash 上的负载压力过大,会导致 TiFlash 数据同步落后,部分查询可能会返回 Region Unavailable
的错误。
在这种情况下,可以通过增加 TiFlash 节点数分担负载压力。
可依照如下步骤进行处理:
- 参照下线 TiFlash 节点一节下线对应的 TiFlash 节点。
- 清除该 TiFlash 节点的相关数据。
- 重新在集群中部署 TiFlash 节点。