HDFS数据平衡相关

数据平衡

  • DataNode间数据平衡

数据不平衡原因:

  1. 向现有群集添加了新的DataNode
  2. 集群机器磁盘坏死
  3. 集群DataNode下线

解决方案:

HDFS提供了一个平衡器实用程序,可以分析块放置并平衡DataNode上的数据。平衡器移动块直到认为集群是平衡的,这意味着每个DataNode的利用率(节点上已用空间与节点总容量的比率)不同于集群的利用率(使用的空间比率)集群到集群的总容量)不超过给定的阈值百分比。但平衡器不在单个DataNode上的各个卷之间进行平衡。

  • DataNode磁盘数据平衡

    数据不平衡原因:

    当我们往HDFS上写入新的数据块,DataNode 将会使用volume选择策略来为这个块选择存储的地方。目前Hadoop支持两种volume选择策略:round-robin 和 available space(详情参见:HDFS-1804),我们可以通过 dfs.datanode.fsdataset.volume.choosing.policy 参数来设置。默认为循环(round-robin)策略将新块均匀分布在可用磁盘上;而可用空间( available-space )策略优先将数据写入具有最大可用空间的磁盘。

    默认情况下,DataNode 是使用基于round-robin策略来写入新的数据块。然而在一个长时间运行的集群中,由于HDFS中的大规模文件删除或者通过往DataNode 中添加新的磁盘仍然会导致同一个DataNode中的不同磁盘存储的数据很不均衡。即使你使用的是基于可用空间的策略,卷(volume)不平衡仍可导致较低效率的磁盘I/O。比如所有新增的数据块都会往新增的磁盘上写,在此期间,其他的磁盘会处于空闲状态,这样新的磁盘将会是整个系统的瓶颈。

    解决方案:

    1. HDFS-1312 在线磁盘均衡器,旨在根据各种指标重新平衡正在运行DataNode上的磁盘数据;离线的脚本平衡脚本
    2. 升级HDFS版本到3.0使用HDFS自带的磁盘均衡器(diskbalancer)