hadoop集群坏块处理
2023-12-24 13:41:59
hadoop 之hdfs数据块修复方法:
1、手动修复
#检查集群的健康状态
hdfs fsck /
#修复指定的hdfs数据块。也就是关闭打开的文件。
hdfs debug recoverLease -path 文件位置 -retries 重试次数
检查坏块:
hadoop fsck /user -files -blocks -locations
检查是否有数据块正在写入:
hadoop fsck /user openforwrite
文章来源:https://blog.csdn.net/weixin_37791303/article/details/129901680
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:veading@qq.com进行投诉反馈,一经查实,立即删除!
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:veading@qq.com进行投诉反馈,一经查实,立即删除!