Debian Hadoop数据恢复方法如下:
-
从回收站恢复
- 确保回收站已启用(在
core-site.xml中配置fs.trash.interval参数)。 - 命令:
hadoop fs -cp /user/username/.Trash/Current/文件名 /目标路径。
- 确保回收站已启用(在
-
利用快照恢复
- 创建快照:
hdfs fs -createSnapshot /目录 快照名。 - 恢复:
hadoop fs -cp /目录/.snapshot/快照名/文件名 /目标路径。
- 创建快照:
-
使用DistCp工具恢复
- 从备份路径复制数据:
hadoop distcp hdfs://备份路径 hdfs://恢复路径。
- 从备份路径复制数据:
-
手动恢复(高风险)
- 停止HDFS服务,复制原集群的
fsimage和edits文件到新集群,重新加载元数据后启动服务。
- 停止HDFS服务,复制原集群的
注意事项:
- 恢复前立即停止写入新数据,避免覆盖丢失数据。
- 定期备份数据,优先使用快照或第三方工具(如Duplicity)。