清理文件脚本(已经测试经过):ssh
find /tmp/hadoop-flume/s3 -mtime +10 -exec rm -rf {} \;oop
crontab脚本:测试
#clear
0 17 * * 5 cd /home/data/ sh clear_tmp.sh.net
若是只有一个结点只须要再那个结点上写一个crontab脚本就能够没周定时清理了blog
若是有多个结点,不想每个结点上都写一次crontab脚本,能够利用ssh远程执行清理脚本,在一台机器上布一个crontab就能够了。crontab
ssh dmp-slave1 "find /tmp/hadoop-flume/s3 -mtime +10 -exec rm -rf {} \;"
---------------------
做者:djd已经存在
来源:CSDN
原文:https://blog.csdn.net/djd1234567/article/details/51984264
版权声明:本文为博主原创文章,转载请附上博文连接!hadoop