HDFS分布式文件系统3-2 shell定期采集数据到HDFS

1、准备工作
创建目录:
/export/data/logs/log
/export/data/logs/toupload
2、在/export/data/logs目录下创建upload2HDFS.sh

内容如下:
#!/bin/bash
export JAVA_HOME=/export/servers/jdk
export JRE_HOME=$JAVA_HOME/jre
export CLASSPATH=.:JAVA_HOME/lib:JRE_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin
export HADOOP_HOME=/export/servers/hadoop
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
#日志存放目录(注意目录最后面有/)
log_src_dir=/export/data/logs/log/
#待上传目录
log_toupload_dir=/export/data/logs/toupload/
#设置日期
date1=`date -d last-day +%Y_%m_%d`
#日志文件上传到hdfs的根路径
hdfs_root_dir=/data/clicklog/$date1/
#打印环境变量信息
echo "envs:hadoop_home:$HADOOP_HOME"
#读取日志文件的目录,判读是否有需要上传的文件
echo "log_src_dir:"$log_src_dir
ls $log_src_dir | while read fileName
do
        if [[ "$fil

你可能感兴趣的:(hdfs,hadoop,大数据)