实时读取本地文件到HDFS
1、1.掂迎豢畦Flume要想将数据输出到HDFS,必须持有Hadoop相关jar包将commons-configuration-1.6.jar、hadoop-auth-2.7.2.jar、hadoop-common-2.7.2.jar、hadoop-hdfs-2.7.2.jar、commons-io-2.4.jar、htrace-core-3.1.0-incubating.jar拷贝到/opt/module/flume/lib文件夹下。
2、2.创建flume-file-hdfs.conf文件创建文件
3、注:要想读取Linux系统中的文件,就得按照Linux命令的规则执行命令。由于Hi箪滹埘麽ve日志在Linux系统中所以读取文件的类型选择:exec即髫潋啜缅execute执行的意思。表示执行Linux命令来读取文件。
4、添加如下内容
5、3.执行监控配置
6、4.开启Hadoop和Hive并操作Hive产生日志
7、5.在HDFS上查看文件。
声明:本网站引用、摘录或转载内容仅供网站访问者交流或参考,不代表本站立场,如存在版权或非法内容,请联系站长删除,联系邮箱:site.kefu@qq.com。
阅读量:61
阅读量:31
阅读量:20
阅读量:65
阅读量:22