kettle linux hadoop 一些问题

最近在写linux使用kettle的定时转换方法,碰见了很恶心的问题 原本流程是从本地读取文件到hdfs 但是一直提示无法找到hdfs位置 猜测原因是转换中的 与 这个相冲突,导致存储地址出现问题 解决方法很简单,新建个转换,将读取文件操作放在里面,最后job运行时带上这个转换就可以了 至于linux下读取存放文件路径问题,可以参考如下方法 其中一定要设置文件编码为GBK,不然文件保存到hdfs里
相关文章
相关标签/搜索