spark处理中文乱码问题!!|����| | �㶫| | �Ϻ�| |����| |����| |����|

既然能看见这篇文章,说明你遇到是乱码问题,具体问题我们就再也不分析了,直接来看为何乱码,如何不让它乱码 首先我们分析为何会乱码,首先由于spark没有本身读取文件的方式因此它采用了hadoop的读取文件的方式,由于日志的格式是GBK编码的,而hadoop上的编码默认是用UTF-8,致使最终输出乱码。因此我们应该制定编码格式是GBK的,下面经过一个案例来表示直接读取和指定方式读取的结果差异,以及代码
相关文章
相关标签/搜索