Spark 处理中文字符乱码问题

今天使用Spark将处理文本数据并写入mysql中时出现了中文字符是乱码的问题。 刚开始,所有的中文字符都是**??**,查了很多的文档之后,将mysql的默认字符集修改为utf-8,但是中文仍然是乱码。 插入mysql时,连非中文字段也收到了影响: 最后的解决方法是: 在提交spark任务时,添加命令行参数: –conf spark.executor.extraJavaOptions="-Dfi
相关文章
相关标签/搜索