Spark读取Hive表中文显示乱码的解决办法

在Hive表中查询表数据,中文显示正常,但是在spark-shell中中文显示乱码的解决办法:

在启动spark-shell的时候增加如下两项配置:

--conf spark.driver.extraJavaOptions="-Dfile.encoding=utf-8" 

--conf spark.executor.extraJavaOptions="-Dfile.encoding=utf-8"

上一篇:Tomcat控制台输出乱码问题


下一篇:可能是七段码最不优雅的解法