如何从PySpark中的日志关闭INFO而不更改log4j.properties?

我在一个集群中工作,我没有权限更改文件log4j.properties以在使用pyspark时停止信息记录(如第一个答案here中所述).以下解决方案在上面的问题的第一个答案中解释为spark工作-shell(scala)

import org.apache.log4j.Logger
import org.apache.log4j.Level

但对于python(即pyspark)的火花,它不起作用,也不起作用

Logger.getLogger("org").setLevel(Level.OFF)
Logger.getLogger("akka").setLevel(Level.OFF)

如何在不更改log4j.properties文件的情况下停止在pyspark中详细打印信息?

解决方法:

我使用了sc.setLogLevel(“ERROR”),因为我没有对集群的log4j.properties文件的写访问权.从docs

Control our logLevel. This overrides any user-defined log settings. Valid log levels include: ALL, DEBUG, ERROR, FATAL, INFO, OFF, TRACE, WARN

上一篇:如何将pip / pypi安装的python包转换为要在AWS Glue中使用的zip文件


下一篇:python – PySpark,通过JSON文件导入模式