我正在尝试在 Spark 中执行查询列表,但如果查询未正确运行,Spark 会抛出以下错误:
AnalysisException:“不支持更改表更改列...
这是我的代码的一部分(我在 Databricks 上使用 python 和 Spark SQL):
for index, row in df_tables.iterrows():
query = row["query"]
print ("Executing query: ")
try:
spark.sql(query)
print ("Query executed")
except (ValueError, RuntimeError, TypeError, NameError):
print("Unable to process your query dude!!")
else:
#do another thing
有什么办法可以捕获该异常吗? ValueError、RuntimeError、TypeError、NameError 似乎不起作用。
Spark 网页上没有太多相关信息。
我发现 AnalysisException 在 pyspark.sql.utils 中定义。https://spark.apache.org/docs/3.0.1/api/python/_modules/pyspark/sql/utils.html https://spark.apache.org/docs/3.0.1/api/python/_modules/pyspark/sql/utils.html
import pyspark.sql.utils
try:
spark.sql(query)
print ("Query executed")
except pyspark.sql.utils.AnalysisException:
print("Unable to process your query dude!!")
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)