我收到以下代码的错误,请帮忙:
from delta.tables import *
ModuleNotFoundError: No module named 'delta.tables'
INFO SparkContext: Invoking stop() from shutdown hook
这是代码:
'''
from pyspark.sql import *
if __name__ == "__main__":
spark = SparkSession \
.builder \
.appName("DeltaLake") \
.config("spark.jars", "delta-core_2.12-0.7.0") \
.config("spark.sql.extensions", "io.delta.sql.DeltaSparkSessionExtension") \
.config("spark.sql.catalog.spark_catalog", "org.apache.spark.sql.delta.catalog.DeltaCatalog") \
.getOrCreate()
from delta.tables import *
data = spark.range(0, 5)
data.printSchema()
'''
在线搜索建议将 scala 版本验证为 delta core jar 版本。这是 scala 和 Jar 版本
“delta-core_2.12-0.7.0”
“使用 Scala 版本 2.12.10,Java HotSpot(TM) 64 位服务器 VM,1.8.0_221”
或者你也可以
pip install delta-spark
Delta-Spark 点页面 https://pypi.org/project/delta-spark/
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)