SparkSession.sql 和 Dataset.sqlContext.sql 有什么区别?

2023-12-25

我有以下代码片段,我想知道这两者之间有什么区别,我应该使用哪一个?我正在使用火花2.2。

Dataset<Row> df = sparkSession.readStream()
    .format("kafka")
    .load();

df.createOrReplaceTempView("table");
df.printSchema();

Dataset<Row> resultSet =  df.sqlContext().sql("select value from table"); //sparkSession.sql(this.query);
StreamingQuery streamingQuery = resultSet
        .writeStream()
        .trigger(Trigger.ProcessingTime(1000))
        .format("console")
        .start();

vs

Dataset<Row> df = sparkSession.readStream()
    .format("kafka")
    .load();

df.createOrReplaceTempView("table");

Dataset<Row> resultSet =  sparkSession.sql("select value from table"); //sparkSession.sql(this.query);
StreamingQuery streamingQuery = resultSet
        .writeStream()
        .trigger(Trigger.ProcessingTime(1000))
        .format("console")
        .start();

There is之间有一个非常微妙的区别sparkSession.sql("sql query") vs df.sqlContext().sql("sql query").

请注意,您可以有零个、两个或多个SparkSession在单个 Spark 应用程序中(但假设您至少且通常只有一个SparkSession in a 星火SQL应用)。

另请注意,Dataset绑定到SparkSession它是在其中创建的SparkSession永远不会改变。

您可能想知道为什么有人会想要它,但这为您提供了查询之间的边界,并且您可以对不同的数据集使用相同的表名称,这实际上是 Spark SQL 的一个非常强大的功能。

下面的示例显示了其中的差异,希望能让您了解它为何如此强大。

scala> spark.version
res0: String = 2.3.0-SNAPSHOT

scala> :type spark
org.apache.spark.sql.SparkSession

scala> spark.sql("show tables").show
+--------+---------+-----------+
|database|tableName|isTemporary|
+--------+---------+-----------+
+--------+---------+-----------+

scala> val df = spark.range(5)
df: org.apache.spark.sql.Dataset[Long] = [id: bigint]

scala> df.sqlContext.sql("show tables").show
+--------+---------+-----------+
|database|tableName|isTemporary|
+--------+---------+-----------+
+--------+---------+-----------+

scala> val anotherSession = spark.newSession
anotherSession: org.apache.spark.sql.SparkSession = org.apache.spark.sql.SparkSession@195c5803

scala> anotherSession.range(10).createOrReplaceTempView("new_table")

scala> anotherSession.sql("show tables").show
+--------+---------+-----------+
|database|tableName|isTemporary|
+--------+---------+-----------+
|        |new_table|       true|
+--------+---------+-----------+


scala> df.sqlContext.sql("show tables").show
+--------+---------+-----------+
|database|tableName|isTemporary|
+--------+---------+-----------+
+--------+---------+-----------+
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

SparkSession.sql 和 Dataset.sqlContext.sql 有什么区别? 的相关文章

随机推荐