如何将Spark结构化流数据写入Hive?
有df.write().saveAsTable(tablename)
但是我不确定这是否会写入流数据
我通常这样做df.writeStream().trigger(new ProcessingTime(1000)).foreach(new KafkaSink()).start()
将流数据写入 Kafka,但我没有看到任何类似于将流数据写入 Hive 数据仓库的内容。有任何想法吗?
df.createOrReplaceTempView("mytable")
spark.sql("create table mytable as select * from mytable");
or
df.write().mode(SaveMode.Overwrite).saveAsTable("dbName.tableName");
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)