如何使用 Spark SQL 实现跳过/获取查询(典型的服务器端网格分页)。我在网上搜索过,只能找到非常基本的示例,例如:https://databricks-training.s3.amazonaws.com/data-exploration-using-spark-sql.html https://databricks-training.s3.amazonaws.com/data-exploration-using-spark-sql.html
我没有看到像 T-SQL 那样的 ROW_NUMBER() 或 OFFSET/FETCH 的任何概念。有谁知道如何做到这一点?
就像是:
scala > csc.sql("select * from users skip 10 limit 10").collect()
尝试这样的事情:
val rdd = csc.sql("select * from <keyspace>.<table>")
val rdd2 = rdd.view.zipWithIndex()
rdd2.filter(x => { x._2 > 5 && x._2 < 10;}).collect()
rdd2.filter(x => { x._2 > 9 && x._2 < 12;}).collect()
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)