我正在从终端运行sparkR 2.0.0,并且可以运行R命令。但是,如何创建 .r 脚本并能够在 Spark 会话中运行它。
SparkR 使用标准 R 解释器,因此适用相同的规则。如果您想在当前会话中执行外部脚本,请使用source
功能。
## Welcome to
## ____ __
## / __/__ ___ _____/ /__
## _\ \/ _ \/ _ `/ __/ '_/
## /___/ .__/\_,_/_/ /_/\_\ version 2.1.0-SNAPSHOT
## /_/
##
##
## SparkSession available as 'spark'.
> sink("test.R")
> cat("print(head(createDataFrame(mtcars)))")
> sink()
> source("test.R")
## mpg cyl disp hp drat wt qsec vs am gear carb
## 1 21.0 6 160 110 3.90 2.620 16.46 0 1 4 4
## 2 21.0 6 160 110 3.90 2.875 17.02 0 1 4 4
## 3 22.8 4 108 93 3.85 2.320 18.61 1 1 4 1
## 4 21.4 6 258 110 3.08 3.215 19.44 1 0 3 1
## 5 18.7 8 360 175 3.15 3.440 17.02 0 0 3 2
## 6 18.1 6 225 105 2.76 3.460 20.22 1 0 3 1
如果您想在现有 SparkR 会话之外提交独立脚本,您应该在脚本本身中初始化所需的上下文。之后你可以使用执行它SPARK_HOME/bin/spark-submit
(首选)或者甚至Rscript
.
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)