正如中所述here https://spark-summit.org/2014/leveraging-uima-in-spark/UIMA 和 Spark 在分发基础设施方面有一些重叠。我本来打算将 UIMA 与 Spark 一起使用。 (现在我要转向UIMAFit)谁能告诉我当我们用spark开发uima时我们真正面临的问题是什么?
以及可能的遭遇是什么。
(抱歉,我没有对此做过任何研究。)
主要问题是访问对象,因为 UIMA 在运行分析引擎时尝试重新实例化对象。如果对象有本地引用,那么从远程 Spark 集群访问就会出现问题。某些 RDD 函数可能无法在 UIMA 上下文中工作。但是,如果您不使用单独的远程集群,那么就不会有问题。 (我说的是uima-fit 2.2)
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)