我想知道如何在多类分类问题中使用 Spark MLLIB SVM 计算概率。
文档显示没有这样的功能可用。LibSVM https://stackoverflow.com/questions/7802556/regarding-probability-estimates-predicted-by-libsvm uses 普拉特缩放 http://en.wikipedia.org/wiki/Platt_scaling.
我的问题是:
- 有没有一个函数可以计算某处的概率?
- 如果没有,谁能帮我实现这样的功能?
我将简单地在训练后获取每个类别的所有支持向量的平均距离,并比较从新数据点到所有分类器的超平面的距离。
我觉得SVMModel.predict() https://spark.apache.org/docs/latest/api/java/org/apache/spark/mllib/classification/ClassificationModel.html#predict%28org.apache.spark.api.java.JavaRDD%29给出了这些距离,但我不确定。
None
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)