晚上好,

我试图在Spark中找到一种解释随机森林的方法 . 通过解释我的意思是找出哪些变量在 specific 行中最有影响力 .

使用python,我曾经这样做:

from treeinterpreter import treeinterpreter as ti
prediction, bias, contributions = ti.predict(rfc, X)

econtributions数组具有我需要的所有信息,然后我可以操纵它以获得所需的结果 . 有没有办法用python中的spark做到这一点?