Как получить SparkContext из JavaSparkContext в PySpark?
Когда я запускаю PySpark, выполняюуспешно дает мне хороший вывод, какво время бегадает мне ошибку Py4J с Java NPEЧерез Py4J, почему я не могу получить доступ к ---- +: = 4 =: + ----, содержащемуся в ---- +: = 5 =: + ---- мне дан доступ?
1 ответ
0
---- +: = 0 =: + ---- - это правильный способ доступа к базовому SparkContext.Проиллюстрировать:Проблема, которую вы видите здесь, заключается в том, что команда Py4J ---- +: = 2 =: + ---- имеет проблемы с отображением справки для этого класса (возможно, ошибка Py4J).
ответил Josh Rosen 22 Jam1000000amThu, 22 Jan 2015 05:51:11 +030015 2015, 05:51:11