Как получить SparkContext из JavaSparkContext в PySpark?

Когда я запускаю PySpark, выполняюуспешно дает мне хороший вывод, какво время бегадает мне ошибку Py4J с Java NPEЧерез Py4J, почему я не могу получить доступ к ---- +: = 4 =: + ----, содержащемуся в ---- +: = 5 =: + ---- мне дан доступ?
4 голоса | спросил Uri Laserson 22 Jam1000000amThu, 22 Jan 2015 05:35:15 +030015 2015, 05:35:15

1 ответ


0
---- +: = 0 =: + ---- - это правильный способ доступа к базовому SparkContext.Проиллюстрировать:Проблема, которую вы видите здесь, заключается в том, что команда Py4J ---- +: = 2 =: + ---- имеет проблемы с отображением справки для этого класса (возможно, ошибка Py4J).
ответил Josh Rosen 22 Jam1000000amThu, 22 Jan 2015 05:51:11 +030015 2015, 05:51:11

Похожие вопросы

Популярные теги

security × 330linux × 316macos × 2827 × 268performance × 244command-line × 241sql-server × 235joomla-3.x × 222java × 189c++ × 186windows × 180cisco × 168bash × 158c# × 142gmail × 139arduino-uno × 139javascript × 134ssh × 133seo × 132mysql × 132