В документации Spark 2.1 упоминается, что
Spark работает на Java 7+, Python 2.6 + / 3.4 + и R 3.1+. Для Scala API Spark 2.1.0 использует Scala 2.11. Вам потребуется совместимая версия Scala (2.11.x).
в выпуске новостей Scala 2.12 также упоминается, что:
Хотя Scala 2.11 и 2.12 в основном совместимы с исходным кодом для облегчения кросс-компоновки, они не совместимы на двоичном уровне. Это позволяет нам постоянно улучшать компилятор Scala и стандартную библиотеку.
Но когда я создаю uber jar (используя Scala 2.12) и запускаю его на Spark 2.1. все работает нормально.
и я знаю, что это не какой-либо официальный источник, а находится в блоге 47 степеней они упомянули, что Spark 2.1 действительно поддерживает Scala 2.12.
Как можно объяснить эти (конфликты?) Фрагменты информации?