Я хочу получить доступ к таблице Cassandra в Spark. Ниже приведена версия, которую я использую
- искра: искра-1.4.1-бин-hadoop2.6
- кассандра: апач-кассандра-2.2.3
- коннектор искры кассандры: spark-cassandra-connector-java_2.10-1.5.0-M2.jar
Ниже приведен сценарий:
sc.stop
import com.datastax.spark.connector._, org.apache.spark.SparkContext, org.apache.spark.SparkContext._, org.apache.spark.SparkConf
val conf = new SparkConf(true).set("spark.cassandra.connection.host", "localhost")
val sc = new SparkContext(conf)
val test_spark_rdd = sc.cassandraTable("test1", "words")
когда я запускаю последний оператор, я получаю сообщение об ошибке
:32: ошибка: значение cassandraTable не является членом org.apache.spark.SparkContext val test_spark_rdd = sc.cassandraTable("test1", "words")
советы по устранению ошибки будут полезны.
Спасибо