Допустим, у меня есть Spark Dataset
вот так:
scala> import java.sql.Date
scala> case class Event(id: Int, date: Date, name: String)
scala> val ds = Seq(Event(1, Date.valueOf("2016-08-01"), "ev1"), Event(2, Date.valueOf("2018-08-02"), "ev2")).toDS
Я хочу создать новый Dataset
только с полями имени и даты. Насколько я понимаю, я могу либо использовать ds.select()
с TypedColumn
, либо использовать ds.select()
с Column
, а затем преобразовать DataFrame
в Dataset
.
Однако я не могу заставить первый вариант работать с типом Date
. Например:
scala> ds.select($"name".as[String], $"date".as[Date])
<console>:31: error: Unable to find encoder for type stored in a Dataset. Primitive types (Int, String, etc) and Product types (case classes) are supported by importing spark.implicits._ Support for serializing other types will be added in future releases.
ds.select($"name".as[String], $"date".as[Date])
^
Более поздний вариант работает:
scala> ds.select($"name", $"date").as[(String, Date)]
res2: org.apache.spark.sql.Dataset[(String, java.sql.Date)] = [name: string, date: date]
Есть ли способ выбрать Date
полей из Dataset
, не переходя к DataFrame
и обратно?