Ошибка SparkR при записи кадра данных в csv и паркет

Я получаю сообщение об ошибке при записи искрового фрейма данных в csv и паркет. Я уже пытаюсь установить winutil, но до сих пор не устраняю ошибку.

мой код

    INVALID_IMEI <- c("012345678901230","000000000000000")
    setwd("D:/Revas/Jatim Old")
    fileList <- list.files()
    cdrSchema <- structType(structField("date","string"),
                      structField("time","string"),
                      structField("a_number","string"),
                      structField("b_number", "string"),
                      structField("duration","integer"),
                      structField("lac_cid","string"),
                      structField("imei","string"))
    file <- fileList[1]
    filePath <- paste0("D:/Revas/Jatim Old/",file)
    dataset <- read.df(filePath, header="false",source="csv",delimiter="|",schema=cdrSchema)
    dataset <- filter(dataset, ifelse(dataset$imei %in% INVALID_IMEI,FALSE,TRUE))
    dataset <- filter(dataset, ifelse(isnan(dataset$imei),FALSE,TRUE))
    dataset <- filter(dataset, ifelse(isNull(dataset$imei),FALSE,TRUE))

Чтобы экспортировать фрейм данных, я пробую следующий код

    write.df(dataset, "D:/spark/dataset",mode="overwrite")
    write.parquet(dataset, "D:/spark/dataset",mode="overwrite")

И я получаю следующую ошибку

Error: Error in save : org.apache.spark.SparkException: Job aborted.
at org.apache.spark.sql.execution.datasources.FileFormatWriter$$anonfun$write$1.apply$mcV$sp(FileFormatWriter.scala:215)
at org.apache.spark.sql.execution.datasources.FileFormatWriter$$anonfun$write$1.apply(FileFormatWriter.scala:173)
at org.apache.spark.sql.execution.datasources.FileFormatWriter$$anonfun$write$1.apply(FileFormatWriter.scala:173)
at org.apache.spark.sql.execution.SQLExecution$.withNewExecutionId(SQLExecution.scala:65)
at org.apache.spark.sql.execution.datasources.FileFormatWriter$.write(FileFormatWriter.scala:173)
at org.apache.spark.sql.execution.datasources.InsertIntoHadoopFsRelationCommand.run(InsertIntoHadoopFsRelationCommand.scala:145)
at org.apache.spark.sql.execution.command.ExecutedCommandExec.sideEffectResult$lzycompute(commands.scala:58)
at org.apache.spark.sql.execution.command.ExecutedCommandExec.sideEffectResult(commands.scala:56)
at org.apache.spark.sql.execution.comma

person Wahyu Sejati Roso    schedule 22.09.2017    source источник


Ответы (1)


Я уже нашел возможную причину. Проблема, кажется, заключается в версии winutil, ранее я использовал 2.6. Изменение его на 2.8, кажется, решает проблему

person Wahyu Sejati Roso    schedule 23.09.2017