Указание типа col в Sparklyr (spark_read_csv)

Я читаю в csv в искры, используя SpraklyR

schema <- structType(structField("TransTime", "array<timestamp>", TRUE),
                 structField("TransDay", "Date", TRUE))

 spark_read_csv(sc, filename, "path", infer_schema = FALSE, schema = schema)

Но получите:

Error: could not find function "structType"

Как указать типы colunm с использованием spark_read_csv?

Заранее спасибо.

r,sparklyr,

3

Ответов: 2


Функция structType принадлежит SparkAPI от Scala, в Sparklyr, чтобы указать тип данных, которые вы должны передать в аргументе «column» в качестве списка, предположим, что у нас есть следующий CSV (data.csv):

name,birthdate,age,height
jader,1994-10-31,22,1.79
maria,1900-03-12,117,1.32

Функция для чтения соответствующих данных:

mycsv <- spark_read_csv(sc, "mydate", 
                          path =  "data.csv", 
                          memory = TRUE,
                          infer_schema = FALSE, #attention to this
                          columns = list(
                            name = "character",
                            birthdate = "date", #or character because needs date functions
                            age = "integer",
                            height = "double"))
# integer = "INTEGER"
# double = "REAL"
# character = "STRING"
# logical = "INTEGER"
# list = "BLOB"
# date = character = "STRING" # not sure

Для управления типом данных вы должны использовать функции даты улья , а не функции R.

mycsv %>% mutate(birthyear = year(birthdate))

Ссылка: https://spark.rstudio.com/articles/guides-dplyr.html#hive-functions


2

у нас есть пример того, как это сделать в одной из наших статей на официальном сайте sparklyr, вот ссылка: http://spark.rstudio.com/example-s3.html#data_import

г, sparklyr,
Похожие вопросы