• sparklyr包:实现Spark与R的接口



    日前,Rstudio公司发布了sparklyr包。该包具有以下几个功能:

    • 实现R与Spark的连接—sparklyr包提供了一个完整的dplyr后端
    • 筛选并聚合Spark数据集,接着在R中实现分析与可视化
    • 利用Spark的MLlib机器学习库在R中实现分布式机器学习算法
    • 可以创建一个扩展,用于调用Spark API。并为Spark的所有包集提供了一个接口
    • 未来在RStudio IDE中集成支持Spark和sparklyr包

    安装

    通过devtools包实现sparklyr包的安装:

    install.packages("devtools")
    devtools::install_github("rstudio/sparklyr")

    接着,我们需要在本地安装Spark:

    library(sparklyr)
    spark_install(version = "1.6.1")

    如果用的是RStudio IDE,还需下载最新的预览版IDE。它包含有实现与Spark交互的若干增强功能(详情参考RStudio IDE)。

    连接Spark

    安装好sparklyr包之后,我们连接本地的Spark,也可以连接远程的Spark集群。这里,我们使用spark_connect函数来连接本地的Spark:

    library(sparklyr)
    library(dplyr)
    sc <- spark_connect(master = "local")

    返回的Spark连接(sc)为Spark集群提供了一个远程的dplyr数据源。更多连接远程Spark集群的信息参考这里

    读取数据

    使用copy_to函数可以实现将R中的数据框导入到Spark。下面我将R自带的iris数据集,nycflights13包的flights数据集,以及Lahman包的Batting数据集复制到Spark(请确保安装了这两个包)。

    iris_tbl <- copy_to(sc, iris)
    flights_tbl <- copy_to(sc, nycflights13::flights, "flights")
    batting_tbl <- copy_to(sc, Lahman::Batting, "batting")

    使用dplyr的src_tbls函数可以列出所有可用的表(包括预先加载在集群内的表)。

    src_tbls(sc)
    
    [1] "batting" "flights" "iris" 

    使用dplyr语法

    我们利用dplyr语法来对集群内的所有表进行操作,下面是一个简单的数据筛选案例:

    # 筛选出飞机晚点两分钟的航班信息
    flights_tbl %>% filter(dep_delay == 2)
    Source:   query [?? x 16]
    Database: spark connection master=local app=sparklyr local=TRUE
    
        year month   day dep_time dep_delay arr_time arr_delay carrier tailnum flight origin  dest
       <int> <int> <int>    <int>     <dbl>    <int>     <dbl>   <chr>   <chr>  <int>  <chr> <chr>
    1   2013     1     1      517         2      830        11      UA  N14228   1545    EWR   IAH
    2   2013     1     1      542         2      923        33      AA  N619AA   1141    JFK   MIA
    3   2013     1     1      702         2     1058        44      B6  N779JB    671    JFK   LAX
    4   2013     1     1      715         2      911        21      UA  N841UA    544    EWR   ORD
    5   2013     1     1      752         2     1025        -4      UA  N511UA    477    LGA   DEN
    6   2013     1     1      917         2     1206        -5      B6  N568JB     41    JFK   MCO
    7   2013     1     1      932         2     1219        -6      VX  N641VA    251    JFK   LAS
    8   2013     1     1     1028         2     1350        11      UA  N76508   1004    LGA   IAH
    9   2013     1     1     1042         2     1325        -1      B6  N529JB     31    JFK   MCO
    10  2013     1     1     1231         2     1523        -6      UA  N402UA    428    EWR   FLL
    ..   ...   ...   ...      ...       ...      ...       ...     ...     ...    ...    ...   ...
    Variables not shown: air_time <dbl>, distance <dbl>, hour <dbl>, minute <dbl>.

    dplyr导论提供了许多dplyr包中函数的使用案例。以下案例演示的是航班延误信息的数据可视化:

    delay <- flights_tbl %>% 
      group_by(tailnum) %>%
      summarise(count = n(), dist = mean(distance), delay = mean(arr_delay)) %>%
      filter(count > 20, dist < 2000, !is.na(delay)) %>%
      collect
    
    # 绘图
    library(ggplot2)
    ggplot(delay, aes(dist, delay)) +
      geom_point(aes(size = count), alpha = 1/2) +
      geom_smooth() +
      scale_size_area(max_size = 2)

    窗口函数

    支持dplyr的窗口函数。如下所示:

    batting_tbl %>%
      select(playerID, yearID, teamID, G, AB:H) %>%
      arrange(playerID, yearID, teamID) %>%
      group_by(playerID) %>%
      filter(min_rank(desc(H)) <= 2 & H > 0)
    Source:   query [?? x 7]
    Database: spark connection master=local app=sparklyr local=TRUE
    Groups: playerID
    
        playerID yearID teamID     G    AB     R     H
           <chr>  <int>  <chr> <int> <int> <int> <int>
    1  anderal01   1941    PIT    70   223    32    48
    2  anderal01   1942    PIT    54   166    24    45
    3  balesco01   2008    WAS    15    15     1     3
    4  balesco01   2009    WAS     7     8     0     1
    5  bandoch01   1986    CLE    92   254    28    68
    6  bandoch01   1984    CLE    75   220    38    64
    7  bedelho01   1962    ML1    58   138    15    27
    8  bedelho01   1968    PHI     9     7     0     1
    9  biittla01   1977    CHN   138   493    74   147
    10 biittla01   1975    MON   121   346    34   109
    ..       ...    ...    ...   ...   ...   ...   ...

    更多dplyr在Spark中的用法参考这里

    调用MLlib

    利用sparklyr包中的MLlib函数可以实现在Spark集群中调用机器学习算法。

    这里,我们使用ml_linear_regression函数来拟合一个线性回归模型。数据为内置的mtcars数据集,我们想看看能否通过汽车的重量(wt)和发动机的气缸数(cyl)来预测汽车的油耗(mpg)。我们假设mpg跟这两个变量之间的关系是线性的。

    # 将mtcar数据集复制到spark
    mtcars_tbl <- copy_to(sc, mtcars)
    
    # 先对数据做变换,然后将数据集分割为训练集和测试集
    partitions <- mtcars_tbl %>%
      filter(hp >= 100) %>%
      mutate(cyl8 = cyl == 8) %>%
      sdf_partition(training = 0.5, test = 0.5, seed = 1099)
    
    # 对训练数据集做模型拟合
    fit <- partitions$training %>%
      ml_linear_regression(response = "mpg", features = c("wt", "cyl"))
    Call:
    mpg ~ wt + cyl
    
    Coefficients:
    (Intercept)          wt         cyl 
      33.499452   -2.818463   -0.923187 

    对spark得到的线性回归模型,使用summary()函数可以查看模型的拟合效果以及每个预测指标的统计意义。

    summary(fit)
    Call:
    mpg ~ wt + cyl
    
    Residuals:
       Min     1Q Median     3Q    Max 
    -1.752 -1.134 -0.499  1.296  2.282 
    
    Coefficients:
                Estimate Std. Error t value  Pr(>|t|)    
    (Intercept) 33.49945    3.62256  9.2475 0.0002485 ***
    wt          -2.81846    0.96619 -2.9171 0.0331257 *  
    cyl         -0.92319    0.54639 -1.6896 0.1518998    
    ---
    Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
    
    R-Squared: 0.8274
    Root Mean Squared Error: 1.422

    Spark机器学习提供常用机器学习算法的实现和特征变换。更多信息请参考这里

    RStudio IDE

    RStudio的最新预览版集成支持Spark和sparklyr包。包含以下工具:

    • 创建和管理Spark连接
    • 浏览表格数据和Spark DataFrames的所有列
    • 可以预览Spark DataFrames的前1000行

    一旦成功安装完sparklyr包,我们可以在IDE中可以看到一个新的Spark窗口。该窗口包含一个New Connection对话框,用于连接本地或者远程的Spark。如下所示:

    Sparklyr包的官方网站提供了详尽的学习文档,感兴趣的读者可以自行了解:

    本文由雪晴数据网负责翻译整理,原文参考sparklyr — R interface for Apache Spark。转载本译文请注明链接http://www.xueqing.tv/cms/article/232

    ---------------------------------------------------------------------------------- 数据和特征决定了效果上限,模型和算法决定了逼近这个上限的程度 ----------------------------------------------------------------------------------
  • 相关阅读:
    Velocity 创建命令缓存
    关于RESTful Web Services和RESTful设计的一些文章
    [转]Restful Web Services浅析
    Silverlight点滴(四)Silverlight访问Web Service报"System.Security.SecurityException: 安全性错误"的处理
    WebDevHelper RESTful服务和Ajax开发时的利器
    [原]读Google Data API源代码一:从创建一个日历(Calendar)开始
    [转]使用 WCF 和 .NET Framework 3.5 进行 HTTP 编程
    [原]Silverlight3 支持所有HTTP方法
    [原]RESTful Web Service之以HTTP PUT方式调用WCF服务
    [原]Google API学习2:Google API稍深入一步
  • 原文地址:https://www.cnblogs.com/payton/p/5630471.html
Copyright © 2020-2023  润新知