Scala 深刻浅出实战经典 第48讲:Scala类型约束代码实战及其在Spark中的应用源码解析

王家林亲授《DT大数据梦工厂》大数据实战视频 Scala 深刻浅出实战经典(1-64讲)完整视频、PPT、代码下载:
百度云盘:http://pan.baidu.com/s/1c0noOt6
腾讯微云:http://url.cn/TnGbdC
360云盘:http://yunpan.cn/cQ4c2UALDjSKy 访问密码 45e2
技术爱好者尤为是大数据爱好者 能够加DT大数据梦工厂的qq群java

DT大数据梦工厂① :462923555
DT大数据梦工厂②:437123764
DT大数据梦工厂③ :418110145微信

微信公众帐号: DT_Spark
王家林老师微信号: 18610086859
王家林老师QQ: 1740415547
王家林老师邮箱: 18610086859@126.com大数据

本视频由王家林老师, 亲自讲解, 彻底经过代码实战把您带人大数据的时代.url

package com.parllay.scala.type_parameterizitor

/**
 * Created by richard on 15-8-1.
 * 第48讲:Scala类型约束代码实战及其在Spark中的应用源码解析
 */

class Pair_Type[T](val first: T, val second: T) {

  def smaller(implicit ev : T <:< Ordered[T]) =

    if(first < second) first else second

}

object Type_Contraints {

  def main(args: Array[String]) {

    /**
     *  A =:= B 表示A类型等同于B类型
     *  A <:< B 表示A类型是B类型的子类型
     *
     *
     */

    def rocky[T](i:T)(implicit ev : T <:< java.io.Serializable): Unit = {
      println("Life is short, you need spark")
    }

    /**
     * 调用方法的时候, scala会推断出T 类型为String, 而后隐式比较 String 和 Serializable
     *
     * String是Serializable的子类型. 会输出 Life is short, you need spark
     */
    rocky("spark")

    /**
     * 约束的做用1:在特定条件下使用:
     * 好比如下实例Pair_Type class, 这个时候咱们能够构建出Pair[File] 实例,
     * 可是只有在真正调用smaller方法的时候才会报错, 由于File 并无实现Ordered的方法;
     */

    /**
     * 约束的做用2:改进推断类型
     *
     */

    //def firstLast[A,C <: Iterable[A]](it : C) = (it.head, it.last)

    /**
     * 当咱们执行以下代码, 推断出的类型为:[Noting, List[int]] 不知足A,C <: Iterable[A]
     * 类型推断器没法判断出A的类型, 由于A,C是在同一个步骤中被匹配到的;
     * 那么解决的办法是 先判断C的类型, 而后判断A的类型.修改成
     */
    def firstLast[A,C](it : C)(implicit env :C <:< Iterable[A]) = (it.head, it.last)

    firstLast(List(1, 2, 3))
  }

}
相关文章
相关标签/搜索