ITPub博客

首页 > 云计算 > Openstack > scala_准备_spark_基础

scala_准备_spark_基础

原创 Openstack 作者:20170405 时间:2020-08-06 11:24:50 0 删除 编辑

  package model.Caseimport scala.collection.mutable.ListBufferobject Case_01 {case class case1(name: String, age: Int) {}def main(args: Array[String]): Unit = {//样例类 不需要new//val 表示 不可变 var 表示可变

// var a1 = case1("zhang",1)// print(a1.name)

// print(a1.age)// var list1=ListBuffer("a", "a" ,"c","d","e","a")var A0 = Array(1, 2, 3, 4, 5)var A1 = Array(6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 1, 2, 3, 4, 5)var A2 = Array("zhangsan lisi wangwu", "hadoop hive hbase", "beijing shanghai nanjing")var A3 = Array("zhangsan lisi wangwu", "hadoop hive hbase", "beijing shanghai nanjing")

// 输出集合的大小

// println(A1.length)

//遍历每一个数据 map遍历数据里面的 每一个值

// map 就是 把 A1里面的 全部数据都拿出来

// x 表示 map 里面的元素 => 这个就是 对元素要做什么操作 x 乘 2 里面的元素 * 2

// val sum = A1.map(x=>x*2)

// _ 表示 sum 里面的 每一个元素// sum.map(t=>println(t)) sum.map(println(_))

// sum.map(println)//可以无限 map 对数据进行操作// val sum = A1.map(x=>x*2).map(y=>y-1).map(println)

// 更优秀的 map 操作// val sum2 = A0.map(xml=>{// //复杂操作// xml*2;// xml-5;//// xml*0// }).map(println)

//只保留大于 10 的 数据 保留 true的 数据// A1.filter(x=>if (x>10) true else false).map(println)

// 保留 false 数据 取反

// A1.filterNot(x=>if (x>10) true else false).foreach(println)

// 计算总和 a 和 b 两个值 进行一个相加 操作

// val i: Int = A1.reduce((a, b)=>a+b

)// println(i)// println(A1.reduce(_ + _))    h.com/

// 升序 //降序 sortby S=>-S// A1.sortBy(S => S).foreach(println)

//多个抽成 一个val Str: Array[String] = A2.flatMap(x=>x.split(",")

)// Str.foreach(println)//分开奇偶val pp: (Array[Int], Array[Int]) = A1.partition({ x=> x % 2 == 0})

// pp 为 元组 ( 元组里面可以 存储不同类型的值 元组 访问就是 _ 加编号 )println(pp._1.mkString(","))println(pp._2.mkString(","))}}


来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/69979119/viewspace-2709670/,如需转载,请注明出处,否则将追究法律责任。

请登录后发表评论 登录
全部评论

注册时间:2020-07-14

  • 博文量
    61
  • 访问量
    27126