ITPub博客

首页 > 大数据 > 数据分析 > spark-mlib线性回归

spark-mlib线性回归

原创 数据分析 作者:hgs19921112 时间:2018-11-24 21:38:48 0 删除 编辑
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import org.apache.spark.ml.feature.VectorAssembler
import org.apache.spark.sql.SQLContext
import org.apache.spark.ml.regression.LinearRegression
object SparkMlib {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setAppName("mlib").setMaster("local")
    
    val context = new SparkContext(conf)
    val sqlContext = new SQLContext(context)
    
    val rdd = context.makeRDD(List((1,3,9),(2,6,18),(3,9,27),(4,12,36)))
    val cols = Array("x1","x2")
    val vectors = new VectorAssembler().setInputCols(cols).setOutputCol("predict")
    
    import sqlContext.implicits._
    val x = vectors.transform(rdd.toDF("x1","x2","y"))
    
    val model = new LinearRegression()
                    //自变量的数据名
                    .setFeaturesCol("predict")
                    //因变量
                    .setLabelCol("y")
                    //是否有截距
                    .setFitIntercept(false)
                    //训练模型
                    .fit(x)
                    
     //线性回归的系数              
     println(model.coefficients)
     //线性回归的截距
     println(model.intercept)
     //线性回归的自变量的个数
     println(model.numFeatures)
     //上面的feature列
     println(model.summary.featuresCol)
     //r2
     println(model.summary.r2)
     //平均绝对误差
     println(model.summary.meanAbsoluteError)
     //方差
     println(model.summary.meanSquaredError)
     //新的集合x1,x2 预测y
     val testRdd  = context.makeRDD(List((1,3),(2,6),(3,9),(4,12)))
     //根据上面的模型预测结果
     val testSet = vectors.transform(testRdd.toDF("x1","x2"))
     val pre = model.transform(testSet)
    
     pre.show()
     //println(pre.predictions)
    
  }
}


来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/31506529/viewspace-2221531/,如需转载,请注明出处,否则将追究法律责任。

上一篇: spark with hive
请登录后发表评论 登录
全部评论

注册时间:2017-11-22

  • 博文量
    105
  • 访问量
    145809