天天看点

Spark入门实战系列--8.Spark MLlib(下)--SparkMLlib实战

【注】该系列文章以及使用到安装包/测试数据 可以在《倾情大奉送–Spark入门实战系列》获取

1、MLlib实例

1.1 聚类实例

1.1.1 算法说明

聚类(Cluster analysis)有时也被翻译为簇类,其核心任务是:将一组目标object划分为若干个簇,每个簇之间的object尽可能相似,簇与簇之间的object尽可能相异。聚类算法是机器学习(或者说是数据挖掘更合适)中重要的一部分,除了最为简单的K-Means聚类算法外,比较常见的还有层次法(CURE、CHAMELEON等)、网格算法(STING、WaveCluster等),等等。

较权威的聚类问题定义:所谓聚类问题,就是给定一个元素集合D,其中每个元素具有n个可观察属性,使用某种算法将D划分成k个子集,要求每个子集内部的元素之间相异度尽可能低,而不同子集的元素相异度尽可能高。其中每个子集叫做一个簇。

K-means聚类属于无监督学习,以往的回归、朴素贝叶斯、SVM等都是有类别标签y的,也就是说样例中已经给出了样例的分类。而聚类的样本中却没有给定y,只有特征x,比如假设宇宙中的星星可以表示成三维空间中的点集

Spark入门实战系列--8.Spark MLlib(下)--SparkMLlib实战

。聚类的目的是找到每个样本x潜在的类别y,并将同类别y的样本x放在一起。比如上面的星星,聚类后结果是一个个星团,星团里面的点相互距离比较近,星团间的星星距离就比较远了。

与分类不同,分类是示例式学习,要求分类前明确各个类别,并断言每个元素映射到一个类别。而聚类是观察式学习,在聚类前可以不知道类别甚至不给定类别数量,是无监督学习的一种。目前聚类广泛应用于统计学、生物学、数据库技术和市场营销等领域,相应的算法也非常多。

1.1.2 实例介绍

在该实例中将介绍K-Means算法,K-Means属于基于平方误差的迭代重分配聚类算法,其核心思想十分简单:

  • 随机选择K个中心点;
  • 计算所有点到这K个中心点的距离,选择距离最近的中心点为其所在的簇;
  • 简单地采用算术平均数(mean)来重新计算K个簇的中心;
  • 重复步骤2和3,直至簇类不再发生变化或者达到最大迭代值;
  • 输出结果。

K-Means算法的结果好坏依赖于对初始聚类中心的选择,容易陷入局部最优解,对K值的选择没有准则可依循,对异常数据较为敏感,只能处理数值属性的数据,聚类结构可能不平衡。

本实例中进行如下步骤:

  1. 装载数据,数据以文本文件方式进行存放;
  2. 将数据集聚类,设置2个类和20次迭代,进行模型训练形成数据模型;
  3. 打印数据模型的中心点;
  4. 使用误差平方之和来评估数据模型;
  5. 使用模型测试单点数据;
  6. 交叉评估1,返回结果;交叉评估2,返回数据集和结果。

1.1.3 测试数据说明

该实例使用的数据为kmeans_data.txt,可以在本系列附带资源/data/class8/目录中找到。在该文件中提供了6个点的空间位置坐标,使用K-means聚类对这些点进行分类。

使用的kmeans_data.txt的数据如下所示:

0.0 0.0 0.0
0.1 0.1 0.1
0.2 0.2 0.2
9.0 9.0 9.0
9.1 9.1 9.1
9.2 9.2 9.2
           

1.1.4 程序代码

import org.apache.log4j.{Level, Logger}
import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.mllib.clustering.KMeans
import org.apache.spark.mllib.linalg.Vectors

object Kmeans {
  def main(args: Array[String]) {
    // 屏蔽不必要的日志显示在终端上
    Logger.getLogger("org.apache.spark").setLevel(Level.WARN)
    Logger.getLogger("org.eclipse.jetty.server").setLevel(Level.OFF)

    // 设置运行环境
    val conf = new SparkConf().setAppName("Kmeans").setMaster("local[4]")
    val sc = new SparkContext(conf)

    // 装载数据集
    val data = sc.textFile("/home/hadoop/upload/class8/kmeans_data.txt", )
    val parsedData = data.map(s => Vectors.dense(s.split(' ').map(_.toDouble)))

    // 将数据集聚类,个类,次迭代,进行模型训练形成数据模型
    val numClusters = 
    val numIterations = 
    val model = KMeans.train(parsedData, numClusters, numIterations)

    // 打印数据模型的中心点
    println("Cluster centers:")
    for (c <- model.clusterCenters) {
      println("  " + c.toString)
    }

    // 使用误差平方之和来评估数据模型
    val cost = model.computeCost(parsedData)
    println("Within Set Sum of Squared Errors = " + cost)

    // 使用模型测试单点数据
println("Vectors 0.2 0.2 0.2 is belongs to clusters:" + model.predict(Vectors.dense("0.2 0.2 0.2".split(' ').map(_.toDouble))))
println("Vectors 0.25 0.25 0.25 is belongs to clusters:" + model.predict(Vectors.dense("0.25 0.25 0.25".split(' ').map(_.toDouble))))
println("Vectors 8 8 8 is belongs to clusters:" + model.predict(Vectors.dense("8 8 8".split(' ').map(_.toDouble))))

    // 交叉评估,只返回结果
    val testdata = data.map(s => Vectors.dense(s.split(' ').map(_.toDouble)))
    val result1 = model.predict(testdata)
   result1.saveAsTextFile("/home/hadoop/upload/class8/result_kmeans1")

    // 交叉评估,返回数据集和结果
    val result2 = data.map {
      line =>
        val linevectore = Vectors.dense(line.split(' ').map(_.toDouble))
        val prediction = model.predict(linevectore)
        line + " " + prediction
    }.saveAsTextFile("/home/hadoop/upload/class8/result_kmeans2")

    sc.stop()
  }
}
           
Spark入门实战系列--8.Spark MLlib(下)--SparkMLlib实战

1.1.5 IDEA执行情况

第一步 使用如下命令启动Spark集群

$cd /app/hadoop/spark-
$sbin/start-all.sh
           

第二步 在IDEA中设置运行环境

在IDEA运行配置中设置Kmeans运行配置,由于读入的数据已经在程序中指定,故在该设置界面中不需要设置输入参数

Spark入门实战系列--8.Spark MLlib(下)--SparkMLlib实战

第三步 执行并观察输出

在运行日志窗口中可以看到,通过计算计算出模型并找出两个簇中心点:(9.1,9.1,9.1)和(0.1,0.1,0.1),使用模型对测试点进行分类求出分属于族簇。

Spark入门实战系列--8.Spark MLlib(下)--SparkMLlib实战

第四步 查看输出结果文件

在/home/hadoop/upload/class8目录中有两个输出目录:

Spark入门实战系列--8.Spark MLlib(下)--SparkMLlib实战

查看结果1,在该目录中只输出了结果,分别列出了6个点所属不同的族簇

Spark入门实战系列--8.Spark MLlib(下)--SparkMLlib实战

查看结果2,在该目录中输出了数据集和结果

Spark入门实战系列--8.Spark MLlib(下)--SparkMLlib实战

1.2 回归算法实例

1.2.1 算法说明

线性回归是利用称为线性回归方程的函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析方法,只有一个自变量的情况称为简单回归,大于一个自变量情况的叫做多元回归,在实际情况中大多数都是多元回归。

线性回归(Linear Regression)问题属于监督学习(Supervised Learning)范畴,又称分类(Classification)或归纳学习(Inductive Learning)。这类分析中训练数据集中给出的数据类型是确定的。机器学习的目标是,对于给定的一个训练数据集,通过不断的分析和学习产生一个联系属性集合和类标集合的分类函数(Classification Function)或预测函数)Prediction Function),这个函数称为分类模型(Classification Model——或预测模型(Prediction Model)。通过学习得到的模型可以是一个决策树、规格集、贝叶斯模型或一个超平面。通过这个模型可以对输入对象的特征向量预测或对对象的类标进行分类。

回归问题中通常使用最小二乘(Least Squares)法来迭代最优的特征中每个属性的比重,通过损失函数(Loss Function)或错误函数(Error Function)定义来设置收敛状态,即作为梯度下降算法的逼近参数因子。

1.2.2 实例介绍

该例子给出了如何导入训练集数据,将其解析为带标签点的RDD,然后使用了LinearRegressionWithSGD 算法来建立一个简单的线性模型来预测标签的值,最后计算了均方差来评估预测值与实际值的吻合度。

线性回归分析的整个过程可以简单描述为如下三个步骤:

(1)寻找合适的预测函数,即上文中的 h(x) ,用来预测输入数据的判断结果。这个过程是非常关键的,需要对数据有一定的了解或分析,知道或者猜测预测函数的“大概”形式,比如是线性函数还是非线性函数,若是非线性的则无法用线性回归来得出高质量的结果。

(2)构造一个Loss函数(损失函数),该函数表示预测的输出(h)与训练数据标签之间的偏差,可以是二者之间的差(h-y)或者是其他的形式(如平方差开方)。综合考虑所有训练数据的“损失”,将Loss求和或者求平均,记为 J(θ) 函数,表示所有训练数据预测值与实际类别的偏差。

(3)显然, J(θ) 函数的值越小表示预测函数越准确(即h函数越准确),所以这一步需要做的是找到 J(θ) 函数的最小值。找函数的最小值有不同的方法,Spark中采用的是梯度下降法(stochastic gradient descent,SGD)。

1.2.3 程序代码

import org.apache.log4j.{Level, Logger}
import org.apache.spark.{SparkContext, SparkConf}
import org.apache.spark.mllib.regression.LinearRegressionWithSGD
import org.apache.spark.mllib.regression.LabeledPoint
import org.apache.spark.mllib.linalg.Vectors

object LinearRegression {
  def main(args:Array[String]): Unit ={
    // 屏蔽不必要的日志显示终端上
    Logger.getLogger("org.apache.spark").setLevel(Level.ERROR)
    Logger.getLogger("org.eclipse.jetty.server").setLevel(Level.OFF)

    // 设置运行环境
    val conf = new SparkConf().setAppName("Kmeans").setMaster("local[4]")
    val sc = new SparkContext(conf)

    // Load and parse the data
    val data = sc.textFile("/home/hadoop/upload/class8/lpsa.data")
    val parsedData = data.map { line =>
      val parts = line.split(',')
      LabeledPoint(parts().toDouble, Vectors.dense(parts().split(' ').map(_.toDouble)))
    }

    // Building the model
    val numIterations = 
    val model = LinearRegressionWithSGD.train(parsedData, numIterations)

    // Evaluate model on training examples and compute training error
    val valuesAndPreds = parsedData.map { point =>
      val prediction = model.predict(point.features)
      (point.label, prediction)
    }

    val MSE = valuesAndPreds.map{ case(v, p) => math.pow((v - p), )}.reduce (_ + _) / valuesAndPreds.count
    println("training Mean Squared Error = " + MSE)

    sc.stop()
  }
}
           
Spark入门实战系列--8.Spark MLlib(下)--SparkMLlib实战

1.2.4 执行情况

第一步 启动Spark集群

$cd /app/hadoop/spark-
$sbin/start-all.sh
           

第二步 在IDEA中设置运行环境

在IDEA运行配置中设置LinearRegression运行配置,由于读入的数据已经在程序中指定,故在该设置界面中不需要设置输入参数

Spark入门实战系列--8.Spark MLlib(下)--SparkMLlib实战

第三步 执行并观察输出

Spark入门实战系列--8.Spark MLlib(下)--SparkMLlib实战

1.3 协同过滤实例

1.3.1 算法说明

协同过滤(Collaborative Filtering,简称CF,WIKI上的定义是:简单来说是利用某个兴趣相投、拥有共同经验之群体的喜好来推荐感兴趣的资讯给使用者,个人透过合作的机制给予资讯相当程度的回应(如评分)并记录下来以达到过滤的目的,进而帮助别人筛选资讯,回应不一定局限于特别感兴趣的,特别不感兴趣资讯的纪录也相当重要。

协同过滤常被应用于推荐系统。这些技术旨在补充用户—商品关联矩阵中所缺失的部分。

MLlib 当前支持基于模型的协同过滤,其中用户和商品通过一小组隐性因子进行表达,并且这些因子也用于预测缺失的元素。MLLib 使用交替最小二乘法(ALS) 来学习这些隐性因子。

用户对物品或者信息的偏好,根据应用本身的不同,可能包括用户对物品的评分、用户查看物品的记录、用户的购买记录等。其实这些用户的偏好信息可以分为两类:

  • 显式的用户反馈:这类是用户在网站上自然浏览或者使用网站以外,显式地提供反馈信息,例如用户对物品的评分或者对物品的评论。
  • 隐式的用户反馈:这类是用户在使用网站是产生的数据,隐式地反映了用户对物品的喜好,例如用户购买了某物品,用户查看了某物品的信息,等等。

显式的用户反馈能准确地反映用户对物品的真实喜好,但需要用户付出额外的代价;而隐式的用户行为,通过一些分析和处理,也能反映用户的喜好,只是数据不是很精确,有些行为的分析存在较大的噪音。但只要选择正确的行为特征,隐式的用户反馈也能得到很好的效果,只是行为特征的选择可能在不同的应用中有很大的不同,例如在电子商务的网站上,购买行为其实就是一个能很好表现用户喜好的隐式反馈。

推荐引擎根据不同的推荐机制可能用到数据源中的一部分,然后根据这些数据,分析出一定的规则或者直接对用户对其他物品的喜好进行预测计算。这样推荐引擎可以在用户进入时给他推荐他可能感兴趣的物品。

MLlib目前支持基于协同过滤的模型,在这个模型里,用户和产品被一组可以用来预测缺失项目的潜在因子来描述。特别是我们实现交替最小二乘(ALS)算法来学习这些潜在的因子,在 MLlib 中的实现有如下参数:

  • numBlocks 是用于并行化计算的分块个数(设置为-1时 为自动配置);
  • rank 是模型中隐性因子的个数;
  • iterations 是迭代的次数;
  • lambda 是ALS 的正则化参数;
  • implicitPrefs 决定了是用显性反馈ALS 的版本还是用隐性反馈数据集的版本;
  • alpha 是一个针对于隐性反馈 ALS 版本的参数,这个参数决定了偏好行为强度的基准。
Spark入门实战系列--8.Spark MLlib(下)--SparkMLlib实战

1.3.2 实例介绍

在本实例中将使用协同过滤算法对GroupLens Research(http://grouplens.org/datasets/movielens/)提供的数据进行分析,该数据为一组从20世纪90年末到21世纪初由MovieLens用户提供的电影评分数据,这些数据中包括电影评分、电影元数据(风格类型和年代)以及关于用户的人口统计学数据(年龄、邮编、性别和职业等)。根据不同需求该组织提供了不同大小的样本数据,不同样本信息中包含三种数据:评分、用户信息和电影信息。

对这些数据分析进行如下步骤:

  1. 装载如下两种数据:

    a) 装载样本评分数据,其中最后一列时间戳除10的余数作为key,Rating为值;

    b) 装载电影目录对照表(电影ID->电影标题)

  2. 将样本评分表以key值切分成3个部分,分别用于训练 (60%,并加入用户评分), 校验 (20%), and 测试 (20%)
  3. 训练不同参数下的模型,并再校验集中验证,获取最佳参数下的模型
  4. 用最佳模型预测测试集的评分,计算和实际评分之间的均方根误差
  5. 根据用户评分的数据,推荐前十部最感兴趣的电影(注意要剔除用户已经评分的电影)

1.3.3 测试数据说明

在MovieLens提供的电影评分数据分为三个表:评分、用户信息和电影信息,在该系列提供的附属数据提供大概6000位读者和100万个评分数据,具体位置为/data/class8/ movielens/data目录下,对三个表数据说明可以参考该目录下README文档。

1.评分数据说明(ratings.data)

该评分数据总共四个字段,格式为UserID::MovieID::Rating::Timestamp,分为为用户编号::电影编号::评分::评分时间戳,其中各个字段说明如下:

  • 用户编号范围1~6040
  • 电影编号1~3952
  • 电影评分为五星评分,范围0~5
  • 评分时间戳单位秒
  • 每个用户至少有20个电影评分

使用的ratings.dat的数据样本如下所示:

1::1193::5::978300760
1::661::3::978302109
1::914::3::978301968
1::3408::4::978300275
1::2355::5::978824291
1::1197::3::978302268
1::1287::5::978302039
1::2804::5::978300719
           

2.用户信息(users.dat)

用户信息五个字段,格式为UserID::Gender::Age::Occupation::Zip-code,分为为用户编号::性别::年龄::职业::邮编,其中各个字段说明如下:

- 用户编号范围1~6040

- 性别,其中M为男性,F为女性

- 不同的数字代表不同的年龄范围,如:25代表25~34岁范围

- 职业信息,在测试数据中提供了21中职业分类

- 地区邮编

使用的users.dat的数据样本如下所示:

1::F::1::10::48067
2::M::56::16::70072
3::M::25::15::55117
4::M::45::7::02460
5::M::25::20::55455
6::F::50::9::55117
7::M::35::1::06810
8::M::25::12::11413
           

3.电影信息(movies.dat)

电影数据分为三个字段,格式为MovieID::Title::Genres,分为为电影编号::电影名::电影类别,其中各个字段说明如下:

  • 电影编号1~3952
  • 由IMDB提供电影名称,其中包括电影上映年份
  • 电影分类,这里使用实际分类名非编号,如:Action、Crime等

使用的movies.dat的数据样本如下所示:

::Toy Story ()::Animation|Children's|Comedy
2::Jumanji (1995)::Adventure|Children's|Fantasy
::Grumpier Old Men ()::Comedy|Romance
::Waiting to Exhale ()::Comedy|Drama
::Father of the Bride Part II ()::Comedy
::Heat ()::Action|Crime|Thriller
::Sabrina ()::Comedy|Romance
::Tom and Huck ()::Adventure|Children's
           

1.3.4 程序代码

import java.io.File
import scala.io.Source
import org.apache.log4j.{Level, Logger}
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.rdd._
import org.apache.spark.mllib.recommendation.{ALS, Rating, MatrixFactorizationModel}

object MovieLensALS {

  def main(args: Array[String]) {
    // 屏蔽不必要的日志显示在终端上
    Logger.getLogger("org.apache.spark").setLevel(Level.WARN)
    Logger.getLogger("org.eclipse.jetty.server").setLevel(Level.OFF)

   if (args.length != ) {
      println("Usage: /path/to/spark/bin/spark-submit --driver-memory 2g --class week7.MovieLensALS " +
        "week7.jar movieLensHomeDir personalRatingsFile")
      sys.exit()
    }

   // 设置运行环境
    val conf = new SparkConf().setAppName("MovieLensALS").setMaster("local[4]")
    val sc = new SparkContext(conf)

   // 装载用户评分,该评分由评分器生成
    val myRatings = loadRatings(args())
    val myRatingsRDD = sc.parallelize(myRatings, )

   // 样本数据目录
    val movieLensHomeDir = args()

   // 装载样本评分数据,其中最后一列Timestamp取除的余数作为key,Rating为值,即(Int,Rating)
    val ratings = sc.textFile(new File(movieLensHomeDir, "ratings.dat").toString).map { line =>
      val fields = line.split("::")
      (fields().toLong % , Rating(fields().toInt, fields().toInt, fields().toDouble))
    }

   // 装载电影目录对照表(电影ID->电影标题)
    val movies = sc.textFile(new File(movieLensHomeDir, "movies.dat").toString).map { line =>
      val fields = line.split("::")
      (fields().toInt, fields())
    }.collect().toMap

   val numRatings = ratings.count()
   val numUsers = ratings.map(_._2.user).distinct().count()
   val numMovies = ratings.map(_._2.product).distinct().count()

   println("Got " + numRatings + " ratings from " + numUsers + " users on " + numMovies + " movies.")

   // 将样本评分表以key值切分成个部分,分别用于训练 (%,并加入用户评分), 校验 (%), and 测试 (%)
   // 该数据在计算过程中要多次应用到,所以cache到内存
   val numPartitions = 
   val training = ratings.filter(x => x._1 < )
      .values
      .union(myRatingsRDD) //注意ratings是(Int,Rating),取value即可
      .repartition(numPartitions)
      .cache()
    val validation = ratings.filter(x => x._1 >=  && x._1 < )
      .values
      .repartition(numPartitions)
      .cache()
   val test = ratings.filter(x => x._1 >= ).values.cache()

   val numTraining = training.count()
   val numValidation = validation.count()
   val numTest = test.count()

   println("Training: " + numTraining + ", validation: " + numValidation + ", test: " + numTest)

   // 训练不同参数下的模型,并在校验集中验证,获取最佳参数下的模型
   val ranks = List(, )
   val lambdas = List(, )
   val numIters = List(, )
   var bestModel: Option[MatrixFactorizationModel] = None
   var bestValidationRmse = Double.MaxValue
   var bestRank = 
   var bestLambda = -
   var bestNumIter = -
   for (rank <- ranks; lambda <- lambdas; numIter <- numIters) {
      val model = ALS.train(training, rank, numIter, lambda)
      val validationRmse = computeRmse(model, validation, numValidation)
      println("RMSE (validation) = " + validationRmse + " for the model trained with rank = "
        + rank + ", lambda = " + lambda + ", and numIter = " + numIter + ".")
      if (validationRmse < bestValidationRmse) {
        bestModel = Some(model)
        bestValidationRmse = validationRmse
        bestRank = rank
        bestLambda = lambda
        bestNumIter = numIter
      }
    }

   // 用最佳模型预测测试集的评分,并计算和实际评分之间的均方根误差
   val testRmse = computeRmse(bestModel.get, test, numTest)

   println("The best model was trained with rank = " + bestRank + " and lambda = " + bestLambda  + ", and numIter = " + bestNumIter + ", and its RMSE on the test set is " + testRmse + ".")

   // create a naive baseline and compare it with the best model
   val meanRating = training.union(validation).map(_.rating).mean
   val baselineRmse =
      math.sqrt(test.map(x => (meanRating - x.rating) * (meanRating - x.rating)).mean)
    val improvement = (baselineRmse - testRmse) / baselineRmse * 
    println("The best model improves the baseline by " + "%1.2f".format(improvement) + "%.")

    // 推荐前十部最感兴趣的电影,注意要剔除用户已经评分的电影
    val myRatedMovieIds = myRatings.map(_.product).toSet
    val candidates = sc.parallelize(movies.keys.filter(!myRatedMovieIds.contains(_)).toSeq)
    val recommendations = bestModel.get
      .predict(candidates.map((, _)))
      .collect()
      .sortBy(-_.rating)
      .take()

    var i = 
    println("Movies recommended for you:")
    recommendations.foreach { r =>
      println("%2d".format(i) + ": " + movies(r.product))
      i += 
    }

  sc.stop()
  }


  /** 校验集预测数据和实际数据之间的均方根误差 **/
  def computeRmse(model: MatrixFactorizationModel, data: RDD[Rating], n: Long): Double = {
    val predictions: RDD[Rating] = model.predict(data.map(x => (x.user, x.product)))
    val predictionsAndRatings = predictions.map(x => ((x.user, x.product), x.rating))
      .join(data.map(x => ((x.user, x.product), x.rating)))
      .values
    math.sqrt(predictionsAndRatings.map(x => (x._1 - x._2) * (x._1 - x._2)).reduce(_ + _) / n)
  }

  /** 装载用户评分文件 **/
  def loadRatings(path: String): Seq[Rating] = {
    val lines = Source.fromFile(path).getLines()
    val ratings = lines.map { line =>
      val fields = line.split("::")
      Rating(fields().toInt, fields().toInt, fields().toDouble)
    }.filter(_.rating > )
    if (ratings.isEmpty) {
      sys.error("No ratings provided.")
    } else {
      ratings.toSeq
    }
  }
}
           
Spark入门实战系列--8.Spark MLlib(下)--SparkMLlib实战

1.3.5 IDEA执行情况

第一步 使用如下命令启动Spark集群

$cd /app/hadoop/spark-
$sbin/start-all.sh
           

第二步 进行用户评分,生成用户样本数据

由于该程序中最终推荐给用户十部电影,这需要用户提供对样本电影数据的评分,然后根据生成的最佳模型获取当前用户推荐电影。用户可以使用/home/hadoop/upload/class8/movielens/bin/rateMovies程序进行评分,最终生成personalRatings.txt文件:

Spark入门实战系列--8.Spark MLlib(下)--SparkMLlib实战

第三步 在IDEA中设置运行环境

在IDEA运行配置中设置MovieLensALS运行配置,需要设置输入数据所在文件夹和用户的评分文件路径:

  • 输入数据所在目录:输入数据文件目录,在该目录中包含了评分信息、用户信息和电影信息,这里设置为/home/hadoop/upload/class8/movielens/data/
  • 用户的评分文件路径:前一步骤中用户对十部电影评分结果文件路径,在这里设置为 /home/hadoop/upload/class8/movielens/personalRatings.txt

第四步 执行并观察输出

  • 输出Got 1000209 ratings from 6040 users on 3706 movies,表示本算法中计算数据包括大概100万评分数据、6000多用户和3706部电影;
  • 输出Training: 602252, validation: 198919, test: 199049,表示对评分数据进行拆分为训练数据、校验数据和测试数据,大致占比为6:2:2;
  • 在计算过程中选择8种不同模型对数据进行训练,然后从中选择最佳模型,其中最佳模型比基准模型提供22.30%
RMSE (validation) =  for the model trained with rank = , lambda = , and numIter = 
RMSE (validation) =  for the model trained with rank = , lambda = , and numIter = 
RMSE (validation) =  for the model trained with rank = , lambda = , and numIter = 
RMSE (validation) =  for the model trained with rank = , lambda = , and numIter = 
RMSE (validation) =  for the model trained with rank = , lambda = , and numIter = 
RMSE (validation) =  for the model trained with rank = , lambda = , and numIter = 
RMSE (validation) =  for the model trained with rank = , lambda = , and numIter = 
RMSE (validation) =  for the model trained with rank = , lambda = , and numIter = 
The best model was trained with rank =  and lambda = , and numIter = , and its RMSE on the test set is .
The best model improves the baseline by %.
           
  • 利用前面获取的最佳模型,结合用户提供的样本数据,最终推荐给用户如下影片:
Movies recommended for you:
 : Bewegte Mann, Der ()
 : Chushingura ()
 : Love Serenade ()
 : For All Mankind ()
 : Vie est belle, La (Life is Rosey) ()
 : Bandits ()
 : King of Masks, The (Bian Lian) ()
 : I'm the One That I Want ()
 : Big Trees, The ()
: First Love, Last Rites ()
           
Spark入门实战系列--8.Spark MLlib(下)--SparkMLlib实战

2、参考资料

(1) Spark官网 mlllib说明 http://spark.apache.org/docs/1.1.0/mllib-guide.html

(2) 《机器学习常见算法分类汇总》 http://www.ctocio.com/hotnews/15919.html

继续阅读