• Mahout in action 中文版-2.推荐器的介绍-2.3


    2.3 评估推荐器

             推荐器是一个工具,它用来解决"如何为一个用户给出最好的推荐"这样的问题。在得出结果之前,最好先弄清楚问题。究竟怎样才是一个好的推荐结果?我们如何才能得出这样的结果?这一章剩下的部分将停下来探索推荐器的评估,因为这是用来了解特定推荐器的有力工具。

             最理想的推荐器会像巫师一样某明奇妙的猜到你所喜欢的东西。它可能会知道你有多喜欢一个东西,甚至你都没有见过它或者从未表达过你是否喜欢它。一个推荐器能够精确的得出你对于每个项目的偏好指数,然后按照偏好指数排名罗列出来,这就是一个好的推荐。

             确实,为一些或者全部的项目打分评级是推荐引擎常见做法。所以,评估推荐器的一种方案就是评估它所产生的偏好指数——也就是评估偏好指数与真实喜好程度的匹配程度。

    2.3.1 训练数据与打分

             那些所谓的"真实喜好程度"其实并不存在。没有人会知道它具体的值(包括你)。其实我们可以通过把真实数据中的一小部分当作测试数据(Testing Data)来进行模拟,剩下的则是训练数据(Training Data)。除了用来训练的偏好指数,其余的偏好指数都用来预测这些被去掉的偏好指数。

             如此,为推荐器打分就变得十分简单了。例如,我们可以计算所有预测值和真实值差值的平均值。如果把这个当作分数来看,那么肯定是越低越好。因为越低意味着差异越小,当然0是最完美的——预测和真实无任何差异。

             有时,这些差值的均方根也被利用起来,当然这个值也是越低越好。详情见下表:

     表2.1 均差和钧方差试图

    上表中显示了预测值和真实值的差异,以及这些差异如何转化为分数。均方差对出差错的项惩罚更加严厉,因为Item 2的存在。例如,Item 2的预测差了两个等级,那么均方差会去2的平方编程了4,而差了1则还是1。这样一下就差了2倍。由于简单的均差表达更为直接,在下一个例子中,我们还将使用它:

    2.3.2 运行RecommenderEvaluator

    清单2.3 推荐器评估程序的配置和运行

    ?

    RandomUtils.useTestSeed(); A

    DataModel model = new FileDataModel(new File("intro.csv"));

        

    RecommenderEvaluator  evaluator = 

      new AverageAbsoluteDifferenceRecommenderEvaluator(); 

        

    RecommenderBuilder  builder = new RecommenderBuilder() { B

      @Override

      public Recommender  buildRecommender(DataModel model) 

          throws TasteException { 

        UserSimilarity similarity = new PearsonCorrelationSimilarity (model); 

        UserNeighborhood neighborhood =

          new NearestNUserNeighborhood(2, similarity, model);

        return 

          new GenericUserBasedRecommender(model, neighborhood, similarity);

      }

    };

        

    double score = evaluator.evaluate(builder, null, model, 0.7, 1.0); C

    System.out.println(score);

    A 使用例子中的可重复数据

    B 建立一个和上述一样的推荐器

    C 70%的数据作为训练集;30%的数据作为测试集

             大多数的处理过程发生在evaluate()这个函数当中RecommenderEvaluator负责将数据分为训练集和测试集,用训练集构建一个DataModel和Recommender用来进行测试活动,得到结果之后在于真实数据进行比较。

             需要指出的是,这个方法中不会有Recommender。这是因为,这个方法需要根据训练集产生的DataModel构造一个Recommender,所以调用者需要提供一个能够利用DataModel产生Recommender的对象——RecommenderBuilder。他的构造方法和我们之前提到的方法一样。

    2.3.3 评估结果

             这个程序打印出评估结果:用一个分数(数字)代表Recommender的性能如何。你会看到这个程序的结果为1.0。即使你多次的随机选取,结果依然如此,因为你所调用的  RandomUtils.useTestSeed()函数每次产生的随机数序列是一样的。它仅仅被用在这样例子或者单元测试中,因为我们需要保证结果的可再现性。但是千万不要把它用在你实际的代码中。

             这个值的意义如何取决于它被用到什么地方——AverageAbsoluteDifferenceRecommenderEvaluator。本次结果1.0代表测试结果平均和真实结果相差1.0。

             在1到5这样的范围中,平均相差1不算很多,但是我们的数据太少了。如果每次都进行随机的切分(三七分),那么每次得到的结果可能都不相同。

             这种评估技术可以用于任何的Recommender和DataModel。如果您想使用均方差进行评估,那么就将AverageAbsoluteDifferenceRecommenderEvaluator替换为RMSRecommenderEvaluator。

             DataModelBuilder可以控制DataModel从训练集中的建立。它可以作为evaluate()的参数替换掉上述的null。不过通常默认的就可以了,但是如果你自己使用了特定的DataModel,那就不可以替换成DataModelBuilder了。DataModelBuilder相当于是把训练集数据注入到评估过程的一个接口。

             最后一个参数1.0控制了你要使用多少数据,这里它代表100%。如果你降低这个参数,可以更快的构建一个的精度的评估过程。比如你调成0.1,那么就用了10%的数据。这对于快速测试推荐器的微小的变化是十分实用的。

       

    源文档 <http://www.cnblogs.com/colorfulkoala/archive/2012/07/22/2603353.html>

  • 相关阅读:
    WeChall_Training: ASCII (Training, Encoding)
    WeChall_Prime Factory (Training, Math)Training: WWW-Robots (HTTP, Training)
    WeChall_Training: Crypto
    WeChall_ Training: Stegano I (Training, Stegano)
    WeChall_Training: Get Sourced (Training)
    WeChall_Prime Factory (Training, Math)
    [loj3246]Cave Paintings
    [luogu5423]Valleys
    [loj3247]Non-Decreasing Subsequences
    [luogu5426]Balancing Inversions
  • 原文地址:https://www.cnblogs.com/keedor/p/4413574.html
Copyright © 2020-2023  润新知