文档章节

PageRank算法原理及Spark实现(scala)& Spark数据分区

安艳青
 安艳青
发布于 2017/01/16 15:56
字数 3546
阅读 924
收藏 1

一、PageRank的概念

     PageRank,网页排名, 是一种由根据网页之间相互的超链接计算的技术,而作为网页排名的要素之一, 它由Larry Page 和 Sergey Brin在20世纪90年代后期发明,并以拉里·佩吉(Larry Page)之姓来命名。

    PageRank是Google专有的算法,用于衡量特定网页相对于搜索引擎索引中的其他网页而言的重要程度。PageRank算法计算每一个网页的PageRank值,然后根据这个值的大小对网页的重要性进行排序。该算法可以用于对网页进行排序,当然,也可以用于排序科技文章或社交网络中有影响的用户等。

二、算法原理

     PageRank让链接来"投票" 。

     一个页面的“得票数”由所有链向它的页面的重要性来决定,到一个页面的超链接相当于对该页投一票。一个页面的PageRank是由所有链向它的页面(“链入页面”)的重要性经过递归算法得到的。一个有较多链入的页面会有较高的等级,相反如果一个页面没有任何链入页面,那么它没有等级。

     假设一个由4个页面组成的小团体:ABCD。如果所有页面(BCD)都链向A

                                        

那么APR(PageRank)值将是BCD的Pagerank总和:

    

     继续假设B也有链接到D,并且D也有链接到包括A的3个页面(ABC)。

                                        

    一个页面不能投票2次。所以B给每个页面半票。以同样的逻辑,D投出的票只有1/3算到了A的PageRank上:

   

     换句话说,根据链出总数平分一个页面的PR值:

   

     最后,所有这些被换算为一个百分比再乘上一个系数。由于“没有向外链接的页面”传递出去的PageRank会是0,所以,Google通过数学系统给了每个页面一个最小值:

   

    说明:在Sergey Brin和Larry Page的1998年原文中给每一个页面设定的最小值是1-d,而不是这里的(1-d)/N。 所以一个页面的PageRank是由其他页面的PageRank计算得到。Google不断的重复计算每个页面的PageRank。如果给每个页面一个随机PageRank值(非0),那么经过不断的重复计算,这些页面的PR值会趋向于稳定,也就是收敛的状态。这就是搜索引擎使用它的原因。

三、 一个PageRank模型的简单完整实例

     互联网中的网页可以看出是一个有向图,其中网页是结点,如果网页A有链接到网页B,则存在一条有向边A->B,如:

                                        

     如果一个网页有k条出链,那么跳转到任意一个出链上的概率是1/k, 一般用转移矩阵来表示页面间的跳转概率, 如果用n表示网页的数目,则转移矩阵M是一个n*n的方阵; 如果页面j有k个出链,那么对每一个出链指向的页面i,有M[i][j]=1/k,而其他网页的M[i][j]=0;上面示例图对应的转移矩阵如下:

                                    

    初始时,假设上网者在每个页面的概率都是相等的,即1/n,于是初始的概率分布就是一个所有值都为1/n的n维列向量,用去右乘转移矩阵,就得到了第一步之后上网者的概率分布向量,依旧得到一个的矩阵。下面是的计算过程:

                      

    注意,矩阵不为零表示用一个链接从j指向i,的第一行乘以,表示累加所有网页到网页A的概率即得到11/24。得到后,再用去右乘得到,一直乘下去,最终会收敛,即,根据上面的图例,循环迭代,最终

                                

四、终止点问题

    上述行为是一个马尔科夫过程的实例,要满足收敛性,需要具备一个条件:图是强连通的,即从任意网页可以到达其他任意网页。

    但是,互联网上的网页不满足强连通的特性,因为有些网页不指向任何网页,如果按照上面的计算,上网者到达这样的网页后便走投无路,导致前面累积得到的转移概率被清零,这样下去,最终得到的概率分布向量所有元素几乎都为零。假如我们把上面图中C到A的链接丢掉,C变成了一个终止点,得到下面这个图:

                                    

对应的转移矩阵为:

                                    

循环迭代下去,最终所有元素都为零:

                             

五、陷阱问题

    另外一个问题就是陷阱问题,即有些网页不存在指向其他网页的链接,但存在指向自己的链接。比如下面这个图:

                                      

    上网者到C网页之后,就像跳进了陷阱,陷入了漩涡,再也不能从C中出来,将最终导致概率分布值全部转移到C上来,这使得其他网页的概率分布值为零,从而整个网页排名就失去了意义。如果按照上面的图对应的转移矩阵为:

                                      

循环迭代下去,就变成了这样:

                              

六、解决终止点问题和陷阱问题

    上面的过程,我们忽略了一个问题,那就是每个网页上面都有一个地址栏,当上网者走到一个陷阱网页(比如上面两例中的网页C),他可以在浏览器的地址栏随机输入一个地址跳出去(这是对该算法的改进),而每一步,上网者都有可能不想看当前网页了,不看当前网页也就不会点击上面的链接,而是在地址栏输入另外一个网址,而在地址栏输入各个网址跳转的概率是相等的,各为1/n。假设,上网者每一步查看当前网页的概率为,那么他从浏览器地址栏跳转的概率为,于是原来的迭代公式转化为:

    现在我们来计算带陷阱的网页图的概率分布(这里我们设为0.8):

            

循环迭代,得到:

                          

七、Scala版PageRank代码实现

    PageRank是执行多次连接的一个迭代算法,因此他是RDD分区操作的一个很好的用例。算法会维护两个数据集:一个由(pageId, linkList)的元素组成,包含每个页面的相邻页面的列表;另一个由(pageId, rank)元素组成,包含每个页面的当前排序值。它按如下步骤进行计算:

    (1)将每个页面的排序值初始化为0.25。

  (2)在每次迭代中,对页面p,向其每个相邻页面(有直接链接的页面)发送一个值为rank(p)/numNeighbors(p)的贡献值。

    (3)将每个页面的排序值设为,这里设为0.8。

最后两步会重复几个循环,在此过程中,算法会逐渐收敛于每个页面的实际PageRank值。在实际操作中,收敛通常需要大约10轮迭代。

    Scala代码实现如下:

package com.hzznv.ls

import org.apache.log4j.{Level, Logger}
import org.apache.spark.{HashPartitioner, SparkConf, SparkContext}

/**
  * Created by YanqingAn on 2017/1/13.
  */
object PageRank {

  def main(args: Array[String]): Unit = {

    Logger.getLogger("org").setLevel(Level.ERROR)
    val conf = new SparkConf().setAppName("PageRank").setMaster("local")
    val sc = new SparkContext(conf)

    /**
      * 这里的K:V为:当前页面:当前页面的出链集合;
      * 而相对于出链集合当中的每一个元素,当前页面则是其入链。
      *
      * 设置哈希分区为10      *
      * 这里假设links RDD是一个很大的静态数据集,
      * 并且在每次迭代中都会和ranks发生连接操作,会通过网络进行数据混洗,开销很大,
      * 所以我们通过预先进行分区来减小网络开销;
      *
      * 出于同样的原因,我们调用linkspersist()方法,将它保留在内存中以供每次迭代时用。
      */
    val links = sc.parallelize(List(
      ("A",List("B","C")),
      ("B",List("A","D")),
      ("C",List("A")),
      ("D",List("A","B","C"))
    )).partitionBy(new HashPartitioner(10))
      .persist()

    /**
      * 将每个页面的排序值初始化为(1.0/4);
      * 由于使用mapValues,生成的RDD的分区方式会和其父RDD(links)的分区方式一样。
      */
    var ranks = links.mapValues(v => 0.25)

    /**
      * 一般来讲,只要10次左右的迭代基本上就收敛了;
      * 此循环迭代的涵义是:
      * 1links.join(ranks):连接两个RDD,结果类型为:Array[(String, (List[String], Double))]      *   即:Array((A,(List(B, C, D),0.25)), (B,(List(A, D),0.25)), (C,(List(A),0.25)), (D,(List(B, C),0.25)))      * 2case(...)links.map(dest => (dest, rank / links.size)):
      *   算出当前页面(pageId)对其出链集合(links)中的每一个出链(link)排序的贡献(rank / links.size)      *   此时,contributions的值为:当前页面每一个出链的页面ID和其排序值(RDD[(String, Double)])
      * 3、然后再把contributions按照页面ID(根据获得共享的页面)分别累加起来,
      *   把该页面的排序值(ranks)设为 0.2*0.25 + 0.8*contributionReceived      *   其中,0.8为查看当前页面的概率,0.2为直接从浏览器地址栏跳转的概率。
      */
    for(i <- 0 until 10){
      val contributions = links.join(ranks).flatMap{
        case(pageId, (links, rank)) =>
          links.map(link => (link, rank / links.size))
      }
      ranks = contributions
        .reduceByKey((x,y) => x+y)
        .mapValues(v => 0.2*0.25 + 0.8*v)
    }
    ranks.collect().foreach(println)
  }

}

结果为:

    (1)迭代次数为8时:

    (2)迭代次数为10时:

    两次结果相差无几,可见,结果已经收敛。这四个值的大小就代表了这四个网页的重要程度。

    虽然代码本身很简单,这个示例程序还是做了不少事情来确保RDD以较高效的方式进行分区,以最小化通信开销:

    (1)请注意,linksRDD在每次迭代中都会和ranks发生连接操作。由于links是一个静态数据集,所以我们在程序一开始的时候就对它进行了分区操作,这样就不需要把它通过网络进行数据混洗了。实际上,linksRDD的字节数一般来说也会比ranks大很多,毕竟它包含每个页面的相邻页面列表(由页面ID组成),而不仅仅是一个Double值,因此这一优化相比PageRank的原始实现(例如普通的MapReduce)节约了相当可观的网络开销。

    (2)处于同样的原因,我们调用links的persist()方法,将它保留在内存中以供每次迭代使用。

    (3)当我们第一次创建ranks时,我们使用mapValues()而不是map()来保留父RDD(links)的分区方式,这样对它进行的第一次连接操作就会开销很小。

    (4)在循环体中,我们在reduceByKey()后使用mapValues();因为reduceByKey()的结果已经是哈希分区了,这样一来,下一次循环中讲映射操作的结果再次与links进行连接操作时就会更加高效。

    注意,为了最大化分区相关优化的潜在作用,你应该在无需改变元素的键时尽量使用mapValues()或flatMapValues()。

八、自定义分区方式

    虽然Spark提供的HashPartitioner与RangePartitioner已经能够满足大多数用例,但Spark还是允许我们通过提供一个自定义的Partitioner对象来控制RDD的分区方式。这可以进一步减少通信开销。

    举个例子,假设我们要在一个网页的集合上运行上面的PageRank算法。在这里,每个页面的ID(RDD中的键)是页面的URL。当我们使用简单的哈希函数进行分区时,拥有相似的URL的页面(比如http://www.cnn.com/WORLD和http://www.cnn.com/US)可能会被分到完全不同的节点上。然而,我们知道,在同一个域名下的网页更有可能互相链接。由于PageRank需要在每次迭代中从每一个页面向它所有相邻的页面发送一条消息,一次把这些页面分组到同一个分区中会更好。可以使用自定义的分区器来实现仅根据域名而不是整个URL来分区。

    要实现自定义的分区器,需要继承org.apache.spark.Partitioner类并实现下面三个方法:

    (1)numPartitions: Int:返回创建出来的分区数。

    (2)getPartition(key: Any): Int:返回给定键的分区编号(从0到numPartitions-1)。

    (3)equals():Java判断相等性的标准方法。这个方法的实现非常重要,spark需要用这个方法来检查分区器对象是否和其他分区器实例相同,这样spark才可以判断两个RDD的分区方式是否相同。

    有一个问题需要注意,当算法依赖于java的hashCode()方法时,这个方法有可能会返回负数。需要十分谨慎,确保getPartition()永远返回一个非负数。

    下例展示了如何编写一个前面构思的基于域名的分区器,这个分区器只对URL中的域名部分求哈希。

class DomainNamePartitioner(numParts: Int) extends Partitioner {
  override def numPartitions: Int = numParts
  override def getPartition(key: Any): Int = {
    val domain = new java.net.URL(key.toString).getHost()
    val code = (domain.hashCode() % numPartitions)
    if(code < 0){
      code + numPartitions//使其非负
    }else{
      code
    }
  }
  //用来让Spark区分分区函数对象的Java equals()方法
  override def equals(other: Any): Boolean = other match {
    case dnp: DomainNamePartitioner => 
      dnp.numPartitions == numPartitions
    case _ => 
      false
  }
}

    注意,在equals()方法中,使用Scala的模式匹配操作符(match)来检查other是否是DomainNamePartitioner,并且在成立时自动进行类型转换;这和java中的instanceof()是一样的。

    使用自定义的Partitioner是很容易的:只要把它传给partitionBy()方法即可。Spark中有许多依赖于数据混洗的方法,比如join()和groupByKey()方法,它们也可以接收一个可选的Partitioner对象来控制输出数据的分区方式。

© 著作权归作者所有

安艳青
粉丝 2
博文 6
码字总数 9107
作品 0
杭州
程序员
私信 提问
加载中

评论(1)

许乌龙
许乌龙
姑娘啊你第三点最后一张图的计算结果错了吧?
Spark成为大数据高手进阶步骤

什么是Spark Spark是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于map reduce算法实现的分布式计算,拥有Hadoop MapReduce所具有的优点;但不同于MapRedu...

MoksMo
2015/11/05
2.1K
1
Spark基本工作原理与RDD及wordcount程序实例和原理深度剖析

RDD以及其特点 1、RDD是Spark提供的核心抽象,全称为Resillient Distributed Dataset,即弹性分布式数据集。 2、RDD在抽象上来说是一种元素集合,包含了数据。它是被分区的,分为多个分区,每...

qq1137623160
2018/05/10
0
0
Apache Spark 1.4 发布,开源集群计算系统

Apache Spark 1.4 发布,该版本将 R API 引入 Spark,同时提升了 Spark 的核心引擎和 MLlib ,以及 Spark Streaming 的可用性。部分重要更新如下: Spark Core Spark core 有多各方面的改进,...

oschina
2015/06/12
7.9K
10
Spark 学习资源收集【Updating】

(一)spark 相关安装部署、开发环境 1、Spark 伪分布式 & 全分布式 安装指南 http://my.oschina.net/leejun2005/blog/394928 2、Apache Spark探秘:三种分布式部署方式比较 http://dongxic...

大数据之路
2014/09/08
5K
0
Spark2.1.0之基础知识

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/beliefer/article/details/80303035 在阅读本文之前,读者最好已经阅读了《Spark2.1.0之初识Spark》一文,本文...

泰山不老生
2018/05/24
0
0

没有更多内容

加载失败,请刷新页面

加载更多

OSChina 周六乱弹 —— 早上儿子问我他是怎么来的

Osc乱弹歌单(2019)请戳(这里) 【今日歌曲】 @凉小生 :#今日歌曲推荐# 少点戾气,愿你和这个世界温柔以待。中岛美嘉的单曲《僕が死のうと思ったのは (曾经我也想过一了百了)》 《僕が死の...

小小编辑
今天
1K
12
Excption与Error包结构,OOM 你遇到过哪些情况,SOF 你遇到过哪些情况

Throwable 是 Java 中所有错误与异常的超类,Throwable 包含两个子类,Error 与 Exception 。用于指示发生了异常情况。 Java 抛出的 Throwable 可以分成三种类型。 被检查异常(checked Exc...

Garphy
今天
38
0
计算机实现原理专题--二进制减法器(二)

在计算机实现原理专题--二进制减法器(一)中说明了基本原理,现准备说明如何来实现。 首先第一步255-b运算相当于对b进行按位取反,因此可将8个非门组成如下图的形式: 由于每次做减法时,我...

FAT_mt
昨天
40
0
好程序员大数据学习路线分享函数+map映射+元祖

好程序员大数据学习路线分享函数+map映射+元祖,大数据各个平台上的语言实现 hadoop 由java实现,2003年至今,三大块:数据处理,数据存储,数据计算 存储: hbase --> 数据成表 处理: hive --> 数...

好程序员官方
昨天
59
0
tabel 中含有复选框的列 数据理解

1、el-ui中实现某一列为复选框 实现多选非常简单: 手动添加一个el-table-column,设type属性为selction即可; 2、@selection-change事件:选项发生勾选状态变化时触发该事件 <el-table @sel...

everthing
昨天
20
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部