• MapReduce 最优路径算法


    MapReduce 最优路径算法

    原理

    最优路径算法是无向图中满足通路上所有顶点(除起点、终点外)各异,所有边也各异的的通路。应用在公路运输中,可以提供起点和终点之间的最短路径,节省运输成本。可以大大提高交通运输效率。

    本实验采用Dijkstra算法,迪杰斯特拉算法是由荷兰计算机科学家狄克斯特拉于1959 年提出的,因此又叫狄克斯特拉算法。是从一个顶点到其余各顶点的最短路径算法,解决的是有向图中最短路径问题。迪杰斯特拉算法主要特点是以起始点为中心向外层层扩展,直到扩展到终点为止。

    算法伪代码如下:

    Dijkstra(G,w, s)

    d[s] ← 0

    for all vertex v V do

    d[v] ← ∞

    Q ← {V }

    while Q != do

    u ←ExtractMin(Q)

    for all vertex v u.AdjacencyList do

    if d[v] > d[u] + w(u, v) then

    d[v] ← d[u] + w(u, v)

    Dijkstra算法关键的一点是优先队列Q,它保存了全局的从源点出发最近的结点。而map-reduce则无法做到这一点。

    基于map-reduce的并行算法跟Dijkstra算法有点类似,它也基于Dijkstra的迭代思想,伪代码如下:

    class Mapper

    method Map(nid n, node N)

    d ← N.Distance

    Emit(nid n,N) //Pass along graph

    structure [1]

    for all nodeid m N.AdjacencyList do

    Emit(nid m, d+w) //Emit distances to

    reachable nodes [2]

    class Reducer

    method Reduce(nid m, [d1, d2, . . .])

    dmin←∞

    M ←

    for all d counts [d1, d2, . . .] do

    if IsNode(d) then

    M ← d //Recover graph

    structure

    else if d < dmin then //Look for shorter

    distance

    dmin ← d

    M.Distance← dmin //Update shortest

    distance

    Emit(nid m, node M)

    它每次迭代执行一个map-reduce job,并且只遍历一个节点。在Map中,它先输出这个节点的完整邻接节点数据,即[1]。然后遍历该节点的邻接节点,并输出该节点ID及权重。在Reduce中,对当前节点m,遍历map的输出权重,若比当前的路径值小,则更新。最后输出该节点的路径值及完整邻接节点数据,作为下一次迭代的输入。

    实现上有个细节需要注意的是,map的输出有两种类型的数据:邻接节点数据和权重数据,这可以通过一个包装类,并设置一个dataType变量来实现。

    当遍历完所有的节点之后,迭代就终止了。

    环境

    Linux Ubuntu 14.04

    jdk-7u75-linux-x64

    Hadoop 2.6.0-cdh5.4.5

    内容

    原始数据:

    A(B,10) (D,5)

    B(C,1) (D,2)

    C(E,4)

    D(B,3) (C,9) E,2)

    E(A,7) (C,6)

    如图,A为初始节点,AB的距离为10AD的距离为5

    BC的距离为1BD的距离为3

    Map阶段:

    从初始A节点开始,将节点到其他相连节点的距离列举出来,然后传递给reduce,找到距离最短的。

    从初始A节点开始,找到BD,然后再找BD的相邻节点,依次类推,这个就是广度优先搜索。

    A节点出发,A节点不能直接到达节点默认的距离为inf,表示距离无穷大。

    A能到达的节点有:A本身(距离为0),B(距离为10),D(距离为5

    则可以表示为:

    A 0(B,10) (D,5)

    B 10

    D 5

    Reduce阶段:

    找到所有存在的距离中最短的,并更新记录中的最短距离。

    A节点到C节点有两种路径:

    A=>B=>C,距离为:10+1=11

    A=>D=>B=>C,距离为5+3+1=9

    A节点到C节点的最短距离为9

    实验步骤

    1.首先,我们来准备实验需要用到的数据,切换到/data/mydata目录下,使用vim编辑一个data.txt文件

    1. cd /data/mydata  
    2. vim data.txt  

    2.将如下数据写入其中(注意数据之间以 分割)

    1. A   (B,10)  (D,5)  
    2. B   (C,1)   (D,2)  
    3. C   (E,4)  
    4. D   (B,3)   (C,9)   (E,2)  
    5. E   (A,7)   (C,6)  

    3.切换到/apps/hadoop/sbin目录下,开启Hadoop相关进程

    1. cd /apps/hadoop/sbin  
    2. ./start-all.sh  

    4.输入JPS查看一下相关进程是否已经启动。

    1. jps  

    5.HDFS的根下创建一个input目录,并将data.txt文件上传到HDFS上的input文件夹下

    1. hadoop fs -mkdir /input  
    2. hadoop fs -put /data/mydata/data.txt /input  

    6.打开Eclipse,创建一个Map/Reduce项目

    7.设置项目名为mr_sf并点击Finish

    8.创建一个包,名为mr_mindistance

    9.创建一个类,名为RunJob,作用为计算最短路径。

    10.下面开始编写Runjob类的代码

    完整代码为:

    1. package mr_mindistance;  
    2. import java.io.IOException;  
    3. import org.apache.hadoop.conf.Configuration;  
    4. import org.apache.hadoop.fs.FileSystem;  
    5. import org.apache.hadoop.fs.Path;  
    6. import org.apache.hadoop.io.Text;  
    7. import org.apache.hadoop.mapreduce.Job;  
    8. import org.apache.hadoop.mapreduce.Mapper;  
    9. import org.apache.hadoop.mapreduce.Reducer;  
    10. import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;  
    11. import org.apache.hadoop.mapreduce.lib.input.KeyValueTextInputFormat;  
    12. import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;  
    13. import org.apache.hadoop.util.StringUtils;  
    14. public class RunJob {  
    15.     static enum eInf {  
    16.         COUNTER  
    17.     }  
    18.     public static void main(String[] args) {  
    19.         Configuration conf = new Configuration();  
    20.         //设置主机地址及端口号  
    21.     
    22.         conf.set("fs.defaultFS""hdfs://localhost:9000");  
    23.         try {  
    24.             FileSystem fs = FileSystem.get(conf);  
    25.             int i = 0;  
    26.             long num = 1;  
    27.             long tmp = 0;  
    28.             while (num > 0) {  
    29.                 i++;  
    30.                 conf.setInt("run.counter", i);  
    31.                 Job job = Job.getInstance(conf);  
    32.                 job.setJarByClass(RunJob.class);  
    33.                 job.setMapperClass(ShortestPathMapper.class);  
    34.                 job.setReducerClass(ShortestPathReducer.class);  
    35.                 job.setMapOutputKeyClass(Text.class);  
    36.                 job.setMapOutputValueClass(Text.class);  
    37.                 //key value 的格式   第一个itemkey,后面的itemvalue  
    38.                 job.setInputFormatClass(KeyValueTextInputFormat.class);  
    39.                 //设置输入、输出路径  
    40.     
    41.                 if (i == 1)  
    42.                     FileInputFormat.addInputPath(job, new Path("/input/"));  
    43.                 else  
    44.                     FileInputFormat.addInputPath(job, new Path("/output/" + (i - 1)));  
    45.                 Path outPath = new Path("/output/" + i);  
    46.                 if (fs.exists(outPath)) {  
    47.                     fs.delete(outPath, true);  
    48.                 }  
    49.                 FileOutputFormat.setOutputPath(job, outPath);  
    50.                 boolean b = job.waitForCompletion(true);  
    51.                 if (b) {  
    52.                     num = job.getCounters().findCounter(eInf.COUNTER).getValue();  
    53.                     if (num == 0) {  
    54.                         System.out.println("共执行了" + i + "次,完成最短路径计算");  
    55.                     }  
    56.                 }  
    57.             }  
    58.         } catch (Exception e) {  
    59.             e.printStackTrace();  
    60.         }  
    61.     }  
    62.     public static class ShortestPathMapper extends Mapper<Text, Text, Text, Text> {  
    63.         protected void map(Text key, Text value, Context context) throws IOException, InterruptedException {  
    64.             int conuter = context.getConfiguration().getInt("run.counter", 1);  
    65.             Node node = new Node();  
    66.             String distance = null;  
    67.             String str = null;  
    68.             // 第一次计算,填写默认距离 A:0 其他:inf  
    69.             if (conuter == 1) {  
    70.                 if (key.toString().equals("A") || key.toString().equals("1")) {  
    71.                     distance = "0";  
    72.                 } else {  
    73.                     distance = "inf";  
    74.                 }  
    75.                 str = distance + " " + value.toString();  
    76.             } else {  
    77.                 str = value.toString();  
    78.             }  
    79.             context.write(key, new Text(str));  
    80.             node.FormatNode(str);  
    81.             // 没走到此节点 退出  
    82.             if (node.getDistance().equals("inf"))  
    83.                 return;  
    84.             // 重新计算源点A到各点的距离  
    85.             for (int i = 0; i < node.getNodeNum(); i++) {  
    86.                 String k = node.getNodeKey(i);  
    87.                 String v = new String(  
    88.                         Integer.parseInt(node.getNodeValue(i)) + Integer.parseInt(node.getDistance()) + "");  
    89.                 context.write(new Text(k), new Text(v));  
    90.             }  
    91.         }  
    92.     }  
    93.     public static class ShortestPathReducer extends Reducer<Text, Text, Text, Text> {  
    94.         protected void reduce(Text arg0, Iterable<Text> arg1, Context arg2) throws IOException, InterruptedException {  
    95.     String min = null;  
    96.     int i = 0;  
    97.     String dis = "inf";  
    98.     Node node = new Node();  
    99.     for (Text t : arg1) {  
    100.     i++;  
    101.     dis = StringUtils.split(t.toString(), ' ')[0];  
    102.     // 如果存在inf节点,表示存在没有计算距离的节点。  
    103.     // if(dis.equals("inf"))  
    104.     // arg2.getCounter(eInf.COUNTER).increment(1L);  
    105.     // 判断是否存在相邻节点,如果是则需要保留信息,并找到最小距离进行更新。  
    106.     String[] strs = StringUtils.split(t.toString(), ' ');  
    107.     if (strs.length > 1) {  
    108.     node.FormatNode(t.toString());  
    109.     }  
    110.     // 第一条数据默认是最小距离  
    111.     if (i == 1) {  
    112.     min = dis;  
    113.     } else {  
    114.     if (dis.equals("inf"))  
    115.     ;  
    116.     else if (min.equals("inf"))  
    117.     min = dis;  
    118.     else if (Integer.parseInt(min) > Integer.parseInt(dis)) {  
    119.     min = dis;  
    120.     }  
    121.     }  
    122.     }  
    123.     // 有新的最小值,说明还在进行优化计算,需要继续循环计算  
    124.     if (!min.equals("inf")) {  
    125.     if (node.getDistance().equals("inf"))  
    126.     arg2.getCounter(eInf.COUNTER).increment(1L);  
    127.     else {  
    128.     if (Integer.parseInt(node.getDistance()) > Integer.parseInt(min))  
    129.     arg2.getCounter(eInf.COUNTER).increment(1L);  
    130.     }  
    131.     }  
    132.     node.setDistance(min);  
    133.     arg2.write(arg0, new Text(node.toString()));  
    134.     }  
    135.     }  
    136.     }  

    11.创建一个Node类,作用为保存节点的信息

    12.下面开始编写代码

    完整代码为:

    1. package mr_mindistance;  
    2. import org.apache.hadoop.util.StringUtils;  
    3. public class Node {  
    4.     private String distance;  
    5.     private String[] adjs;  
    6.     public String getDistance() {  
    7.         return distance;  
    8.     }  
    9.     public void setDistance(String distance) {  
    10.         this.distance = distance;  
    11.     }  
    12.     public String getKey(String str)  
    13.     {  
    14.         return str.substring(1, str.indexOf(","));  
    15.     }  
    16.     public String getValue(String str)  
    17.     {  
    18.         return str.substring(str.indexOf(",")+1, str.indexOf(")"));  
    19.     }  
    20.     public String getNodeKey(int num)  
    21.     {  
    22.         return getKey(adjs[num]);  
    23.     }  
    24.     public String getNodeValue(int num)  
    25.     {  
    26.         return getValue(adjs[num]);  
    27.     }  
    28.     public int getNodeNum()  
    29.     {  
    30.         return adjs.length;  
    31.     }  
    32.     public void FormatNode(String str)  
    33.     {  
    34.         if(str.length() == 0)  
    35.             return ;  
    36.         String[] strs =  StringUtils.split(str, ' ');  
    37.         adjs = new String[strs.length-1];  
    38.         for(int i=0; i<strs.length; i++)  
    39.         {  
    40.             if(i == 0)  
    41.             {  
    42.                 setDistance(strs[i]);  
    43.                 continue;  
    44.             }  
    45.             this.adjs[i-1]=strs[i];  
    46.         }  
    47.     }  
    48.     public String toString()  
    49.     {  
    50.         String str = this.distance+"" ;  
    51.         if(this.adjs == null)  
    52.             return str;  
    53.         for(String s:this.adjs)  
    54.         {  
    55.             str = str+" "+s;  
    56.         }  
    57.         return str;  
    58.     }  
    59.     public static void main(String[] args)  
    60.     {  
    61.         Node node  = new Node();  
    62.         node.FormatNode("1    (A,20)    (B,30)");  
    63.         System.out.println(node.distance+"|"+node.getNodeNum()+"|"+node.toString());  
    64.     }  
    65. }  

    13.下面在Runjob类下,单击右键,选择Run As=>Run on Hadoop,运行程序,查看执行结果

    可以在Console界面看到如下输出,证明程序执行成功,共进行了4次运算。

    14.查看HDFS上的/output目录及最终计算结果(/ouput/下的1234目录分别保存了4次执行程序的计算结果)

    1. hadoop fs -ls -R /output  
    2. hadoop fs -cat /output/4/part-r-00000  

    通过分析结果,可以清楚地看到A点距离各点的最短距离。

    至此,实验就已经结束了。

  • 相关阅读:
    Codeforces Round #613 选讲
    Codeforces Round #612 选讲
    Codeforces917E
    一道题20
    LOJ#2244. 「NOI2014」起床困难综合症
    求欧拉回路
    *LOJ#2134. 「NOI2015」小园丁与老司机
    vim操作命令
    常见问题解决
    CentOS7下如何修改mysql的数据目录
  • 原文地址:https://www.cnblogs.com/aishanyishi/p/10304904.html
Copyright © 2020-2023  润新知