• Hadoop C访问


    引用自:http://blog.csdn.net/johnnywww/article/details/7530364

    现在计划做通过C访问Hadoop,选择了LibHDFS,打算用Eclipse(V3.7.2) CDT和cygwin测试。
    1.下载CDT,通过Eclipse Install New Software,在地址安装。
    2.Cygwin安装开发库,包含
    gcc, gcc-core,gcc-g++, gcc-mingw-core,  gcc-mingw-g++, make , gdb, binutils
    3.添加cygwin的bin目录到Windows的Path环境变量里
    4.在Windows下执行gcc,运行报错,显示“访问被拒绝” (access denied),检查g++.exe, gcc.exe是否只有1k大小,如果是,那么文件是符号链接,那么把文件重命名一下(备份)。然后把g++-3.exe(或者g++-4.exe)拷贝一份,重命名为g++.exe。 把gcc-3.exe拷贝一份,重命名为gcc.exe,参加文章
    5.编写代码

    1. #include "hdfs.h"  
    2.   
    3. int main(int argc, char **argv) {  
    4.   
    5.     if (argc != 4) {  
    6.         fprintf(stderr, "Usage: hdfs_write \n");  
    7.         exit(-1);  
    8.     }  
    9.   
    10.     hdfsFS fs = hdfsConnect("default", 0);  
    11.     if (!fs) {  
    12.         fprintf(stderr, "Oops! Failed to connect to hdfs!\n");  
    13.         exit(-1);  
    14.     }  
    15.   
    16.     const char* writeFileName = argv[1];  
    17.     tSize fileTotalSize = strtoul(argv[2], NULL, 10);  
    18.     tSize bufferSize = strtoul(argv[3], NULL, 10);  
    19.   
    20.     hdfsFile writeFile = hdfsOpenFile(fs, writeFileName, O_WRONLY, bufferSize,  
    21.             0, 0);  
    22.     if (!writeFile) {  
    23.         fprintf(stderr, "Failed to open %s for writing!\n", writeFileName);  
    24.         exit(-2);  
    25.     }  
    26.   
    27. // data to be written to the file  
    28.     char* buffer = malloc(sizeof(char) * bufferSize);  
    29.     if (buffer == NULL) {  
    30.         return -2;  
    31.     }  
    32.     int i = 0;  
    33.     for (i = 0; i < bufferSize; ++i) {  
    34.         buffer[i] = 'a' + (i % 26);  
    35.     }  
    36.     // write to the file  
    37.     tSize nrRemaining;  
    38.     for (nrRemaining = fileTotalSize; nrRemaining > 0; nrRemaining -=  
    39.             bufferSize) {  
    40.         int curSize =  
    41.                 (bufferSize < nrRemaining) ? bufferSize : (int) nrRemaining;  
    42.         hdfsWrite(fs, writeFile, (void*) buffer, curSize);  
    43.     }  
    44.   
    45.     free(buffer);  
    46.     hdfsCloseFile(fs, writeFile);  
    47.     hdfsDisconnect (fs);  
    48.   
    49.     return 0;  
    50. }  

    6.增加环境变量HADOOP_HOME,在cygwin目录下执行

    1. export HADOOP_HOME=/home/test/hadoop0.20.2  

    或在/etc/profile文件中增加上述内容。

    7.在cygwin里面执行

    1. gcc writeHDFS.c -I ${HADOOP_HOME}/src/c++/libhdfs -I /usr/local/jdk/include -I/usr/local/jdk/include/win32 -L${HADOOP_HOME}/c++/Linux-i386-32/lib -lhdfs -o writeHDFS  


    8.在linux里面执行

    1. gcc writeHDFS.c -I ${HADOOP_HOME}/src/c++/libhdfs -I ${JAVA_HOME}/include -I ${JAVA_HOME}/include/linux  -L${HADOOP_HOME}/c++/Linux-i386-32/lib -lhdfs -L${JAVA_HOME}/jre/lib/i386/client -ljvm -o writeHDFS   


    9.运行./writeHDFS老报错,提示error while loading shared libraries: libhdfs.so.0: cannot open shared object file: No such file or directory,由于hadoop的c++/Linux-i386-32/lib目录下libhdfs.so、libhdfs.so.0、 libhdfs.so.0.0.0文件相同,先将libhdfs.so.0改为libhdfs.so.0.bak,再执行

    1. ln -s ./libhdfs.so.0.0.0 ./libhdfs.so.0  

    然后运行

    1. sudo vi /etc/ld.so.conf  

    添加如下内容

    1. /home/pc01/hadoop-1.0.1/c++/Linux-i386-32/lib  
    2. /usr/local/lib/jdk1.7.0_03/jre/lib/i386/server  

    再运行

      1. sudo /sbin/ldconfig -v  
  • 相关阅读:
    中文词频统计
    复合数据类型,英文词频统计
    hadoop 综合大作业
    分布式并行计算MapReduce
    分布式文件系统HDFS 练习
    安装关系型数据库MySQL 安装大数据处理框架Hadoop
    爬虫综合大作业
    爬取全部的校园新闻
    获取一篇新闻的全部信息
    理解爬虫原理
  • 原文地址:https://www.cnblogs.com/langqi250/p/2719857.html
Copyright © 2020-2023  润新知