• 九月二十二


    打卡第七天

    感冒还没好,所以上午起得比较晚。主要的工作时间都积累到了下午和晚上。

    今天主要完成的内容:1.首先是这几天落下的百词斩,确确实实这几天感冒发烧没有好好跟进单词的背诵,今天努了努力把进度追上了。

    2.今天下午主要是把hadoop的实验过程走了一边,这里简单聊聊收获,首先是对星期三工作内容的一个反馈,周三的时候指令有时有用,有时候无用的原因总算是找到了,其实就是因为—和-没有区分开,我从网上复制的代码中有的是-,有的是—,这里好看一点,但是在控制台很难分清楚,同一个网页中居然出现这种标识符不一样的情况我是万万没有想到,导致很多次我都以为是语句的问题。而且周三的时候创建的文件我一直傻乎乎的以为在hdfs中创建的文件就是在hadoop的文件夹里创建文件,今天好好看了看书才知道,hdfs中的文件就是伪分布式中的那个分布式,并不是在本地的。

    所以今天的另一个成就就是配置eclipse的插件来进行可视化的插件,照着书可以比较没问题的配置吧,我是这样想得,但是吧,校园网的下载速度感人(我也不知道为什么)耽搁了,明天再说吧

    3.今天的第三项内容是复习前边的知识,(软件构造,设计模式,人机交互)这三门课的内容也复习了,前面博客中出现的周末补充也补充好了。

    4.vs2013终于装好了,主要是不知道为什么校园网怎么这么慢,下了几天才好。

    5.linux的一些命令今天也熟悉了,按照这个节奏,大概再过两周,我就不那么不适应linux了把

    最后把今天记得一段笔记放上来吧

    启动hdfs
    cd /usr/local/hadoop
    ./sbin/start-dfs.sh
    -------------------------------------------------
    显示hdfs中的文件
    ./bin/hdfs dfs -ls
    -------------------------------------------------
    显示这个目录下的文件
    ./bin/hdfs dfs -ls /user/hadoop
    -------------------------------------------------
    创建一个input目录,它在HDFS中的完整路径是“/user/hadoop/input
    ./bin/hdfs dfs -mkdir input
    -------------------------------------------------
    当然也完全可以创建一个根目录
     ./bin/hdfs dfs -mkdir /input
    -------------------------------------------------
    删除目录的命令
    ./bin/hdfs dfs -rm -r /input
    上面命令中,“-r”参数表示如果删除“/input”目录及其子目录下的所有内容,如果要删除的一个目录包含了子目录,则必须使用“-r”参数,否则会执行失败。
    --------------------------------------------------
    安装编辑器
    sudo apt-get install vim
    --------------------------------------------------
    创建并编辑相关内容
    vim word.txt
    --------------------------------------------------
    可以使用如下命令把本地文件系统的“/home/hadoop/myLocalFile.txt”上传到HDFS中的当前用户目录的input目录下,也就是上传到HDFS的“/user/hadoop/input/”目录下:
    ./bin/hdfs dfs -put /home/hadoop/myLocalFile.txt  input
    --------------------------------------------------
    查看hdfs中input目录下的文件
    ./bin/hdfs dfs -ls input
    --------------------------------------------------
    下面使用如下命令查看HDFS中的myLocalFile.txt这个文件的内容
    ./bin/hdfs dfs -cat input/myLocalFile.txt
    --------------------------------------------------
    下面把HDFS中的myLocalFile.txt文件下载到本地文件系统中的“/home/hadoop/下载/”这个目录下,命令如下:
    ./bin/hdfs dfs -get input/myLocalFile.txt  /home/hadoop/下载
    --------------------------------------------------
    可以使用如下命令,到本地文件系统查看下载下来的文件myLocalFile.txt:
    cd ~
    cd 下载
    ls
    cat myLocalFile.txt
    --------------------------------------------------
    比如,如果要把HDFS的“/user/hadoop /input/myLocalFile.txt”文件,拷贝到HDFS的另外一个目录“/input”中(注意,这个input目录位于HDFS根目录 下),可以使用如下命令:
      ./bin/hdfs dfs -cp input/myLocalFile.txt  /input

    希望明天的时候,感冒可以完全康复。

  • 相关阅读:
    Centos7创建systemctl服务
    in a frame because it set 'X-Frame-Options' to 'sameorigin'
    systemd-journald服务占用CPU过高
    Centos7修改了最大文件打开数不生效
    Docker部署Redis主从和哨兵
    基于Vue的前端项目访问首页刷新后报404
    npm的.npmrc文件在哪里?缓存及全局包文件在什么位置?
    react native 淘宝镜像
    react native 示例代码
    iOS9 & iOS10 & iOS11 HTTP 不能正常使用的解决办法
  • 原文地址:https://www.cnblogs.com/jyt123/p/11567987.html
Copyright © 2020-2023  润新知