• 天津东软实训第二天


    今天主要学习了以下几个方面的内容:

    1、JDK的安装,环境变量的配置

    2、mysql的安装与配置,并且在Navicat中能进行连接

    3、maven的介绍与简单演示

    4、tomcat的安装与配置,tomcat manager的登录和配置

    5、文件的权限设置

    6、SSH的安装,两个虚拟机之间的互通,免密码登录

    7、Hadoop的安装与配置

    8、HDFS的安装与配置及使用

    9、Ajax的介绍

    其中,我在Tomcat的安装与配置、SSH的安装与配置以及Hadoop的安装与配置稍微做了一些记录与总结:

    1、Tomcat:

    1、解压Tomcat压缩包
    2、修改文件名为Tomcat
    3、进入Tomcat文件夹
    4、进入bin目录
    5、运行startup.sh,启动Tomcat 命令: ./startup.sh
    6、浏览器输入自己的IP地址加上端口号8080.
    7、配置manager:
    找到Tomcat安装目录下conf目录下tomcat-users.xml文件,用notepad++打开,配置
    <role rolename =“manager-gui”/>

    <role rolename =“manager-script”/>

    <user username =“tomcat”password =“144214”roles ="manager-gui,manager-script” /> 注意:这里可能会出错!!!引号什么的特别注意
    8、重启Tomcat服务,先关闭再打开:
    命令: ./shutdown.sh ./startup.sh

     2、SSH:

    1、安装ssh
    yum install -y openssh-clients openssh-server
    2、ssh-keygen -t rsa
    3、回车
    4、cd ~
    5、ll
    6、cd .ssh
    7、ls
    8、cp id_rsa.pub authorized_keys
    9、ls
    10、ssh 192.168.131.142 连自己
    11、在server里也是这样设置
    12、打开server2中,找到root文件夹中.ssh文件夹中的authorized_keys,在notepad++中打开,复制里面内容到server中的同样位置,保存。

    13、在server2中输入命令
    ssh 192.168.131.141(server的IP)
    这次免密码登录。

     3、Hadoop:

    1、解压Hadoop文件夹
    2、修改文件夹名为Hadoop
    3、配置环境变量
    4、进入hadoop,输入命令:cd /etc/profile.d/
    然后输入命令:vi hadoop.sh
    编辑:
    HADOOP_HOME=/soft/hadoop
    PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
    export HADOOP_HOME PATH
    保存
    5、source hadoop.sh
    6、输入hadoop version查看是否成功。
    7、成功之后cd到hadoop,然后在输入命令:cd etc/
    然后输入ls查看
    然后再进入hadoop,再查看,有一堆的xml文件。

    8、在soft目录下的hadoop目录下的etc目录下的hadoop目录下打开core-site.xml和hdfs-site.xml两个文件(同样是用notepad++)
    然后在core-site.xml里面的configuration里面添加配置:

    <property>
    		
    <name>fs.defaultFS</name>
    		<value>hdfs://192.168.131.142:9000</value>
    	
    </property>
    	
    <property>
    		
    <name>hadoop.tmp.dir</name>
    		
    <value>/hadoop/tmp</value>
    	
    </property>
    在hdfs-site.xml里面的configuration里面添加配置:
    <property>
    	
    <name>dfs.namenode.name.dir</name>
    		
    <value>/hadoop/dfs/name</value>
    	</property>
    
    <property>
    	
    <name>dfs.datanode.data.dir</name>
    		
    <value>/hadoop/dfs/data</value>
    	
    </property>
    	
    <property>
    		
    <name>dfs.replication</name>
    		
    <value>1</value>
    	
    </property>
    <property>
    		
    <name>dfs.permissions.enabled</name>
    		
    <value>false</value>
    	
    </property>
    

      

    9、返回到shell界面,新建临时文件,输入命令:
    mkdir -p /hadoop/tmp
    mkdir -p /hadoop/dfs/name
    mkdir -p /hadoop/dfs/data
    10、进行格式化namenode
    输入命令:hadoop namenode -format
    11、启动:
    cd /soft/hadoop
    ls
    cd sbin/
    ls
    start-dfs.sh
    12、打开浏览器输入IP地址加上冒号50070(例如我的是192.168.131.142:50070)查看hdfs
    13、可以通过命令在hdfs上新建文件(例如在hdfs上新建一个hadoop文件夹)
    返回shell输入命令:hdfs dfs -mkdir /hadoop
    14、可以在刚刚个网页上查看也可以输入命令:hdfs dfs -ls /
    15、上传文件到hdfs:
    我们在soft下新建一个abc.txt文件,然后输入命令:
    hdfs dfs -put abc.txt /hadoop
    把abc.txt文件传到hdfs里的hadoop文件夹里。

  • 相关阅读:
    Life -1b The secrets of long life? Teacher: GABRIELE
    Life -1a How well do you sleep? Teacher: GABRIELE
    Kubernetes(K8s) 学习笔记 updating...
    English trip EM3-PE1B Teacher:Taylor
    V3 -A Hard Bargain Teacher: GABRIELE
    802.11k/v/r WiFi无缝漫游
    V3 -Who Am I? Teacher: GABRIELE
    Dell OMSA(updating...)
    (转)红蓝对抗之Windows内网渗透
    WiFi6(整理网上资料进行汇总查看,相关内容摘取与互联网)
  • 原文地址:https://www.cnblogs.com/huyangyang/p/9291988.html
Copyright © 2020-2023  润新知