• 东软实训 -大数据 (第二天知识点总结)


    配置权限是

    R w x

    1 0 1

    的用法是转化为二级制。是5

    777位三段都是满权限

    解压指令:tar -zxvf 文件名   tar  -czvf是压缩

    解压jdk并且进行重命名

     

    放在profile.d

     

    输入命令差生脚本文件Vi java.sh

    Export是把临时变量变为系统变量。

    $$是把包含其中的系统变量内容进行引用,然后在改变系统变量的时候调用以前的加上现在需要增加的,再进行覆盖,就不会丢失之前的系统变量

     

    执行脚本文件修改系统变量

     

    显示如下则jdk配置成功

     

    yum install 意思是:下载并安装

    yum install -y mysql mysql-server 完全安装后结果如下

     

    启动数据库服务

    Service mysqld start

     

     设置mysql的用户名密码

     

    完全关闭防火墙如下操作(前面一句是当时关掉重启会重新打开,第二句是重启后不开启,所以两句都需要输入一遍)

     

    登录mysql

     

    Show tables

     

    Select

     

    删除无用用户

     

    更改用户名通配符

     

    问题:这里还是连接不上,原因是$不是通配符,应该把它换成%这个。就可以成功连接了

    刷新权限

     

     

    Linux配置tomcat

    解压下载的tomcat

     

    进入tomcat文件夹

    问题:cd /tomcat进不去,必须输入cd tomcat/才能进入

    进入bin开启tomcat

     

    修改端口号(方便以后不用再IP上输入:8080才能显示tomcat官网)

     

    找到这里修改为80即可

     

    对于登录tomcat官网。

    可以进行如下配置

    conf中的

    添加彩色的这些话

     

    重新关闭开启tomcat服务即可

    权限分配

    重新创建文件夹test

     

    创建用户组wy

    将用户wy放入用户组

     

    绝对路径查找

     

    给用户wy设置密码

     

    更改权限所属

    Test归属wy

     

    权限更改

     

    Ssh安装配置过程

    下载安装

     

    安装完成

     

    输入ssh+IP地址

    进行秘钥连接,连接成功如下

     

    会生成ssh隐藏目录

     

     

    免秘钥登录

    通过复制id_rsa.pub文件 为一个authorized_keys

     

    将一台IProot - .ssh - 中的authorized_keys复制到另外一台中,即可实现

    问题(复制过去的时候记得另起一行)

     

    Hadoop安装配置过程

    解压文件

    进入cd /etc/profile.d/

    编写脚本文件 vi hadoop.sh

    内容如下

     

    Source hadoop.sh执行脚本文件进行更改系统变

    验证hadoop是否配置成功

     

    问题:在编写hadoop.sh时候,一不小心把PATH变量覆盖了,导致PATH出现错误,ls等指令无法使用。通过别人的初始环境PATH以及指令export PATH=********进行还原,再运行正确的java.sh  以及 hadoop.sh脚本文件完成对PATH的修复

      

    技巧:虚拟机提前快照。之后可以进行回复到原先没有错误的情况

    配置hdfs

     

    Core-site配置

    <configuration>

    <property>

      <name>fs.defaultFS</name>

      <value>hdfs://192.168.5.121:9000</value>

    </property>

    <property>

      <name>hadoop.tmp.dir</name>

      <value>/hadoop/tmp</value>

    </property>

    </configuration>

    Hdfs-site配置

     

    <configuration>

    <property>

      <name>dfs.namenode.name.dir</name>

      <value>/hadoop/dfs/name</value>

    </property>

    <property>

      <name>dfs.datanode.data.dir</name>

      <value>/hadoop/dfs/data</value>

    </property>

    <property>

      <name>dfs.replication</name>

      <value>1</value>

    </property>

    <property>

      <name>dfs.permissions.enabled</name>

      <value>false</value>

    </property>

    </configuration>

    创建三个临时文件

     

    Namenode格式化

     

    进入sbin

    开启hadoop

     

    浏览器输入192.168.5.12150070

     

    Hdfs创建一个文件

     

    存进一个文件

     

  • 相关阅读:
    MFC学习篇(二):error LNK2005 及其解决方法
    MFC学习篇(一):用OpenCV显示视频
    记一次mysql安装!
    常用数据对应关系及简单介绍
    docker
    月份及星期 缩写
    java 面对对象笔记
    linux小案例 定时备份数据库
    rpm_yum_开发工具的安装
    shell入门
  • 原文地址:https://www.cnblogs.com/shenghuizhang/p/9292726.html
Copyright © 2020-2023  润新知