你TM的学错了,hadoop刚看完day01学几把毛的zookeeper啊。
切记:
- 你有考虑的功夫,你都已经听完一节课了,人生最怕的是犹豫和等待,把时间都消耗没了。真的不怕犯错,失败和成功都是宝贵经验。(绝不走我父亲的老路)
- 随时总结比学习更重要,知道自己的进度和目标才不回迷茫
- 所谓强大、自律,其实就是精准把控自己的时间,也许你觉得这不自由。但一个把控不住时间的人,能做成什么事情??
- 有闲聊、自我激励、哀叹后悔的功夫,早就超出别人好几倍的工作了,看看你身边的人在干嘛吧,你比他们速度快好几倍,真的很刺激。
- 花钱想买什么就买什么,这才是我心中的最爽最大的自由,任何时候我都可以选择工作或者不工作,这和被迫工作是完全不一样的。
- 困极了也不必回家睡,在肯德基睡得才最香
- 对自己的人生负责----》只要你有心,在哪儿都可以学习,随时都可以学习。——》只要你想有钱、幸福、活的大气舒畅,没人能阻止你。
- 东西学的都是很简单,就是套路需要一步一步敲,扎实就是反复敲代码
- 随时总结比学习更重要~如果没有条件记录,你脑子里要把重要的内容列出个123。平时也应该先脑子里出123。
- 可以看到一天至少要学好几个day才行,否则进度好慢。
- 永远都是喜欢说的人多,喜欢做的人少
今日计划:
hadoop都学完day02-day06,其实你都学过的,你不要啥都从头学啊。
今天开始我要实实在在能看到进度,我不管你熬多晚,这个你自己去抢时间,但是时间绝对不等人。5月15日必须找到工作,不可以在这里呆四年。
19:21-20:20
我学到了什么:睡得挺好
过程记录:先查了下之前的进度,是集群部署完了服务都起了,但是日志聚集还没配。---》反正照着文档配就完事,配置完了可以在hadoop101:19888里面查看很多日志,这个算完事了。--》集群时间同步,算了做一下把--》day01可算结束了
20:25-21:00
我学到了什么:如何看日志、集群时间对齐
过程记录: yum install -y ntp---》一边安装一边学hadoop day02---》没问题,时间服务器配置好了 crontab一分钟一次对准时间也调整好了,现在集群节点时间都一样。—》day02 如何看日志--》error和fatal级别的必须解决,看日志然后去百度搜索。这就是解决思路。day2-01结束。
21:00-21:30
我学到了什么:常见问题解决,仅此而已。
过程记录
21:25-22:00
突然有了个目标,11点回家之前至少把day02都写完都做完吧,别墨迹啊否则你配得上最好的生活吗。
我学到了什么:1.学到一招看日志 cat xx.lgo | grep -v INFO --》这个意思就是显示所有没有INFO的行,看到的都是WARN以上级别的信息。我们都知道一段日志算一行。
过程记录:day2-03结束,别的倒是没啥--》8020是namenode的RPC端口,远程调用服务---》day2-04结束
22:00-23:00
我学到了什么:1.写了个脚本很有成就感
#!/bin/bash
for i in hadoop101 hadoop102 hadoop103
do
echo "-------$i----------------”
ssh $i "jps" | grep -v Jps
done
然后chmod +x jpsall 给一个执行权限,sudo mv jpsall /bin 加到系统执行目录方便全局直接用此脚本,很方便。
检查ntp服务:
[atguigu@hadoop101 ~]$ rpm -qa|grep ntp 查询所有已经安装的软件包
[atguigu@hadoop101 ~]$ systemctl status ntpd
基本命令(必会但不用记,因为天天用):
netstat -ntlp|grep 8544 查看namenode用到的端口号(假设nn进程号是8544)--》端口能正常监听,服务就基本没问题
yum provides tree(告诉你哪个软件包能提供tree这个命令,会发现是tree这个包提供)
top 查看系统进程
iotop 查看io磁盘读写情况
tree 树状结构呈现目录
free -h 查看剩余空间
df -h 查看磁盘分区大小
du -h 查看文件夹大小
windows宿主机访问不了怎么解决?
思路:检查服务就看端口。
先检查对应虚拟机的端口开了没,输入端口号 netstat -ntlp|grep 9870,如果端口起来还访问不了,应该就是防火墙的问题。
过程记录:day2-05---》写了个脚本,继续看,还是那句话,你有考虑的功夫,你都已经听完一节课了,人生最怕的是犹豫和等待,把时间都消耗没了。真的不怕犯错,失败和成功都是宝贵经验。——————》时间同步服务我都照着做过了,没问题不用听课了。---》day2-05结束---》day2-06 基本命令--》day2-06结束--》还差07-15呢--》hadoop已经过去,环境已经搭建完--》接下来分两部分,首先是hdfs,然后是mapreduce,这两部分都对应一个教程文档。---》day2-07第10分钟。