• 一些有用的方法命令


    1、Hadoop错误:Name node is in safe mode

    解决:关闭Hadoop安全模式  

    hadoop dfsadmin -safemode leave

    2、解压缩.gz 和 .bz2格式文件

    在 tar 命令所在的那一行中,x 标记指定 tar 命令执行解压缩操作,f 标记则指定压缩包的文件名。 tar -xf spark-1.2.0-bin-hadoop2.4.tgz

    .tar.gz     格式解压为          

    tar   -zxvf   xx.tar.gz

    .tar.bz2   格式解压为          

    tar   -jxvf    xx.tar.bz2

    3、从Windows到Linux文件乱码解决命令

    iconv -f GBK -t UTF-8 aa.json -o bb.json

     4、解压.bin文件

    ./**.bin

    在JDK官网下载了一个jdk-6u45-linux-x64.bin

    解压命令为:

    ./jdk-6u45-linux-x64.bin

     5、MySQL中文乱码

    编辑 /etc/mysql/my.cnf

    [client]
    default-character-set=utf8
    
    [mysqld]
    character-set-server=utf8

    然后重启MySQL

    sudo /etc/init.d/mysql restart
    show variables like 'character%';

    CentOS

     vi /etc/my.cnf
    service mysqld restart

    6、CentOS常用命令

    关闭防火墙  chkconfig iptables off

    查看防火墙状态  service iptables status 

    http://blog.csdn.net/hooperzao/article/details/25111321

    http://bdbaishitong.blog.163.com/blog/static/201493080201378662648/

    CentOS 7关闭防火墙

    systemctl stop firewalld.service #停止firewall
    
    systemctl disable firewalld.service #禁止firewall开机启动

     7、Linux修改文件夹权限及拥有者

    chmod -R 777 file

    chown -R hadoop:hadoop file

    8、Tomcat启动停止

    以服务启动Tomcat         nohup bin/startup.sh &

    关闭Tomcat服务           bin/shutdown.sh

     9、Java解析CST格式时间

    SimpleDateFormat simple = new SimpleDateFormat(
                    "EEE MMM dd HH:mm:ss 'CST' yyyy", Locale.US);
    DateFormat format = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");
    format.format(simple.parse(“Mon Nov 19 14:06:58 CST 2012”.toString())

     10、打开hiveserver2, 以后台进程的方式启动

    hive --service hiveserver2 &

     11、MongoDB解析GridFS中的ISODate

    Date simple = new SimpleDateFormat("EEE MMM dd HH:mm:ss 'CST' yyyy",Locale.US);
    Date result=simple.parse(simple.format(new Date()));

    12、MongoDB多条件查询

    查询某个时间区间的数据

    BasicDBList conditionList = new BasicDBList();
    conditionList.add(new BasicDBObject("uploadDate", new BasicDBObject("$gte", lowTime)));// 查询条件-时间下界
    conditionList.add(new BasicDBObject("uploadDate", new BasicDBObject("$lte", highTime)));// 查询条件-时间上界


    DBObject queryCondition = new BasicDBObject("$and", conditionList);

    GridFS gf = new GridFS(db);


    DBCursor cursor = gf.getDB().getCollection("fs.files").find(queryCondition);//从表 fs.files 中查询出所有JPG文件

    或者

    List<GridFSDBFile> fileList = gf.find(queryCondition);

    删除GridFS中数据

    gf.remove(queryCondition);// 删除GridFS中图片数据

    参考:http://blog.csdn.net/mcpang/article/details/8731065

     13、jar文件后台运行

    如果在终端中执行java -jar xxx.jar&命令,当终端关闭时,xxx.jar也会同时结束运行,但是如果执行nohup java -jar xxx.jar&命令,则程序会在后台一直运行,值得注意的是,此时程序控制台输出会被转移到nohup.out文件中。

    14、MongoDB修改连接数

    MongoClient client=new MongoClient ("127.0.0.1",27017);
    MongoOptions option = client.getMongoOptions();
    client.setConnectionsPerHost(100);// 设置每个主机的连接数
    client.setThreadsAllowedToBlockForConnectionMultiplier(50);// 设置线程队列数

    http://api.mongodb.org/java/2.13/

     15、清空文件夹并重建

    File file = new File(System.getProperty("user.dir") + "/dataToMatch");
    if (!file.exists() && !file.isDirectory()) {// 不存在
         file.mkdir();
    } else if (file.exists() && file.isDirectory()) {// 存在
         String basePath = file.getAbsolutePath();
         String[] fileStrs = file.list();
         File tp = null;
         for (String path : fileStrs) {
               tp = new File(basePath + "/" + path);
               tp.delete();
         }
         file.delete();
         file.mkdir();
    } else {
          TimerJob.log.info("ERROR!");
    }

     16、List、Map、DBObject定义时初始化值

    List

                List<String> list = new ArrayList<String>() {
                    {
                        add("string1");
                        add("string2");
                        // some other add() code......
                        add("stringN");
                    }
                };

    Map

                Map<String, String> map = new HashMap<String, String>() {
                    {
                        put("key1", "value1");
                        put("key2", "111cn.Net");
                        // .... some other put() code
                        put("keyN", "valueN");
                    }
                };

    BasicDBObject

                DBObject object=    new BasicDBObject() {
                    {
                        put("name", name;
                        put("id", id);
                    }
                };

     17、MySQL修改root密码

    mysql -u root
    mysql> use mysql;
    mysql> UPDATE user SET Password = PASSWORD('newpass') WHERE user = 'root';
    mysql> FLUSH PRIVILEGES;

    http://jingyan.baidu.com/article/0320e2c198ad5f1b87507bc8.html

     18、CentOS 6.5 SSH免密码登陆

    (1)检查linux是否安装了SSH,命令为:

    rpm -qa | grep ssh

    安装SSH命令

    yum install ssh   或者     yum install openssh-server   yum -y install openssh-clients
    
    

    (2)检查ssh服务是否开启,命令为:

    service sshd status

    若已经开启则显示为: 

    /etc/init.d/sshd: line 33: /etc/sysconfig/sshd: Permission denied
    openssh-daemon (pid  1946) is running...

    若没有开启,则开启ssh服务,命令为:

    service sshd start   或者   /etc/init.d/sshd start

    (3)检查ssh是否是自动启动状态,命令为:

    chkconfig --list sshd

    2~5为on则表示ssh会在系统启动时自动启动

     (4)生成公钥和私钥

    ssh-keygen -t rsa     或者    ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

    接着

    cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys   或者   cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

    (5)在服务器上更改权限

    chmod 700 ~/.ssh
    chmod 600 ~/.ssh/authorized_keys

    (6)验证

    ssh -version
    ssh localhost

    (7)查看是否启动22端口

    netstat -antp | grep sshd

     19、Hadoop错误 org.apache.hadoop.yarn.exceptions.YarnException: Unauthorized request to start container.解决方法

    问题原因:namenode,datanode时间同步问题

    解决办法:多个datanode与namenode进行时间同步

    在每台服务器上执行(把当前时区调整为上海+8区,然后利用ntpdate同步标准时间)

    cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime
    ntpdate us.pool.ntp.org

    如果没有ntpdate,则安装

    yum install -y ntpdate

    reboot重启之后,

    查看时间和日期  

    date

    查看当前时区

    date -R  

     20、CentOS7无法使用ifconfig

    安装net-tools

    yum install net-tools

     21、CentOS 6.5安装MySQL

    1)安装

    yum install -y mysql-server mysql mysql-devel

    2)启动MySQL

    service mysqld start

    3)设置开机启动

    chkconfig mysqld on

    4)第一次启动MySQL后,设置root账号密码

    mysqladmin -u root password '123456'

    5) 设置远程登陆

    登陆MySQL

    mysql -u root -p

    然后输入

    GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' identified by '123456'  WITH GRANT OPTION;
    
    flush privileges;
    exit

    并重启MySQL

    service mysqld restart

     22、hive错误解决

    FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. MetaException(message:javax.jdo.JDODataStoreException: An exception was thrown while adding/validating class(es) : Specified key was too long; max key length is 767 bytes

    解决办法:

    登陆MySQL,运行

    alter database hive character set latin1;

     23、Java写文件指定编码格式

    BufferedWriter bw = new BufferedWriter(new OutputStreamWriter(
                    new FileOutputStream("data\" + date + ".txt"), "UTF-8"));

     24、JSP显示本地图片

    需要设置虚拟目录,也就是说把硬盘上一个目录映射到tomcat的工作目录下,然后tomcat就可以根据一个映射关系找到硬盘中的文件了。

    修改Tomcat的conf/server.xml文件

    在<Host>标签内加入如下代码

    <Context crossContext="true" docBase="/home/jason/upload" path="/upload" reloadable="true"></Context>

    其中docBase就是本地电脑的绝对路径
    path就是设置的虚拟路径
    修改完之后需要重启tomcat服务器

    然后,在JSP中调用

    <input type="image" src="/upload/google.png" width="538px" height="190px" />

    25、解压.rar文件

    wget http://www.rarsoft.com/rar/rarlinux-4.0.1.tar.gz
    tar -zxvf rarlinux-4.0.1.tar.gz
    cd rar 
    make

     运行命令rar时,出现下面这个问题

       rar: /lib/i686/nosegneg/libc.so.6: version `GLIBC_2.7' not found (required by rar)

    则进入rar目录

    cp rar_static /usr/local/bin/rar

    解压rar文件

    rar x file.rar 

    打包成rar文件

    rar file.rar ./file/

    26、Java读写UTF-8文本

    BufferedReader br = new BufferedReader(new InputStreamReader(new FileInputStream(new File("temp.txt")), "UTF-8"));
    BufferedWriter bw = new BufferedWriter(new OutputStreamWriter(new FileOutputStream(new File("temp.txt")), "UTF-8"));

    根据情况修改编码格式

    unicode  unicode big endian
    utf-8        utf-8
    utf-16      unicode
    gb2312  ANSI

    27、查看操作系统版本相关信息

    cat /etc/issue 

    查看系统版本

    cat  /etc/redhat-release

    28、查看系统硬件信息

    grep MemTotal /proc/meminfo   #查看内存总量
    cat /proc/cpuinfo  #查看CPU信息

    free -m 查看内存信息

    29、查看端口状态

    /etc/init.d/iptables status

    参考:http://www.centoscn.com/CentOS/help/2013/0725/558.html

    30、nameserver

    vi /etc/resolv.conf

    nameserver 8.8.8.8
    nameserver 8.8.4.4
    nameserver 127.0.0.1

     31、CentOS 6.5 修改系统ulimit 暨 org.apache.tomcat.jni.Error: 24: Too many open files 解决方法

    vi /etc/security/limits.conf

    添加

    vi /etc/security/limits.d/90-nproc.conf

    32、CentOS服务器 netstat命令 查看TCP连接数信息

    netstat命令的功能是显示网络连接、路由表和网络接口的信息,可以让用户得知有哪些网络连接正在运作。在日常工作中,我们最常用的也就两个参数,即netstat –an,如下所示:

    # netstat -an 

    netstat  -an参数中stat(状态)的含义如下:

    LISTEN:侦听来自远方的TCP端口的连接请求;
    SYN-SENT:在发送连接请求后等待匹配的连接请求;
    SYN-RECEIVED:在收到和发送一个连接请求后等待对方对连接请求的确认;
    ESTABLISHED:代表一个打开的连接,我们常用此作为并发连接数;
    FIN-WAIT-1:等待远程TCP连接中断请求,或先前的连接中断请求的确认;
    FIN-WAIT-2:从远程TCP等待连接中断请求;
    CLOSE-WAIT:等待从本地用户发来的连接中断请求;
    CLOSING:等待远程TCP对连接中断的确认;
    LAST-ACK:等待原来发向远程TCP的连接中断的确认;
    TIME-WAIT:等待足够的时间以确保远程TCP连接收到中断请求的确认;
    CLOSED:没有任何连接状态;

    在日常工作中,我们可以用shell组合命令来查看服务器的TCP连接状态并汇总,命令如下:

    netstat -an|awk '/^tcp/{++S[$NF]}END{for (a in S)print a,S[a]}' 

    参数说明:
    CLOSED:没有连接活动或正在进行的;
    LISTEN:服务器正在等待的进入呼叫;
    SYN_RECV:一个连接请求已经到达,等待确认;
    SYN_SENT:应用已经开始,打开一个连接;
    ESTABLISHED:正常数据传输状态,也可以近似的理解为当前服务器的并发数;
    FIN_WAIT1:应用已经完成;
    FIN_WAIT2:另一边同意释放;
    ITMED_WAIT:等待所有分组死掉;
    CLOSING:两边同时尝试关闭;
    TIME_WAIT:另一边已初始化一个释放;
    LAST_ACK:等待所有分组死掉;

    统计 TCP连接数 命令:

    netstat -an |grep 'ESTABLISHED' |grep 'tcp' |wc -l  

    参考:http://blog.csdn.net/youngqj/article/details/763089

    33、Windows下修改MySQL最大连接数

    在C:ProgramDataMySQLMySQL Server 5.6目录下,修改my.ini

    max_connections=3000

    34、CentOS 6.5 x64安装htop

    # yum install -y wget
    # wget http://download.fedoraproject.org/pub/epel/6/x86_64/epel-release-6-8.noarch.rpm
    # rpm -ivh epel-release-6-8.noarch.rpm
    # yum repolist
    # yum install -y htop

     35、MySQL去除字段中的空格

    update `dictionary_0` set `abbre`=replace(`abbre`,' ','');

    36、jQuery UI autocomplete的提示框属性设置

    jquery-ui.css:

    .ui-state-hover,
    .ui-widget-content .ui-state-hover,
    .ui-widget-header .ui-state-hover,
    .ui-state-focus,
    .ui-widget-content .ui-state-focus,
    .ui-widget-header .ui-state-focus {
        border: 1px solid #DCDCDC;//设置鼠标经过提示条目时的边框颜色
        background: #DCDCDC url("images/ui-bg_glass_100_fdf5ce_1x400.png") 50% 50% repeat-x;//设置鼠标经过时提示条目的背景颜色
        font-weight: normal;//设置鼠标经过时字体的粗细
        color: #000000;//设置鼠标经过时字体的颜色
    }
    .ui-state-hover a,
    .ui-state-hover a:hover,
    .ui-state-hover a:link,
    .ui-state-hover a:visited,
    .ui-state-focus a,
    .ui-state-focus a:hover,
    .ui-state-focus a:link,
    .ui-state-focus a:visited {
        color: #000000;
        text-decoration: none;
    }

    具体的可以尝试更改。

    37、Cookie

    在保存cookie之前把值编码下:

    Cookie cookie = new Cookie(name, URLEncoder.encode(value, "UTF-8"));

    取cookie值时解码:

    String value = URLDecoder.decode(cookie.getValue(), "UTF-8");

    38、Hive启动报错(Hive 1.2.1+Hadoop 2.6.0)

    Exception in thread "main" java.lang.IncompatibleClassChangeError: Found class jline.Terminal, but interface was expected
    at jline.console.ConsoleReader.<init>(ConsoleReader.java:230)
    at jline.console.ConsoleReader.<init>(ConsoleReader.java:221)

    解决办法:

    将/opt/hadoop-2.6.0/share/hadoop/yarn/lib 下的jline-0.9.94.jar换成hive lib中的jline-2.12.jar

    39、-bash: jps: command not found

    vi ~/.bash_profile

    修改

    PATH=$PATH:$HOME/bin     》》》     PATH=$PATH:$HOME/bin:/sbin:/usr/bin:/usr/sbin
    source /etc/profile

    40、Spark Streaming中空batches处理的两种方法

    Spark Streaming是近实时(near real time)的小批处理系统。对给定的时间间隔(interval),Spark Streaming生成新的batch并对它进行一些处理。每个batch中的数据都代表一个RDD,但是如果一些batch中没有数据会发生什么事情呢?Spark Streaming将会产生EmptyRDD的RDD,它的定义如下:

    package org.apache.spark.rdd
    
    import scala.reflect.ClassTag
    import org.apache.spark.{Partition, SparkContext, TaskContext}
    
    /**
      * An RDD that has no partitions and no elements.
      */
    private[spark] class EmptyRDD[T: ClassTag](sc: SparkContext) extends RDD[T](sc, Nil) {
      override def getPartitions: Array[Partition] = Array.empty
    
      override def compute(split: Partition, context: TaskContext): Iterator[T] = {
        throw new UnsupportedOperationException("empty RDD")
      }
    }

      可以看到这个RDD并不对任何父RDD有依赖关系,我们不能调用compute方法计算每个分区的数据。EmptyRDD的存在是为了保证Spark Streaming中多个batch的处理是一致的。但是存在EmptyRDD有时候会产生一些问题,比如:如果你想将接收到的Streaming数据写入HDFS中:

        val ssc = new StreamingContext(args(0), "iteblog", Seconds(10))
        val socketStream = ssc.socketTextStream("www.iteblog.com", 8888)
        val outputDir = args(1)
        socketStream.foreachRDD(rdd => {
          rdd.saveAsTextFile(outputDir)
        })

     当你调用foreachRDD的时候如果当前rdd是EmptyRDD,这样会导致在HDFS上生成大量的空文件!这肯定不是我们想要的,我们只想在存在数据的时候才写HDFS,我们可以通过以下的两种方法来避免这种情况:

        socketStream.foreachRDD(rdd => {
          if (rdd.count() != 0) {
            rdd.saveAsTextFile(outputDir)
          }
        })

      EmptyRDD的count肯定是0,所以这样可以避免写空文件,或者我们也可以用下面方法解决:

        socketStream.foreachRDD(rdd => {
          if (!rdd.partitions.isEmpty) {
            rdd.saveAsTextFile(outputDir)
          }
        })

      EmptyRDD是没有分区的,所以调用partitions.isEmpty是true。这样也可以解决上述问题。

      虽然上面两种方法都可以解决这个问题,但是推荐使用第二种方法。因为第一种方法调用了RDD的count函数,这是一个Action,会触发一次Job的计算,当你的数据量比较大的时候,这可能会带来性能方面的一些影响;而partitions.isEmpty是不需要触发Job的。
      不过如果你使用的是Sprk 1.3.0,你可以调用isEmpty函数来判断一个RDD是否为空,这个函数是在SPARK-5270引入的。

    转自:http://www.iteblog.com/archives/1304

    41、YARN中的kill应用的操作命令

    bin/yarn application -kill <applicationId>

    42、Kafka基本操作

    启动后台运行  /opt/kafka/bin/kafka-server-start.sh -daemon /opt/kafka/config/server.properties

    停止 /opt/kafka/bin/kafka-server-stop.sh

    命令行创建主题

    /opt/kafka/bin/kafka-topics.sh --create --zookeeper 192.168.1.101:2181,192.168.1.102:2181,192.168.1.103:2181/kafka --replication-factor 1 --partitions 3 --topic Prediction

    命令行创建生产者和消费者

    /opt/kafka/bin/kafka-console-producer.sh --broker-list 192.168.1.101:9092,192.168.1.102:9092,192.168.1.103:9092 --topic Prediction
    /opt/kafka/bin/kafka-console-consumer.sh --zookeeper 192.168.1.101:2181,192.168.1.102:2181,192.168.1.103:2181/kafka --topic Prediction

     43、CentOS查看文件大小

    查找大文件

    find pathName -type f -size +800M

    查看某文件夹占用总的空间大小

    du -h --max-depth=1 pathName

     44、Tomcat时区与系统时区不一致

    修改catalina.bat 或 catalina.sh,添加

    WINDOWS:

    set JAVA_OPTS=%JAVA_OPTS% -Xms256m -Xmx800m -Duser.timezone=GMT+08

    LINUX :

    JAVA_OPTS="-Xms512m -Xmx900m -Duser.timezone=GMT+08"

     45、问题描述:VMware 12、CentOS7_1511,电脑死机,强制关机,重启后无法进行用户目录,挂载/home失败,出现如下bug

     

    注:这里采用克隆一个虚拟系统来进行修复过程,以免修复错误造成损失。

    修复过程:

    1)输入root密码进入系统;

    2)使用 df -h命令,可以看到没有挂载/home目录,而/etc/fstab中设置了默认挂载

    3)使用 lvdisplay命令可以查看home所在的卷为/dev/centos/home

    4)执行xfs_repair -n /dev/centos/home ,检查文件系统是否损坏

    5)执行xfs_repair修复文件系统

    # xfs_repair -L /dev/centos/home
    Phase 1 - find and verify superblock...
    Phase 2 - using internal log
            - zero log...
    ALERT: The filesystem has valuable metadata changes in a log which is being
    destroyed because the -L option was used.
            - scan filesystem freespace and inode maps...
    agi unlinked bucket 4 is 2164932 in ag 1 (inode=1075906756)
    agi unlinked bucket 7 is 2164935 in ag 1 (inode=1075906759)
    agf_freeblks 56476472, counted 56476470 in ag 0
    agi unlinked bucket 20 is 2011348 in ag 0 (inode=2011348)
    agi unlinked bucket 28 is 1254556 in ag 0 (inode=1254556)
    sb_ifree 502, counted 595
    sb_fdblocks 228710581, counted 228715521
            - found root inode chunk
    Phase 3 - for each AG...
            - scan and clear agi unlinked lists...
            - process known inodes and perform inode discovery...
            - agno = 0
    data fork in ino 43450214 claims free block 6363218
    data fork in ino 43450214 claims free block 6363219
    imap claims a free inode 43450215 is in use, correcting imap and clearing inode
    cleared inode 43450215
    Metadata corruption detected at xfs_dir3_block block 0x14b71c8/0x1000
    corrupt block 0 in directory inode 58326652
    	will junk block
    no . entry for directory 58326652
    no .. entry for directory 58326652
    problem with directory contents in inode 58326652
    cleared inode 58326652
            - agno = 1
            - agno = 2
            - agno = 3
            - process newly discovered inodes...
    Phase 4 - check for duplicate blocks...
            - setting up duplicate extent list...
            - check for inodes claiming duplicate blocks...
            - agno = 0
            - agno = 1
            - agno = 2
    entry ".." at block 0 offset 32 in directory inode 58326656 references free inode 58326652
            - agno = 3
    entry ".idea" in shortform directory 3328138473 references free inode 58326652
    junking entry ".idea" in directory inode 3328138473
    Phase 5 - rebuild AG headers and trees...
            - reset superblock...
    Phase 6 - check inode connectivity...
            - resetting contents of realtime bitmap and summary inodes
            - traversing filesystem ...
    entry ".." in directory inode 58326656 points to free inode 58326652
    bad hash table for directory inode 58326656 (no data entry): rebuilding
    rebuilding directory inode 58326656
            - traversal finished ...
            - moving disconnected inodes to lost+found ...
    disconnected inode 1254556, moving to lost+found
    disconnected inode 2011348, moving to lost+found
    disconnected inode 43450214, moving to lost+found
    disconnected inode 58326654, moving to lost+found
    disconnected dir inode 58326656, moving to lost+found
    disconnected inode 58326657, moving to lost+found
    disconnected inode 101773608, moving to lost+found
    disconnected inode 101827014, moving to lost+found
    disconnected inode 101874234, moving to lost+found
    disconnected inode 1075906756, moving to lost+found
    disconnected inode 1075906759, moving to lost+found
    disconnected inode 1075906772, moving to lost+found
    disconnected dir inode 1141030705, moving to lost+found
    disconnected dir inode 3328200787, moving to lost+found
    Phase 7 - verify and correct link counts...
    resetting inode 1254512 nlinks from 2 to 5
    resetting inode 3328138473 nlinks from 5 to 4
    done

    6)重新挂载/dev/centos/home到/home

    # mount -t xfs /dev/centos/home /home/

    参考:http://www.mamicode.com/info-detail-669354.html

     46、分词

    mmse4j

     public static String doAndFilter(String words) {
    //        ParaConfiguration paraConfiguration = ParaConfiguration.getInstance();
    //        String result = "";
    //        if (null != words && !words.equals("")) {
    //            Seg seg = new MaxWordSeg(dic);
    //            MMSeg mmSeg = new MMSeg(new StringReader(words), seg);
    //            try {
    //                Word word;
    //                while ((word = mmSeg.next()) != null) {
    //                    // System.out.print(word + " ");
    //                    if (word.getLength() > 1) {
    //                        result += word + " ";
    //                    }
    //                }
    //                // System.out.println();
    //            } catch (Exception e) {
    //                e.printStackTrace();
    //            }
    //        }
    //        return result;
    //    }

    IKAnalyzer

     IKSegmenter ik = new IKSegmenter(new StringReader(words), false); //true粗粒度false细粒度
            Lexeme lex = null;
            try {
                while ((lex = ik.next()) != null) {
                    System.out.print(lex.getLexemeText() + "|");
                }
            } catch (IOException e) {
                e.printStackTrace();
            }

     47、CentOS安装SBT

    # curl https://bintray.com/sbt/rpm/rpm | sudo tee /etc/yum.repos.d/bintray-sbt-rpm.repo
    # yum install sbt

    48、ES 5.4.2启动报错

    ERROR: [2] bootstrap checks failed
    [1]: max file descriptors [4096] for elasticsearch process is too low, increase to at least [65536]
    [2]: max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]
    [2017-06-22T14:43:25,884][INFO ][o.e.n.Node               ] [yTEiH2w] stopping ...
    [2017-06-22T14:43:25,918][INFO ][o.e.n.Node               ] [yTEiH2w] stopped
    [2017-06-22T14:43:25,919][INFO ][o.e.n.Node               ] [yTEiH2w] closing ...
    [2017-06-22T14:43:25,932][INFO ][o.e.n.Node               ] [yTEiH2w] closed

    解决问题1:

    $ sudo vi /etc/security/limits.conf

     修改/etc/security/limits.conf文件,添加或修改:

    *        hard    nofile           65536
    *        soft    nofile           65536

    或者

    *    soft    nofile    65536
    *    hard    nofile    131072
    *    soft    nproc    2048
    *    hard    nproc    4096

    解决问题2:

    $ sudo sysctl -w vm.max_map_count=262144

    或者修改 /etc/sysctl.conf 文件,添加 “vm.max_map_count”设置

    $ sysctl -a

    参考 http://blog.csdn.net/kongxx/article/details/52993057

     49、安装RabbitMQ

    1)安装erlang
    yum install erlang
    2)导入公共签名密钥
    rpm --import https://www.rabbitmq.com/rabbitmq-release-signing-key.asc
    3)下载rabbitmq安装包
    wget http://www.rabbitmq.com/releases/rabbitmq-server/v3.6.10/rabbitmq-server-3.6.10-1.el7.noarch.rpm
    4)安装rabbitmq
    yum install rabbitmq-server-3.6.10-1.el7.noarch.rpm
    5)启动
    service rabbitmq-server start
    /bin/systemctl start  rabbitmq-server.service

     50、EPEL源

    # yum install -y epel-release.noarch
    # yum repolist

    # yum install -y epel-release.noarch

    51、CURL

    $ curl -i -X POST -H "Content-Type:application/json" -d "{  "firstName" : "Frodo",  "lastName" : "Baggins" }" http://localhost:8080/people
    HTTP/1.1 201 Created
    Server: Apache-Coyote/1.1
    Location: http://localhost:8080/people/53149b8e3004990b1af9f229
    Content-Length: 0
    Date: Mon, 03 Mar 2014 15:08:46 GMT
    -i ensures you can see the response message including the headers. The URI of the newly created Person is shown
    -X POST signals this a POST used to create a new entry
    -H "Content-Type:application/json" sets the content type so the application knows the payload contains a JSON object
    -d '{ "firstName" : "Frodo", "lastName" : "Baggins" }' is the data being sent

     52、CentOS 7安装sbt

    curl https://bintray.com/sbt/rpm/rpm | sudo tee /etc/yum.repos.d/bintray-sbt-rpm.repo
    sudo yum install sbt

     53、MongoDB Document 与JSON互转

    # Document 转 对象
    Document doc = new Document(); Employee emp = new Gson().fromJson(document.toJson(), Employee.class); # 对象 转 Document Customer customer = new Customer(); Document doc = Document.parse(new Gson().toJson(customer));
    <dependency>
        <groupId>com.google.code.gson</groupId>
        <artifactId>gson</artifactId>
        <version>2.8.0</version>
    </dependency>

     54、安装nodejs

    Node.js 8
    
    curl --silent --location https://rpm.nodesource.com/setup_8.x | sudo bash -
    sudo yum -y install nodejs

    参考:https://nodejs.org/en/download/package-manager/

     55、hadoop/spark切换端口

    如果ssh端口不是操作系统默认的22端口,在这里假设ssh端口号为16922
    在hadoop里面修改hadoop-env.sh,增加

    export HADOOP_SSH_OPTS="-p 16922"

    在spark里面修改spark-env.sh,增加

    export SPARK_SSH_OPTS="-p 16922"
    

    56、系统可用的处理器个数

    Runtime.getRuntime().availableProcessors()
    

    57、centOS7下安装GUI图形界面

    1)在命令行下 输入下面的命令来安装Gnome包。

    # yum groupinstall "GNOME Desktop" "Graphical Administration Tools"

    2)更新系统的运行级别。

    # ln -sf /lib/systemd/system/runlevel5.target /etc/systemd/system/default.target

    3)重启机器。启动默认进入图形界面。

    # reboot
    

     http://www.cnblogs.com/c-xiaohai/p/6509641.html

    58、多线程 

    ExecutorService executorService = Executors.newCachedThreadPool();
    
             AtomicInteger temp = new AtomicInteger();
                Dao.findAll().forEach(
                        score -> {
                            // Lambda Runnable
                            executorService.submit(() -> {
                                temp.incrementAndGet();
                                writeToMySQL(score.getId(), score.Id());
                                temp.decrementAndGet();
                            });
                        }
                );
    
    while (true) {
                System.out.println(temp.get());
                if (temp.get() == 0) {
                    break;
                }
                try {
                    Thread.sleep(1000);
                } catch (InterruptedException e) {
                    e.printStackTrace();
                    System.out.println("ExecutorService Stop ERROR");
                    break;
                }
            }

    59、CentOS安装sbt

    curl https://bintray.com/sbt/rpm/rpm | sudo tee /etc/yum.repos.d/bintray-sbt-rpm.repo
    sudo yum install sbt
    

      

    60、SVN无法clean up

    step1:到sqlite官网(http://www.sqlite.org/download.html)下载sqlite3.exe;找到PrecompiledBinariesforWindows,点击sqlite-shell-win32-x86-3080500.zip下载,300KB左右.
    step2:将下载到的sqlite3.exe放到某文件目录(我这里是F:devToolssqlite3)
    step3:然后设置svn源代码文件夹及文件显示所有文件(包括隐藏文件),会发现.svn/wc.db文件,将其复制到step2的目录下
    step4:开始->运行->打开cmd命令,跳转到setp2的文件目录中,执行打开wc.db的操作,然后删除里面work_queue表的数据即可,具体见图:
    step5:将wc.db覆盖到svn源代码目录的.svn目录下(替换原来的wc.db)。
    step6:再次对svn目录进行clean操作,即可cleanUp成功。

    http://blog.csdn.net/u012049463/article/details/41517343

     61、MongoDB 中文排序

    默认情况下,中文字段会被当做一个普通的二机制字符串来对比。MongoDB 3.4支持指定collation使用中文排序。

    https://docs.mongodb.com/manual/reference/collation/

    http://www.mongoing.com/archives/3912

    62、IDEA SBT

    vi ~/.sbt/repositories
    [repositories]
    
    local
    
    ui:http://uk.maven.org/maven2/
    ui-ivy:http://uk.maven.org/maven2/,[organization]/[module]/(scala_[scalaVersion]/)(sbt_[sbtVersion]/)[revision]/[type]s/[artifact](-[classifier]).[ext] 
    
    typesafe:http://repo.typesafe.com/typesafe/releases/
    typesafe-ivy: http://repo.typesafe.com/typesafe/ivy-releases/,[organization]/[module]/(scala_[scalaVersion]/)(sbt_[sbtVersion]/)[revision]/[type]s/[artifact](-[classifier]).[ext], bootOnly
    sbt-plugin: http://repo.scala-sbt.org/scalasbt/sbt-plugin-releases/  
    sonatype: http://oss.sonatype.org/content/repositories/snapshots  
    repo2: http://repo2.maven.org/maven2/

     63、Spring data mongodb排序有三种方式

    1)一个字段的排序 

    query.with(new Sort(Direction.ASC,"onumber"));

    2)多个字段时同时升序或者降序时

     query.with(new Sort(Direction.ASC,"a","b","c"));

    3)不同的字段按照不同的排序

    List<Sort.Order>orders=new ArrayList<Sort.Order>();
    orders.add(newSort.Order(Direction.ASC, "a"));
    orders.add(newSort.Order(Direction.DESC, "b"));
    query.with(newSort(orders ));

     64、map排序

                // sort
                //将map.entrySet()转换成list
                List<Map.Entry<String, Double>> list = new ArrayList<>(Map.entrySet());
                //然后通过比较器来实现排序// With lambdas
                Collections.sort(list, (Map.Entry<String, Double> o1, Map.Entry<String, Double> o2) -> {
                    double temp = o2.getValue() - o1.getValue();
                    if (temp > 0) {
                        return 1;
                    } else if (temp == 0) {
                        return 0;
                    } else {
                        return -1;
                    }
                });

     65、查看CPU信息

    cat /proc/cpuinfo | grep name | cut -f2 -d: | uniq -c

    查看内存信息

    cat /proc/meminfo

     66、修改系统文件数限制、进程限制

    *** [WARN] *** Your open file limit is currently 1024.  
     It should be set to 65000 to avoid operational disruption. 
     If you no longer wish to see this warning, set SOLR_ULIMIT_CHECKS to false in your profile or solr.in.sh
    *** [WARN] ***  Your Max Processes Limit is currently 4096. 
     It should be set to 65000 to avoid operational disruption. 
     If you no longer wish to see this warning, set SOLR_ULIMIT_CHECKS to false in your profile or solr.in.sh
    Warning: Available entropy is low. As a result, use of the UUIDField, SSL, or any other features that require
    RNG might not work properly. To check for the amount of available entropy, use 'cat /proc/sys/kernel/random/entropy_avail'.

    修改/etc/security/limits.conf文件,在最后添加

    * hard nofile 65000
    * soft nofile 65000
    * hard nproc 65000
    * soft nproc 65000
    

    67、vim常用命令

    i 切换到输入模式,以输入字符
    ESC,退出输入模式,切换到命令模式
    0 或功能键[Home]    这是数字『 0 』:移动到这一行的最前面字符处 
    $ 或功能键[End]    移动到这一行的最后面字符处
    G    移动到这个档案的最后一行
    
    /word    向光标之下寻找一个名称为 word 的字符串。例如要在档案内搜寻 vbird 这个字符串,就输入 /vbird 即可! (常用)
    
    x, X    在一行字当中,x 为向后删除一个字符 (相当于 [del] 按键), X 为向前删除一个字符(相当于 [backspace] 亦即是退格键) (常用)
    dd    删除游标所在的那一整行(常用)
    ndd    n 为数字。删除光标所在的向下 n 行,例如 20dd 则是删除 20 行 (常用)
    
    yy    复制游标所在的那一行(常用)
    nyy    n 为数字。复制光标所在的向下 n 行,例如 20yy 则是复制 20 行(常用)
    p, P    p 为将已复制的数据在光标下一行贴上,P 则为贴在游标上一行! 举例来说,我目前光标在第 20 行,且已经复制了 10 行数据。则按下 p 后, 那 10 行数据会贴在原本的 20 行之后,亦即由 21 行开始贴。
    但如果是按下 P 呢? 那么原本的第 20 行会被推到变成 30 行。 (常用) u 复原前一个动作。(常用) [Ctrl]+r 重做上一个动作。(常用)
    i, I    进入输入模式(Insert mode):
    i 为『从目前光标所在处输入』, I 为『在目前所在行的第一个非空格符处开始输入』。 (常用)
    a, A    进入输入模式(Insert mode):
    a 为『从目前光标所在的下一个字符处开始输入』, A 为『从光标所在行的最后一个字符处开始输入』。(常用)
    o, O    进入输入模式(Insert mode):
    这是英文字母 o 的大小写。o 为『在目前光标所在的下一行处输入新的一行』; O 为在目前光标所在处的上一行输入新的一行!(常用)
    r, R    进入取代模式(Replace mode):
    r 只会取代光标所在的那一个字符一次;R会一直取代光标所在的文字,直到按下 ESC 为止;(常用)

     68、Maven设置国内镜像地址

    在maven的conf目录下的settings.xml文件的<mirrors>标签中增加以下内容

        <mirror>
            <id>alimaven</id>
            <mirrorOf>central</mirrorOf>
            <name>aliyun maven</name>
            <url>http://maven.aliyun.com/nexus/content/groups/public/</url>
        </mirror>

     69、设置阿里云maven仓库

    <!-- 阿里云maven仓库 --> 
        <repositories>
            <repository>
                <id>public</id>
                <name>aliyun nexus</name>
                <url>http://maven.aliyun.com/nexus/content/groups/public/</url>
                <releases>
                    <enabled>true</enabled>
                </releases>
            </repository>
        </repositories>
        <pluginRepositories>
            <pluginRepository>
                <id>public</id>
                <name>aliyun nexus</name>
                <url>http://maven.aliyun.com/nexus/content/groups/public/</url>
                <releases>
                    <enabled>true</enabled>
                </releases>
                <snapshots>
                    <enabled>false</enabled>
                </snapshots>
            </pluginRepository>
        </pluginRepositories>

     70、Tomcat设定时区 

    JAVA_OPTS="-Xms512m -Xmx900m -Duser.timezone=GMT+08"

     71、年月日

        public void judgeTime() throws ParseException {
            SimpleDateFormat datetimeFormat = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");
    
            Calendar calendar = Calendar.getInstance();
            calendar.setTime(datetimeFormat.parse("2018-10-12 12:00:00"));
            calendar.setMinimalDaysInFirstWeek(7);
            //取得当前时间
            String currentTime = datetimeFormat.format(calendar.getTime());
    
            calendar.add(Calendar.DAY_OF_MONTH, -1);
            //前一天
            String beforeDate = new SimpleDateFormat("yyyy-MM-dd").format(calendar.getTime());
    
            int year = calendar.get(Calendar.YEAR);//
            int month = calendar.get(Calendar.MONTH) + 1;//0-11月
            int quarter = DateUtil.getQuarter(month);//季度
            int week = calendar.get(Calendar.WEEK_OF_YEAR);//
            String startTime, endTime, timeRange, pushDate;//开始时间/结束时间/时间范围/推送日期
            //-------------------------------- 日统计:每天凌晨1点,统计前一天(工作日)数据 ----------------------------------//
            // -------------------判断是否是工作日
            int workingDay = statisticsMapper.judgeWorkingDay(beforeDate);
            System.out.println("统计的日期:" + beforeDate + "	" + (workingDay == 0 ? "工作日" : "非工作日"));
            if (workingDay == 0) {//工作日
                startTime = beforeDate + " 00:00:00";
                endTime = beforeDate + " 23:59:59";
                timeRange = year + "" + month + "" + calendar.get(Calendar.DAY_OF_MONTH) + "";
                pushDate = statisticsMapper.getNextWorkingDayAfterDate(beforeDate);  //日期的下一个工作日
                System.out.println("日统计:	时间范围=" + timeRange
                        + "	开始时间=" + startTime
                        + "	结束时间=" + endTime
                        + "	推送日期=" + pushDate
                );
            }
            //--------------------------------- 周统计:每周一凌晨1点,统计上一周数据 ----------------------------------//
            if (calendar.get(Calendar.DAY_OF_WEEK) == Calendar.SUNDAY) {
                Calendar calendar1 = Calendar.getInstance();
                calendar1.setTime(calendar.getTime());
                calendar1.add(Calendar.DAY_OF_MONTH, -6);
                startTime = datetimeFormat.format(calendar1.getTime());
                endTime = beforeDate + " 23:59:59";
                timeRange = year + "年第" + week + "周次";
                pushDate = statisticsMapper.getNextWorkingDayAfterDate(beforeDate);  //本周第一个工作日
    
                System.out.println("周统计:	时间范围=" + timeRange
                        + "	开始时间=" + startTime
                        + "	结束时间=" + endTime
                        + "	推送日期=" + pushDate
                );
            }
            //-------------------------------- 月度统计:每月度第一天凌晨1点,统计上一月度数据 ---------------------------------//
            if (currentTime.substring(8, 10).equals("01")) {//1日
                startTime = DateUtil.getStartTimeOfMonth(month);
                endTime = DateUtil.getEndTimeOfMonth(month);
                timeRange = year + "年第" + month + "月度";
                pushDate = statisticsMapper.getFirstWorkingDayOfMonth(currentTime.substring(0, 7));//本月第一个工作日
                System.out.println("月度统计:	时间范围=" + timeRange
                        + "	开始时间=" + startTime
                        + "	结束时间=" + endTime
                        + "	推送日期=" + pushDate
                );
                //------------------------------- 季度统计:每季度第一天凌晨1点,统计上一个季度数据 --------------------------------//
                if (currentTime.substring(5, 7).equals("01")
                        || currentTime.substring(5, 7).equals("04")
                        || currentTime.substring(5, 7).equals("07")
                        || currentTime.substring(5, 7).equals("10")) {//1月1日,4月1日,7月1日,10月1日
                    startTime = DateUtil.getStartTimeOfQuarter(quarter);
                    endTime = DateUtil.getEndTimeOfQuarter(quarter);
                    timeRange = year + "年第" + quarter + "季度";
    
                    System.out.println("季度统计:	时间范围=" + timeRange
                            + "	开始时间=" + startTime
                            + "	结束时间=" + endTime
                            + "	推送日期=" + pushDate
                    );
                    //-------------------------------- 年度统计:每年度第一天凌晨1点,统计上一年度数据 ---------------------------------//
                    if (currentTime.substring(5, 7).equals("01")) {//1月1日
                        startTime = DateUtil.getStartTimeOfYear(year);
                        endTime = DateUtil.getEndTimeOfYear(year);
                        timeRange = year + "年度";
    
                        System.out.println("年度统计:	时间范围=" + timeRange
                                + "	开始时间=" + startTime
                                + "	结束时间=" + endTime
                                + "	推送日期=" + pushDate
                        );
                    }
                }
            }
        }

     72、Restful API防止重复提交

    后端根据请求的uriPath+userId+MD5(JsonString(所有参数))作为key,来确定唯一。采用redis分布式锁

    采用计数器:每次request进来则新建一个以orderId为key的计数器,然后+1。

    如果>1(不能获得锁): 说明有操作在进行,删除。
    如果=1(获得锁): 可以操作。

    操作结束(删除锁):删除这个计数器。

     73、warning: LF will be replaced by CRLF in src/xx.java.

    提交检出均不转换

    git config core.autocrlf false

     74、Spring boot应用指定profile

    1)application.properties
    #使用的环境名称
    spring.profiles.active=dev

    2)application.yml

    #需要使用的配置文件
    spring:
    profiles:
    active: prod

    3)Program arguments
    在IDE的Program arguments中配置参数
    --spring.profiles.active=dev

    4)虚拟机的方式
      在VM options下使用命令:-Dspring.profiles.active=prod
    -Dspring.profiles.active=prod

    5)命令行
      将项目打包成jar包,切换到命令行的界面下使用命令: java -jar application.jar --spring.profiles.active=prod进行打包。
    java -jar application.jar --spring.profiles.active=prod

     75、

    Mysql服务器的三种时区设置
    1)系统时区 - 保存在系统变量system_time_zone
    2)服务器时区 - 保存在全局系统变量global.time_zone
    3)每个客户端连接的时区 - 保存在会话变量session.time_zone

    MySQL查看时区

    show global variables like'%time_zone%';

    flush privileges;

     76、查看域名的HTTPS到期时间

    # echo | openssl s_client -servername www.XX.cn -connect www.XX.cn:443 2>/dev/null | openssl x509 -noout -dates

     77、文件替换弹框

    rz -y

     78、查看Nginx安装了哪些模块

    nginx -V

    查看Nginx版本信息

    nginx -v

     重新载入配置文件

    nginx -s reload

    重启 Nginx

    nginx -s reopen

    停止 Nginx

    nginx -s stop

     79、MySQL导出函数

    mysqldump -hlocalhost -uroot -ntd -R hqgr > hqgr.sql
      其中的 -ntd 是表示导出存储过程;-R是表示导出函数

     80、tomcat调用接口报错

    java.lang.IllegalArgumentException: Invalid character found in the request target. The valid characters are defined in RFC 7230 and RFC 3986

    解决办法:

    在Tomcat的catalina.properties文件中添加

    tomcat.util.http.parser.HttpParser.requestTargetAllow=|{}

     81、List转成Set

    new HashSet<>(appIdList)

    Set转成以逗号分隔的String

    Set<String> set;
    String.join(",", set);

    以逗号分隔的String转成Set

    Set<String> set;
    set.addAll(Arrays.asList(strAppId.trim().split(",")))

     82、关闭Swagger

     在Swagger2Config上使用@Profile注解标识,@Profile({"dev","test"})表示在dev和test环境才能访问swagger-ui.html,prod环境下访问不了

     

  • 相关阅读:
    kafka学习笔记:知识点整理
    ZooKeeper基本原理
    Channel详解
    redis十-对快照模式分析
    文字两行显示
    vue 脚手架创建新项目时报错 ERROR Failed to get response from http://registry.cnpmjs.org/vue-cli-version
    checkbox 点选后没有被选中,有点击事件,不显示小勾
    git 提示 没有操作权限
    HBuilder X 提示Setting.json格式语法错误
    格式化代码时提示错误
  • 原文地址:https://www.cnblogs.com/fesh/p/4012228.html
Copyright © 2020-2023  润新知