• 数据库常用语句


    记录常用数据库启动服务、导入导出等方法,仅针对linux命令行操作

    1. MySQL

    1.1. 连接

    • mysql -uroot -p123456

    1.2. 运行状态

    • service mysqld status

    1.3. 服务启动

    • service mysqld start/restart
    • ./mysqld_safe &

    1.4. 服务暂停

    • service mysqld stop
    • mysqladmin -u root shutdown

    1.5. 导入

    #导入SQL文件
    > source /home/gpadmin/mysql/realt.sql

    • mysql -u用户名 -p密码 数据库名 < 数据库名.sql

    #导入纯数据文件
    > LOAD DATA LOCAL INFILE '/data/testing/mysql_bk/realt' INTO TABLE realt(...);

    1.6. 导出

    #导出纯数据文件

    > SELECT * into outfile '/data/testing/mysql_bk/realt'   FIELDS TERMINATED BY ','   LINES TERMINATED BY ' '  FROM realt;

    #导出sql文件

    mysqldump -u 用户名 -p 数据库名 [表名] > 导出的文件名

    • mysqldump -uroot -p realtime realt> realt.sql

    #导出数据库结构

    -d 没有数据 --add-drop-table 在每个create语句之前增加一个drop table

    • mysqldump -uroot -p -d --add-drop-table realtime > realtime.sql

    2. PostgreSQL

    2.1. 连接

    • psql -U postgres

    2.2. 运行状态

    • pg_ctl status

    2.3. 服务启动

    • pg_ctl start
    • /share/apps/postgresql/bin/postgres -D /data/postgres/

    2.4. 服务暂停

    • pg_ctl stop
    • pg_ctl stop -D /data/postgres/ -m fast

    2.5. 导入

    • psql -U postgres -d kgj -f < kgj.sql

    #导入表数据

    > copy v_schedule from '${FILE_PATH}/v_schedule' with delimiter as '`';

    2.6. 导出

    #导出表

    • pg_dump -U kgj -h $IP -p $PORT --inserts -a v_schedule > ${BK_PATH}.sql

    #导出数据库

    • pg_dump -U kgj -h $IP -p $PORT -d kgj > ${BK_PATH}/${DATE}_kgj.sql

    #导出表数据

    > copy v_schedule to '${FILE_PATH}/v_schedule' with delimiter as '`';

    3. ClickHouse

    3.1. 连接

    • clickhouse-client -u default -h XXX.XX.XXX.XX --password XXX --port 9020 -d testdb

    3.2. 运行状态

    • service clickhouse-server status

    3.3. 服务启动

    • service clickhouse-server start/restart

    3.4. 服务暂停

    • service clickhouse-server stop

    3.5. 导入

    • clickhouse-client -u ... --port 9020 --query="INSERT INTO test.real_time_data(...) FORMAT CSV" < ${FILE}

    3.6. 导出

    • clickhouse-client -u ... --port 9020 --query="select * from test.real_time_data(...) FORMAT CSV" > ${FILE}

    4. Greenplum

    4.1.  连接

    • psql -d testdb

    4.2. 运行状态

    • gpstate

    4.3. 服务启动

    • gpstart

    #重启

    • gpstop -r

    #重载配置

    • gpstop -u

    4.4. 服务暂停

    • gpstop
    • gpstop -M fast

    4.5. 导入

    • copy ${TABLE_NAME} from '${FILE_PATH}' with csv LOG ERRORS SEGMENT REJECT LIMIT 100000 ROWS;

    4.6. 导出

    • copy ${TABLE_NAME} to '${FILE_PATH}' with csv LOG ERRORS SEGMENT REJECT LIMIT 100000 ROWS;

    #导出建表语句

    • pg_dump -s --table=szt_data testdb

    5. HBase

    5.1.  连接

    • hbase shell

    5.2. 运行状态

    > status

    5.3. 服务启动

    • sh /share/apps/hbase/bin/start-hbase.sh

    5.4. 服务暂停

    • sh /share/apps/hbase/bin/stop-hbase.sh

    5.5. 导入

    • hbase org.apache.hadoop.hbase.mapreduce.Import 'test' test000

    5.6. 导出

    • hbase org.apache.hadoop.hbase.mapreduce.Export test /datum/test000
  • 相关阅读:
    【贴吧】计算器代码注释
    简单理解面向对象思维
    [转载]编程哲理
    Android SDK Manager无法更新的解决方案
    CSS选择器
    javascript arguments参数问题
    html垂直居中
    x64系统WSC注册方法
    SharePoint Server 2013安装
    Asp Url汉字乱码的问题
  • 原文地址:https://www.cnblogs.com/grapelet520/p/11648058.html
Copyright © 2020-2023  润新知