• Hibernate之二级缓存


    1.为什么需要缓存

    原因:

    用缓存,主要有两个用途:高性能、高并发。

    高性能

    非实时变化的数据-查询mysql耗时需要300ms,存到缓存redis,每次查询仅仅1ms,性能瞬间提升百倍。

    高并发

    mysql 单机支撑到2K QPS就容易报警了,如果系统中高峰时期1s请求1万,仅单机mysql是支撑不了的,但是使用缓存的话,单机支撑的并发量轻松1s几万~十几万。

    原因是缓存位于内存,内存对高并发的良好支持。

    2. 什么样的数据需要缓存

    很少被修改或根本不改的数据 数据字典

    业务场景比如:耗时较高的统计分析sql、电话账单查询sql等

    3. ehcache是什么

    Ehcache 是现在最流行的纯Java开源缓存框架,配置简单、结构清晰、功能强大

    注1:本章介绍的是2.X版本,3.x的版本和2.x的版本API差异比较大

    4. ehcache的特点

    够快

    Ehcache的发行有一段时长了,经过几年的努力和不计其数的性能测试,Ehcache终被设计于large, high concurrency systems.

     够简单

    开发者提供的接口非常简单明了,从Ehcache的搭建到运用运行仅仅需要的是你宝贵的几分钟。其实很多开发者都不知道自己用在用Ehcache,Ehcache被广泛的运用于其他的开源项目

    够袖珍

    关于这点的特性,官方给了一个很可爱的名字small foot print ,一般Ehcache的发布版本不会到2M,V 2.2.3 才 668KB。

    够轻量

    核心程序仅仅依赖slf4j这一个包,没有之一!

    好扩展

    Ehcache提供了对大数据的内存和硬盘的存储,最近版本允许多实例、保存对象高灵活性、提供LRU、LFU、FIFO淘汰算法,基础属性支持热配置、支持的插件多

    监听器

    缓存管理器监听器 (CacheManagerListener)和 缓存监听器(CacheEvenListener),做一些统计或数据一致性广播挺好用的

    分布式缓存

    从Ehcache 1.2开始,支持高性能的分布式缓存,兼具灵活性和扩展性

     配置pom.xml文件

    <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
      xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/maven-v4_0_0.xsd">
      <modelVersion>4.0.0</modelVersion>
      <groupId>com.hxc</groupId>
      <artifactId>hibernate</artifactId>
      <packaging>war</packaging>
      <version>0.0.1-SNAPSHOT</version>
      <name>hibernate Maven Webapp</name>
      <url>http://maven.apache.org</url>
      
      <properties>
         <junit.vesion>4.12</junit.vesion>
      <servlet.vesion>4.0.0</servlet.vesion>
      <!--hibernate(5.2.12 Final)  -->
      <hibernate-vesion>5.2.12.Final</hibernate-vesion>
       <!--mysql+  -->
      <mysql.version>5.1.44</mysql.version>
        </properties>
      
      <dependencies>
        <dependency>
          <groupId>junit</groupId>
          <artifactId>junit</artifactId>
          <version>${junit.vesion}</version>
          <scope>test</scope>
        </dependency>
        
        
        <!-- https://mvnrepository.com/artifact/javax.servlet/javax.servlet-api -->
       <dependency>
        <groupId>javax.servlet</groupId>
        <artifactId>javax.servlet-api</artifactId>
        <version>${servlet.vesion}</version>
        <scope>provided</scope>
       </dependency>
        
        <!-- https://mvnrepository.com/artifact/org.hibernate/hibernate-core -->
      <dependency>
        <groupId>org.hibernate</groupId>
        <artifactId>hibernate-core</artifactId>
        <version>${hibernate-vesion}</version>
      </dependency>
        
        
          <!--mysql  -->
        <dependency>
         <groupId>mysql</groupId>
         <artifactId>mysql-connector-java</artifactId>
         <version>${mysql.version}</version>
        </dependency>
        
        
        <!--ehche  -->
         <dependency>
              <groupId>net.sf.ehcache</groupId>
            <artifactId>ehcache</artifactId>
            <version>2.10.0</version>
          </dependency>
        
            
            <!--hibernate与ehcache的二级缓存配置  -->
         <dependency>
             <groupId>org.hibernate</groupId>
             <artifactId>hibernate-ehcache</artifactId>
            <version>5.2.12.Final</version>
          </dependency>
          
          <!-- log配置:Log4j2 + Slf4j -->
            <!-- slf4j核心包 -->
            <dependency>
                <groupId>org.slf4j</groupId>
                <artifactId>slf4j-api</artifactId>
                <version>1.7.7</version>
            </dependency>
            <dependency>
                <groupId>org.slf4j</groupId>
                <artifactId>jcl-over-slf4j</artifactId>
                <version>1.7.7</version>
                <scope>runtime</scope>
            </dependency>
    
            <!--用于与slf4j保持桥接 -->
            <dependency>
                <groupId>org.apache.logging.log4j</groupId>
                <artifactId>log4j-slf4j-impl</artifactId>
                <version>2.9.1</version>
            </dependency>
    
            <!--核心log4j2jar包 -->
            <dependency>
                <groupId>org.apache.logging.log4j</groupId>
                <artifactId>log4j-api</artifactId>
                <version>2.9.1</version>
            </dependency>
            <dependency>
                <groupId>org.apache.logging.log4j</groupId>
                <artifactId>log4j-core</artifactId>
                <version>2.9.1</version>
            </dependency>
            
            <!--web工程需要包含log4j-web,非web工程不需要 -->
            <dependency>
                <groupId>org.apache.logging.log4j</groupId>
                <artifactId>log4j-web</artifactId>
                <version>2.9.1</version>
                <scope>runtime</scope>
            </dependency>
            <!--需要使用log4j2的AsyncLogger需要包含disruptor -->
            <dependency>
                <groupId>com.lmax</groupId>
                <artifactId>disruptor</artifactId>
                <version>3.2.0</version>
            </dependency>
      </dependencies>
      <build>
        <finalName>hibernate</finalName>
        <plugins>
            <plugin>
                <groupId>org.apache.maven.plugins</groupId>
                    <artifactId>maven-compiler-plugin</artifactId>
                    <version>3.7.0</version>
                    <configuration>
                        <source>1.8</source>
                        <target>1.8</target>
                        <encoding>UTF-8</encoding>
                    </configuration>
                </plugin>
        </plugins>
      </build>
    </project>

    导入工具类EhcacheUtil:

    package com.hxc.six.util;
    
    import net.sf.ehcache.Cache;
    import net.sf.ehcache.CacheManager;
    import net.sf.ehcache.Element;
    
    import java.io.InputStream;
    
    public class EhcacheUtil {
    
        private static CacheManager cacheManager;
    
        static {
            try {
                InputStream is = EhcacheUtil.class.getResourceAsStream("/ehcache.xml");
                cacheManager = CacheManager.create(is);
            } catch (Exception e) {
                throw new RuntimeException(e);
            }
        }
    
        private EhcacheUtil() {
        }
    
        public static void put(String cacheName, Object key, Object value) {
            Cache cache = cacheManager.getCache(cacheName);
            if (null == cache) {
                //以默认配置添加一个名叫cacheName的Cache
                cacheManager.addCache(cacheName);
                cache = cacheManager.getCache(cacheName);
            }
            cache.put(new Element(key, value));
        }
    
    
        public static Object get(String cacheName, Object key) {
            Cache cache = cacheManager.getCache(cacheName);
            Element element = cache.get(key);
            return null == element ? null : element.getValue();
        }
    
        public static void remove(String cacheName, Object key) {
            Cache cache = cacheManager.getCache(cacheName);
            cache.remove(key);
        }
    }

    在src/main/resources位置下配置对应xml文件:

    ehcache.xml

    <?xml version="1.0" encoding="UTF-8"?>
    <ehcache xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
             xsi:noNamespaceSchemaLocation="http://ehcache.org/ehcache.xsd"
             updateCheck="false">
        <!--磁盘存储:将缓存中暂时不使用的对象,转移到硬盘,类似于Windows系统的虚拟内存-->
        <!--path:指定在硬盘上存储对象的路径-->
        <!--java.io.tmpdir 是默认的临时文件路径。 可以通过如下方式打印出具体的文件路径 System.out.println(System.getProperty("java.io.tmpdir"));-->
        <diskStore path="D://xxx"/>
    
    
        <!--defaultCache:默认的管理策略-->
        <!--eternal:设定缓存的elements是否永远不过期。如果为true,则缓存的数据始终有效,如果为false那么还要根据timeToIdleSeconds,timeToLiveSeconds判断-->
        <!--maxElementsInMemory:在内存中缓存的element的最大数目-->
        <!--overflowToDisk:如果内存中数据超过内存限制,是否要缓存到磁盘上-->
        <!--diskPersistent:是否在磁盘上持久化。指重启jvm后,数据是否有效。默认为false-->
        <!--timeToIdleSeconds:对象空闲时间(单位:秒),指对象在多长时间没有被访问就会失效。只对eternal为false的有效。默认值0,表示一直可以访问-->
        <!--timeToLiveSeconds:对象存活时间(单位:秒),指对象从创建到失效所需要的时间。只对eternal为false的有效。默认值0,表示一直可以访问-->
        <!--memoryStoreEvictionPolicy:缓存的3 种清空策略-->
        <!--FIFO:first in first out (先进先出)-->
        <!--LFU:Less Frequently Used (最少使用).意思是一直以来最少被使用的。缓存的元素有一个hit 属性,hit 值最小的将会被清出缓存-->
        <!--LRU:Least Recently Used(最近最少使用). (ehcache 默认值).缓存的元素有一个时间戳,当缓存容量满了,而又需要腾出地方来缓存新的元素的时候,那么现有缓存元素中时间戳离当前时间最远的元素将被清出缓存-->
        <defaultCache eternal="false" maxElementsInMemory="1000" overflowToDisk="true" diskPersistent="false"
                      timeToIdleSeconds="600" timeToLiveSeconds="900" memoryStoreEvictionPolicy="LRU"/>
    
    
        <!--name: Cache的名称,必须是唯一的(ehcache会把这个cache放到HashMap里)-->
        <cache name="com.hxc.one.entity.User" eternal="false" maxElementsInMemory="100"
               overflowToDisk="false" diskPersistent="false" timeToIdleSeconds="0"
               timeToLiveSeconds="300" memoryStoreEvictionPolicy="LRU"/>
    </ehcache>

    hibernate.cfg.xml

    <?xml version="1.0" encoding="UTF-8"?>
    <!DOCTYPE hibernate-configuration PUBLIC
        "-//Hibernate/Hibernate Configuration DTD 3.0//EN"
        "http://www.hibernate.org/dtd/hibernate-configuration-3.0.dtd">
    <hibernate-configuration>
        <session-factory>
            <!-- 1. 数据库相关 -->
            <property name="connection.username">root</property>
            <property name="connection.password">123</property>
            <property name="connection.url">jdbc:mysql://localhost:3306/mytable?useUnicode=true&amp;characterEncoding=UTF-8
            </property>
            <property name="connection.driver_class">com.mysql.jdbc.Driver</property>
            <property name="dialect">org.hibernate.dialect.MySQLDialect</property>
          
            
    
            <!-- 配置本地事务(No CurrentSessionContext configured!) -->
            <property name="hibernate.current_session_context_class">thread</property>
    
            <!-- 2. 调试相关 -->
            <property name="show_sql">true</property>
            <property name="format_sql">true</property>
    
            <!-- 开启二级缓存 -->
            <property name="hibernate.cache.use_second_level_cache">true</property>
            <!-- 开启查询缓存 -->
            <property name="hibernate.cache.use_query_cache">true</property>
            <!-- EhCache驱动 -->
            <property name="hibernate.cache.region.factory_class">org.hibernate.cache.ehcache.EhCacheRegionFactory</property>
    
    
            <!-- 3. 添加实体映射文件 -->
            <mapping resource="com/hxc/one/entity/user.hbm.xml" />
            <!-- 主键生成策略 -->
            <mapping resource="com/hxc/two/entity/Student.hbm.xml"/>
            <mapping resource="com/hxc/two/entity/Worker.hbm.xml"/>
            <!-- 一对多关联关系 -->
            <mapping resource="com/hxc/three/entity/Order.hbm.xml"/>
            <mapping resource="com/hxc/three/entity/OrderItem.hbm.xml"/>
            <!-- 一对多自关联 -->
            <mapping resource="com/hxc/four/entity/TreeNode.hbm.xml"/>        
            <!-- 多对多关联 -->
            <mapping resource="com/hxc/four/entity/Book.hbm.xml"/>        
            <mapping resource="com/hxc/four/entity/Category.hbm.xml"/>        
            
        </session-factory>
    </hibernate-configuration>        

    log4j2.xml

    <?xml version="1.0" encoding="UTF-8"?>
    
    <!-- status : 指定log4j本身的打印日志的级别.ALL< Trace < DEBUG < INFO < WARN < ERROR 
        < FATAL < OFF。 monitorInterval : 用于指定log4j自动重新配置的监测间隔时间,单位是s,最小是5s. -->
    <Configuration status="WARN" monitorInterval="30">
        <Properties>
            <!-- 配置日志文件输出目录 ${sys:user.home} -->
            <Property name="LOG_HOME">/root/workspace/lucenedemo/logs</Property>
            <property name="ERROR_LOG_FILE_NAME">/root/workspace/lucenedemo/logs/error</property>
            <property name="WARN_LOG_FILE_NAME">/root/workspace/lucenedemo/logs/warn</property>
            <property name="PATTERN">%d{yyyy-MM-dd HH:mm:ss.SSS} [%t-%L] %-5level %logger{36} - %msg%n</property>
        </Properties>
    
        <Appenders>
            <!--这个输出控制台的配置 -->
            <Console name="Console" target="SYSTEM_OUT">
                <!-- 控制台只输出level及以上级别的信息(onMatch),其他的直接拒绝(onMismatch) -->
                <ThresholdFilter level="trace" onMatch="ACCEPT"
                    onMismatch="DENY" />
                <!-- 输出日志的格式 -->
                <!-- %d{yyyy-MM-dd HH:mm:ss, SSS} : 日志生产时间 %p : 日志输出格式 %c : logger的名称 
                    %m : 日志内容,即 logger.info("message") %n : 换行符 %C : Java类名 %L : 日志输出所在行数 %M 
                    : 日志输出所在方法名 hostName : 本地机器名 hostAddress : 本地ip地址 -->
                <PatternLayout pattern="${PATTERN}" />
            </Console>
    
            <!--文件会打印出所有信息,这个log每次运行程序会自动清空,由append属性决定,这个也挺有用的,适合临时测试用 -->
            <!--append为TRUE表示消息增加到指定文件中,false表示消息覆盖指定的文件内容,默认值是true -->
            <File name="log" fileName="logs/test.log" append="false">
                <PatternLayout
                    pattern="%d{yyyy-MM-dd HH:mm:ss.SSS} [%t] %-5level %logger{36} - %msg%n" />
            </File>
            <!-- 这个会打印出所有的info及以下级别的信息,每次大小超过size, 则这size大小的日志会自动存入按年份-月份建立的文件夹下面并进行压缩,作为存档 -->
            <RollingFile name="RollingFileInfo" fileName="${LOG_HOME}/info.log"
                filePattern="${LOG_HOME}/$${date:yyyy-MM}/info-%d{yyyy-MM-dd}-%i.log">
                <!--控制台只输出level及以上级别的信息(onMatch),其他的直接拒绝(onMismatch) -->
                <ThresholdFilter level="info" onMatch="ACCEPT"
                    onMismatch="DENY" />
                <PatternLayout
                    pattern="%d{yyyy-MM-dd HH:mm:ss.SSS} [%t] %-5level %logger{36} - %msg%n" />
                <Policies>
                    <!-- 基于时间的滚动策略,interval属性用来指定多久滚动一次,默认是1 hour。 modulate=true用来调整时间:比如现在是早上3am,interval是4,那么第一次滚动是在4am,接着是8am,12am...而不是7am. -->
                    <!-- 关键点在于 filePattern后的日期格式,以及TimeBasedTriggeringPolicy的interval, 日期格式精确到哪一位,interval也精确到哪一个单位 -->
                    <!-- log4j2的按天分日志文件 : info-%d{yyyy-MM-dd}-%i.log -->
                    <TimeBasedTriggeringPolicy interval="1"
                        modulate="true" />
                    <!-- SizeBasedTriggeringPolicy:Policies子节点, 基于指定文件大小的滚动策略,size属性用来定义每个日志文件的大小. -->
                    <!-- <SizeBasedTriggeringPolicy size="2 kB" /> -->
                </Policies>
            </RollingFile>
    
            <RollingFile name="RollingFileWarn" fileName="${WARN_LOG_FILE_NAME}/warn.log"
                filePattern="${WARN_LOG_FILE_NAME}/$${date:yyyy-MM}/warn-%d{yyyy-MM-dd}-%i.log">
                <ThresholdFilter level="warn" onMatch="ACCEPT"
                    onMismatch="DENY" />
                <PatternLayout
                    pattern="%d{yyyy-MM-dd HH:mm:ss.SSS} [%t] %-5level %logger{36} - %msg%n" />
                <Policies>
                    <TimeBasedTriggeringPolicy />
                    <SizeBasedTriggeringPolicy size="2 kB" />
                </Policies>
                <!-- DefaultRolloverStrategy属性如不设置,则默认为最多同一文件夹下7个文件,这里设置了20 -->
                <DefaultRolloverStrategy max="20" />
            </RollingFile>
    
            <RollingFile name="RollingFileError" fileName="${ERROR_LOG_FILE_NAME}/error.log"
                filePattern="${ERROR_LOG_FILE_NAME}/$${date:yyyy-MM}/error-%d{yyyy-MM-dd-HH-mm}-%i.log">
                <ThresholdFilter level="error" onMatch="ACCEPT"
                    onMismatch="DENY" />
                <PatternLayout
                    pattern="%d{yyyy-MM-dd HH:mm:ss.SSS} [%t] %-5level %logger{36} - %msg%n" />
                <Policies>
                    <!-- log4j2的按分钟 分日志文件 : warn-%d{yyyy-MM-dd-HH-mm}-%i.log -->
                    <TimeBasedTriggeringPolicy interval="1"
                        modulate="true" />
                    <!-- <SizeBasedTriggeringPolicy size="10 MB" /> -->
                </Policies>
            </RollingFile>
    
        </Appenders>
    
        <!--然后定义logger,只有定义了logger并引入的appender,appender才会生效 -->
        <Loggers>
            <!--过滤掉spring和mybatis的一些无用的DEBUG信息 -->
            <logger name="org.springframework" level="INFO"></logger>
            <logger name="org.mybatis" level="INFO"></logger>
    
            <!-- 第三方日志系统 -->
            <logger name="org.springframework" level="ERROR" />
            <logger name="org.hibernate" level="ERROR" />
            <logger name="org.apache.struts2" level="ERROR" />
            <logger name="com.opensymphony.xwork2" level="ERROR" />
            <logger name="org.jboss" level="ERROR" />
    
    
            <!-- 配置日志的根节点 -->
            <root level="all">
                <appender-ref ref="Console" />
                <appender-ref ref="RollingFileInfo" />
                <appender-ref ref="RollingFileWarn" />
                <appender-ref ref="RollingFileError" />
            </root>
    
        </Loggers>
    
    </Configuration>

    配置对应的user.hbm.xml

    <cache usage="read-write"  region="com.hxc.one.entity.User"/> 

    创建测试类

    EhcacheDemo1 
    package com.hxc.six.test;
    
    import java.util.HashMap;
    import java.util.Map;
    
    /**
     * 利用map集合简易实现缓存原理
     * @author Administrator
     *
     */
    public class EhcacheDemo1 {
        static Map<String, Object> cache = new HashMap<String, Object>();
        static Object getValue(String key) {
            Object value = cache.get(key);
            System.out.println("从内存中读取数据");
            if(value == null) {
                System.out.println("从数据库中读取数据");
                System.out.println("hello zs");
                cache.put(key, new String[] {"zs"});
                return cache.get(key);
            }
            return value;
        }
        
        public static void main(String[] args) {
            System.out.println(getValue("sname"));
            System.out.println(getValue("sname"));
            
    //        从内存中读取数据
    //        从数据库中读取数据
    //        hello zs
    //        [Ljava.lang.String;@33909752
    //        从内存中读取数据
    //        [Ljava.lang.String;@33909752
        }
    }
    EhcacheDemo2 
    package com.hxc.six.test;
    
    import com.hxc.six.util.EhcacheUtil;
    
    /**
     * 演示利用缓存存储数据
     * @author Administrator
     *
     */
    public class EhcacheDemo2 {
        public static void main(String[] args) {
            System.out.println(System.getProperty("java.io.tmpdir"));
            EhcacheUtil.put("com.hxc.one.entity.User", 11, "zhangsan");
            System.out.println(EhcacheUtil.get("com.hxc.one.entity.User", 11));
        }
    }
    EhcacheDemo3 
    package com.hxc.six.test;
    
    import org.hibernate.Session;
    import org.hibernate.Transaction;
    
    import com.hxc.one.entity.User;
    import com.hxc.two.util.SessionFactoryUtils;
    
    
    /**
     * 演示查单个用户使用了缓存
     * @author Administrator
     *
     */
    public class EhcacheDemo3 {
        /**
         * 默认情况下,sql语句形成了三次,这里为了提高性能,必须使用二级缓存SessionFactory缓存
         *  <!-- 开启二级缓存 -->
         *  <property name="hibernate.cache.use_second_level_cache">true</property>
          <!-- 开启查询缓存 -->
          <property name="hibernate.cache.use_query_cache">true</property>
          <!-- EhCache驱动 -->
          <property name="hibernate.cache.region.factory_class">org.hibernate.cache.ehcache.EhCacheRegionFactory</property>
          
              映射文件中添加标签
              <cache usage="read-write" region="com.hxc.one.entity.User"/>
              这里的region指的是Ehcache.xml中cacheName
         * @param args
         */
    //    public static void main(String[] args) {
    //        UserDao userDao  = new UserDao();
    //        User u = new User();
    //        u.setId(7);
    //        User user = userDao.get(u);
    //        System.out.println(user);
    //        User user2 = userDao.get(u);
    //        System.out.println(user2);
    //        User user3 = userDao.get(u);
    //        System.out.println(user3);
    //        
    //    }
        
        /**
         * 同一个session,sql语句只生成一次,这里用到了一级缓存
         */
        public static void main(String[] args) {
            Session session=SessionFactoryUtils.openSession();
            Transaction transaction = session.beginTransaction();
            
            User user = session.get(User.class, 7);
            System.out.println(user);
            User user2 = session.get(User.class, 7);
            System.out.println(user2);
            User user3 = session.get(User.class, 7);
            System.out.println(user3);
            
            transaction.commit();
            session.close();
        }
    }
    EhcacheDemo4 
    package com.hxc.six.test;
    
    import java.util.List;
    
    import org.hibernate.Session;
    import org.hibernate.Transaction;
    import org.hibernate.query.Query;
    
    import com.hxc.two.util.SessionFactoryUtils;
    
    
    /**
     * hibernate二级缓存不会同时缓存多条数据
     * @author Administrator
     *
     */
    public class EhcacheDemo4 {
        public static void main(String[] args) {
            Session session = SessionFactoryUtils.openSession();
            Transaction transaction = session.beginTransaction();
            
            Query query = session.createQuery("from User");
            query.setCacheable(true);
            List list = query.list();
            System.out.println(list);
            List list2 = query.list();
            System.out.println(list2);
            List list3 = query.list();
            System.out.println(list3);
            
            
            transaction.commit();
            session.close();
        }
    }
  • 相关阅读:
    使用Apache搭建个人用户主页
    Linux搭建ftp服务器,并建立本地用户与虚拟用户
    Linux搭建FTP服务器,并建立匿名用户登录
    用虚拟机安装RHEL7
    基于OpenStack构建企业私有云(5)Neutron
    基于OpenStack构建企业私有云(3)Glance
    基于OpenStack构建企业私有云(1)实验环境准备
    基于OpenStack构建企业私有云(2)KeyStone
    python--003--百分号字符串拼接、format
    python--002--数据类型(set)
  • 原文地址:https://www.cnblogs.com/huxiaocong/p/11333247.html
Copyright © 2020-2023  润新知