博客
关于我
Spring缓存使用
阅读量:324 次
发布时间:2019-03-04

本文共 3033 字,大约阅读时间需要 10 分钟。

对于Java中Cache的使用,Java做出了规范

JSR107定义了5个核心接口,分别是CachingProvider, CacheManager, Cache, Entry和Expiry。
CachingProvider定义了创建、配置、获取、管理和控制多个CacheManager。如redis。一个应用可以在运行期访问多个CachingProvider。
CacheManager定义了创建、配置、获取、管理和控制多个唯一命名的Cache,这些Cache存在于CacheManager的上下文中。一个CacheManager仅被一个CachingProvider所拥有。
Cache是一个类似Map的数据结构并临时存储以Key为索引的值。一个Cache仅被一个CacheManager所拥有。
Entry是一个存储在Cache中的key-value对。
Expiry每一个存储在Cache中的条目有一个定义的有效期。一旦超过这个时间,条目为过期的状态。一旦过期,条目将不可访问、更新和删除。缓存有效期可以通过ExpiryPolicy设置。

Spring对Java的Cache标准进行实现,且更加易于使用。Spring从3.1开始定义了和org.springframework.cache.CacheManager接口来统一不同的缓存技术;并支持使用JCache(JSR-107)注解简化我们开发;所以在使用时,我们可以使用JSR规定的注解,也可以使用Spring定义的注解,但是Spring强烈建议不要混用Spring Cache和JCache的注解。下面我们来说使用时涉及的原理。

CacheManger是缓存的管理者,

Spring支持全透明加入Cache到应用中,调用者不用调用任何接口,只需使用@EnableCaching注解即可将Cache加入到应用中。如果你的应用中没有引入任何cache library(如redis),Spring Boot会自动配置一个使用concurrent maps的simple provider,当你需要使用cache的使用,simple provider会为你创建cache,Spring不建议你在生产环境中使用这个默认的simple provider。

使用Spring Cache你需要定义一个CacheManager or a CacheResolver named cacheResolver,否则Spring会按照下列顺序检测cache provider

Generic

JCache (JSR-107) (EhCache 3, Hazelcast, Infinispan, and others)
EhCache 2.x
Hazelcast
Infinispan
Couchbase
Redis
Caffeine
Simple

当然你可以配置spring.cache.type这个属性来指定cache provider,如果你指定spring.cache.type=none则会关闭Spring Cache。如果需要Spring Cache可以正常工作,必须配置一个CacheManager。

cacheManager接口的作用是用来获取Cache,类似一种对象工厂,所有的Cache,必须依赖与CacheManager来获取。

在Spring内部提供了三个默认的实现:
SimpleCacheManager 简单的集合实现
ConcurrentMapCacheManager 内部使用ConcurrentHashMap作为缓存容器
NoOpCacheManager 一个空的实现,不会保存任何记录(spring.cache.type=none)

下面就来说说具体的操作,通常情况下,你需要定义的一个CacheManager给到Spring管理:

@Configuration@EnableCaching@AutoConfigureAfter(RedisAutoConfiguration.class)public class CacheManagerConfiguration extends CachingConfigurerSupport {    public interface CacheManagerNames {        String REDIS_CACHE_MANAGER = "redisCacheManager";    }    @Bean(name = CacheManagerNames.REDIS_CACHE_MANAGER)    public RedisCacheManager redisCacheManager(RedisConnectionFactory redisConnectionFactory) {        // 建议配置,比如动态创建出来的都会走此默认配        RedisCacheConfiguration defaultCacheConfig = RedisCacheConfiguration.defaultCacheConfig()                .entryTtl(Duration.ofHours(1))                .computePrefixWith(cacheName -> "default:" + cacheName);        // Cache属性配置        Map
cacheConfigurations = ImmutableMap.
builder() // method-cache对应着cacheName,可以为多个cacheName独立设置 .put(CacheConstant.METHOD_CACHE, RedisCacheConfiguration. defaultCacheConfig(). entryTtl(Duration.ofMinutes(15)). disableCachingNullValues()). build(); // RedisCacheManager构建 RedisCacheManager redisCacheManager = RedisCacheManager.RedisCacheManagerBuilder. fromConnectionFactory(redisConnectionFactory). cacheDefaults(defaultCacheConfig). withInitialCacheConfigurations(cacheConfigurations). build(); return redisCacheManager; }}

 

转载地址:http://vuzh.baihongyu.com/

你可能感兴趣的文章
ngrok | 内网穿透,支持 HTTPS、国内访问、静态域名
查看>>
ngrok内网穿透可以实现资源共享吗?快解析更加简洁
查看>>
NHibernate学习[1]
查看>>
NHibernate异常:No persister for的解决办法
查看>>
nid修改oracle11gR2数据库名
查看>>
NIFI1.21.0/NIFI1.22.0/NIFI1.24.0/NIFI1.26.0_2024-06-11最新版本安装_采用HTTP方式_搭建集群_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>