在服务器配置不算高的状况下,频繁地访问数据库会增长许多开销,当查询的内容较多或较复杂时,会占用不少的查询时间,容易使得访问卡,慢,出错等状况。因为以前在部署网站的时候,我没有采用那些经常使用的缓存技术,随着个人发表文章愈来愈多,我也感觉到了卡,慢的现象,用户体验不好。以前我也学习过redis基本使用,并且将所学习内容总结在Redis使用教程 (全)这篇文章里,此次是将Redis应用在Django项目中,一块儿来学习下吧!前端
首先,有必要对redis做一个简单介绍,一个开源的高性能的key-value存储系统python
1) redis支持数据的持久化,能够将内存中的数据保持在磁盘中,重启的时候能够再次加载进行使用
2) redis不只仅支持简单的key-value类型的数据,同时还提供list,set,sorted set,hash等数据结构的存储
3) redis支持数据的备份,即master-slave模式的数据备份redis
1) 性能极高 – redis能读的速度是110000次/s,写的速度是81000次/s
2) 丰富的数据类型 – Redis支持二进制案例的 String, List, Hash, Set 及 Sorted Set 数据类型操做
3) 原子 – redis的全部操做都是原子性的,同时Redis还支持对几个操做全并后的原子性执行
4) 丰富的特性 – redis还支持 publish/subscribe, 通知, key 过时等等特性shell
了解到上面的redis内容,看看如何将redis缓存应Django服务器中数据库
具体安装,见Redis使用教程 (全)django
安装好后,可将redis服务以守护进程运行json
执行命令,便可安装:缓存
pip install django-redis
目前django-redis已更新到4.9.0版本。安装完毕以后,给Django项目的settings.py文件添加以下配置bash
CACHES = { 'default': { 'BACKEND': 'django_redis.cache.RedisCache', 'LOCATION': '127.0.0.1:6379', "OPTIONS": { "CLIENT_CLASS": "django_redis.client.DefaultClient", }, }, }
网上大部分文章该部分配置有误(多是旧版的redis库对应配置),都是写成以下:服务器
CACHES = { 'default': { 'BACKEND': 'redis_cache.cache.RedisCache', 'LOCATION': '127.0.0.1:6379', "OPTIONS": { "CLIENT_CLASS": "redis_cache.client.DefaultClient", }, }, }
这么写会报错:InvalidCacheBackendError: Could not find backend redis_cache.cache.RedisCache': No module named redis_cache.cache。找不到对应的模块。另外,LOCATION参数和你的redis.conf文件中IP地址和端口要一致。redis服务才能监听到你的读写操做
该步骤非必须,只是为了测试看能否正常使用redis
进入django的后台命令模式:
python manage.py shell
逐条输入以下命令测试:
from django.core.cache import cache #引入缓存模块 cache.set('k', '12314', 30*60) #写入key为k,值为12314的缓存,有效期30分钟 cache.has_key('k') #判断key为k是否存在 cache.get('k') #获取key为k的缓存
测试没问题,则说明可正常使用
若出现错误:ConnectionError: Error 10061 connecting to None:6379。说明没开启redis
redis支持字符串、列表、集合、字典等数据结构。经测试,可将Python的字典和列表直接存储。也能够用json模块对字典和列表转化成字符串再存储
至于缓存时效看具体状况,建议30分钟或者1小时更新一次。本来我考虑1天更新1次数据,但全球有不少个时区。不是每一个时区都和我同样在0点的时候看到更新结果。因此,每1小时更新一次的频率较为合适,你能够直接设置60*60秒。而我须要整点的时候更新,须要再多一步计算到下一个整点还有多少秒
我将一些复杂的查询作了改动,主要是一些文章排行的统计,下面是获取最新发表与最新推荐的排行缓存内容,注释的部分代码是以前没有使用缓存,直接操做的数据库。其中随机发表不适合使用缓存,不然查询出来的就是固定文章,从而不具备随机性了
# 最新发表的15篇博客 # new_publish = Post.objects.filter(Q(display=0) | Q(display__isnull=True))[:15] new_publish = cache.get('new_publish') if new_publish is None: new_publish = Post.objects.filter(Q(display=0) | Q(display__isnull=True))[:15] # 60*60表示60秒*60,也就是1小时 cache.set('new_publish', new_publish, 60 * 60) # 获取Post模型类或模型的实例,并返回ContentType表示该模型的实例 post_content_type = ContentType.objects.get_for_model(Post) # 最新推荐的15篇博客 # new_recommend = get_new_recommend_post(post_content_type) new_recommend = cache.get('new_recommend') if new_recommend is None: new_recommend = get_new_recommend_post(post_content_type) # 60*60表示60秒*60,也就是1小时 cache.set('new_recommend', new_recommend, 60 * 60
还有周榜,月榜,总榜
# 阅读量周榜博客榜单 # last_7_days_hot_data = get_7_days_read_posts() last_7_days_hot_data = cache.get('last_7_days_hot_data') if last_7_days_hot_data is None: last_7_days_hot_data = get_7_days_read_posts() # 60*60表示60秒*60,也就是1小时 cache.set('last_7_days_hot_data', last_7_days_hot_data, 60 * 60) # 阅读量月榜博客榜单 # last_30_days_hot_data = get_30_days_read_posts() last_30_days_hot_data = cache.get('last_30_days_hot_data') if last_30_days_hot_data is None: last_30_days_hot_data = get_30_days_read_posts() # 60*60表示60秒*60,也就是1小时 cache.set('last_30_days_hot_data', last_30_days_hot_data, 60 * 60) # 阅读量总榜博客榜单 # all_hot_posts = get_all_read_posts() all_hot_posts = cache.get('all_hot_posts') if all_hot_posts is None: all_hot_posts = get_all_read_posts() # 60*60表示60秒*60,也就是1小时 cache.set('all_hot_posts', all_hot_posts, 60 * 60)
这里只是简单地表示一下缓存的应用,因此直接将定义的函数写入了代码中,若是不清楚排行的统计功能,能够看看以前写的博客统计排行
运行以后可使用redis-cli和keys *的命令检查当前redis库中是否存在上述键,若是没有看到,能够尝试从新启动Web服务
这里我写入redis缓存是被动写入。须要打开前端页面触发该行为,一小时后缓存内容自动消失,仍须要从新加载。因此打开页面正好须要写入缓存时,该页面打开速度相对慢一点。有了缓存以后,后面打开速度仍是有很多改善。经测试,这一点改动,打开首页足足加快了0.5-1秒。
原文出处:https://www.jzfblog.com/detail/115,文章的更新编辑以此连接为准。欢迎关注源站文章!