【本文完善中...】前端
不管是http接口,仍是rpc接口,防重复提交(接口防重)都是绕不过的话题。vue
重复提交与幂等,既有区别,又有联系。幂等的意思是,对资源的一次请求与屡次请求,做用是相同的。例如,HTTP的POST方法是非幂等的。若是程序处理很差,重复提交会致使非幂等,引发系统数据故障。防重复提交,当属于幂等的范畴,首先经过技术手段来实现,其次,又要有对业务数据的惟一性验证。java
常见的B/S场景的重复提交,用户手抖或由于网络问题,服务端在极短期内两次甚至更屡次收到一样的http请求。node
rpc接口的重复提交,一种是不恰当的程序调用,即程序漏洞致使重复提交。在一种,好比拿dubbo来讲,由于网络传输问题,会触发重试调用。git
防重提交的方案,常见的是加锁。分布式系统,通常是借助redis或zk等分布式锁。对于java单体应用,有网友说能够用语言自己的synchronized锁机制,严格来讲,这样是不恰当的,由于synchronized是多线程下的同步锁,只会阻塞线程执行,而不会阻断线程的执行。github
【说明几点】web
类图:ajax
RedisDistributedLockredis
package com.emax.zhenghe.rpcapi.provider.config.distributeRedisLock; import lombok.extern.slf4j.Slf4j; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.data.redis.core.RedisTemplate; import org.springframework.data.redis.core.script.DefaultRedisScript; import org.springframework.stereotype.Component; import javax.annotation.Resource; import java.util.Arrays; import java.util.UUID; import java.util.concurrent.TimeUnit; @Component @Slf4j public class RedisDistributedLock extends AbstractDistributedLock { @Autowired @Resource private RedisTemplate<Object, Object> redisTemplate; private ThreadLocal<String> lockFlag = new ThreadLocal<String>(); public static final String UNLOCK_LUA; static { StringBuilder sb = new StringBuilder(); sb.append("if redis.call(\"get\",KEYS[1]) == ARGV[1] "); sb.append("then "); sb.append(" return redis.call(\"del\",KEYS[1]) "); sb.append("else "); sb.append(" return 0 "); sb.append("end "); UNLOCK_LUA = sb.toString(); } public RedisDistributedLock() { super(); } @Override public boolean lock(String key, long expire, int retryTimes, long sleepMillis) { boolean result = setRedis(key, expire); // 若是获取锁失败,按照传入的重试次数进行重试 while ((!result) && retryTimes-- > 0) { try { log.debug("lock failed, retrying..." + retryTimes); Thread.sleep(sleepMillis); } catch (InterruptedException e) { return false; } result = setRedis(key, expire); } return result; } /** * * @param key * @param expire MILLISECONDS * @return */ private boolean setRedis(final String key, final long expire) { try { String uuid = UUID.randomUUID().toString(); lockFlag.set(uuid); return redisTemplate.opsForValue().setIfAbsent(key,uuid,expire,TimeUnit.MILLISECONDS); } catch (Exception e) { log.info("redis lock error.", e); } return false; } @Override public boolean releaseLock(String key) { // 释放锁的时候,有可能由于持锁以后方法执行时间大于锁的有效期,此时有可能已经被另一个线程持有锁,因此不能直接删除 try { DefaultRedisScript<Boolean> defaultRedisScript = new DefaultRedisScript<Boolean>(UNLOCK_LUA,Boolean.class); return redisTemplate.execute(defaultRedisScript,Arrays.asList(key),lockFlag.get()); } catch (Exception e) { log.error("release lock occured an exception", e); } finally { // 清除掉ThreadLocal中的数据,避免内存溢出 lockFlag.remove(); } return false; } }
AbstractDistributedLockspring
package com.emax.zhenghe.rpcapi.provider.config.distributeRedisLock; public abstract class AbstractDistributedLock implements DistributedLock { @Override public boolean lock(String key) { return lock(key , TIMEOUT_MILLIS, RETRY_TIMES, SLEEP_MILLIS); } @Override public boolean lock(String key, int retryTimes) { return lock(key, TIMEOUT_MILLIS, retryTimes, SLEEP_MILLIS); } @Override public boolean lock(String key, int retryTimes, long sleepMillis) { return lock(key, TIMEOUT_MILLIS, retryTimes, sleepMillis); } @Override public boolean lock(String key, long expire) { return lock(key, expire, RETRY_TIMES, SLEEP_MILLIS); } @Override public boolean lock(String key, long expire, int retryTimes) { return lock(key, expire, retryTimes, SLEEP_MILLIS); } }
DistributedLock
package com.emax.zhenghe.rpcapi.provider.config.distributeRedisLock; public interface DistributedLock { long TIMEOUT_MILLIS = 30000; int RETRY_TIMES = 2; long SLEEP_MILLIS = 500; boolean lock(String key); boolean lock(String key, int retryTimes); boolean lock(String key, int retryTimes, long sleepMillis); boolean lock(String key, long expire); boolean lock(String key, long expire, int retryTimes); boolean lock(String key, long expire, int retryTimes, long sleepMillis); boolean releaseLock(String key); }
上面的加锁和释放锁都暴露在了业务调用方,增长了业务调用方的职责,同时,若是使用不当,还会产生bug。
接下来,咱们稍做重构。看看下面的RedisLockTemplate
package com.emax.zhenghe.rpcapi.provider.config.distributeRedisLock; import lombok.extern.slf4j.Slf4j; import org.apache.commons.lang3.StringUtils; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.stereotype.Component; /** * redis分布式锁并发控制模板类 * * @author zhangguozhan */ @Slf4j @Component public class RedisLockTemplate { @Autowired private RedisDistributedLock redisDistributedLock; /** * redis分布式锁控制 * * @param key 锁名 * @param expireMS 锁的生命周期,单位:毫秒 * @param redisLockCallback callback方法 * @return */ public Object execute(String key, long expireMS, RedisLockCallback redisLockCallback) { return execute(key, expireMS, redisLockCallback, false, 2); } /** * redis分布式锁控制 * * @param key * @param expireMS * @param redisLockCallback * @param isAutoReleaseLock callback方法执行完成后自动释放锁 * @return */ public Object execute(String key, long expireMS, RedisLockCallback redisLockCallback, boolean isAutoReleaseLock, int retryTimes) { log.info("redis分布式锁控制 key={}", key); if (StringUtils.isBlank(key)) { log.info("try lock failure:key is null"); return null; } boolean lock = redisDistributedLock.lock(key, expireMS, retryTimes); if (lock) { try { Object o = redisLockCallback.doInRedisLock(); return o; } finally { if (isAutoReleaseLock) { redisDistributedLock.releaseLock(key); } } } else { log.info("###key已存在,终止 key={}", key); return null; } } }
RedisLockCallback是一个函数式接口
package com.emax.zhenghe.rpcapi.provider.config.distributeRedisLock; public interface RedisLockCallback { Object doInRedisLock(); }
这样,业务的调用就变得很easy了。
如今的web项目通常都是采用先后端分离的开发模式了,前端的程序框架也百花齐放,常见的有vue、nodejs等等。
对于用户手抖致使的重复提交,服务端的作法就是利用上面的分布式控制,非首次的请求由于上锁失败而中断处理,前端收到的是“请勿重复提交”这样的提示。我原觉得这样可能会影响用户体验。后来咨询前端同事,原来事实并不是如此。
本身写了一个demo,模拟重复提交。页面异步重复发起相同的请求,服务端重复处理。第一次是加锁,正常处理请求,第二次是发现锁已存在,上锁失败,直接返回“请勿重复提交”的提示。页面会收到两次的响应结果。不过,由于第二次的请求上锁失败直接返回错误提示,因此响应早于第一次的响应。ajax判断响应的逻辑是若是是成功(正常响应,视为成功),就触发相应的后续处理,若是是失败(“请勿重复提交”视为失败),就toast提示。 所以,虽然toast了一下,只是一瞬间,第一次请求的响应来了以后,就会正常处理页面逻辑。
因此,上面的防重机制,也是比较合适的方案。
固然,应该校验的业务逻辑仍是要有的,尤为是数据校验。这属于业务范畴了。
本文代码已放到github: