面试阿里被问:“你的项目是如何处理重复请求/并发请求的?”

对于一些用户请求,在某些状况下是可能重复发送的,若是是查询类操做并没有大碍,但其中有些是涉及写入操做的,一旦重复了,可能会致使很严重的后果,例如交易的接口若是重复请求可能会重复下单。前端

重复的场景有多是:redis

黑客拦截了请求,重放
前端/客户端由于某些缘由请求重复发送了,或者用户在很短的时间内重复点击了。
网关重发
….
本文讨论的是如何在服务端优雅地统一处理这种状况,如何禁止用户重复点击等客户端操做不在本文的讨论范畴。ide

利用惟一请求编号去重工具

你可能会想到的是,只要请求有惟一的请求编号,那么就能借用Redis作这个去重——只要这个惟一请求编号在redis存在,证实处理过,那么就认为是重复的测试

代码大概以下:优化

String KEY = "REQ12343456788";//请求惟一编号
long expireTime =  1000;// 1000毫秒过时,1000ms内的重复请求会认为重复
long expireAt = System.currentTimeMillis() + expireTime;
String val = "expireAt@" + expireAt;

//redis key还存在的话要就认为请求是重复的
Boolean firstSet = stringRedisTemplate.execute((RedisCallback<Boolean>) connection -> connection.set(KEY.getBytes(), val.getBytes(), Expiration.milliseconds(expireTime), RedisStringCommands.SetOption.SET_IF_ABSENT));

final boolean isConsiderDup;
if (firstSet != null && firstSet) {// 第一次访问
    isConsiderDup = false;
} else {// redis值已存在,认为是重复了
    isConsiderDup = true;
}

业务参数去重debug

上面的方案能解决具有惟一请求编号的场景,例如每次写请求以前都是服务端返回一个惟一编号给客户端,客户端带着这个请求号作请求,服务端便可完成去重拦截。日志

可是,不少的场景下,请求并不会带这样的惟一编号!那么咱们可否针对请求的参数做为一个请求的标识呢?code

先考虑简单的场景,假设请求参数只有一个字段reqParam,咱们能够利用如下标识去判断这个请求是否重复。用户ID:接口名:请求参数排序

String KEY = "dedup:U="+userId + "M=" + method + "P=" + reqParam;
那么当同一个用户访问同一个接口,带着一样的reqParam过来,咱们就能定位到他是重复的了。

可是问题是,咱们的接口一般不是这么简单,以目前的主流,咱们的参数一般是一个JSON。那么针对这种场景,咱们怎么去重呢?

计算请求参数的摘要做为参数标识

假设咱们把请求参数(JSON)按KEY作升序排序,排序后拼成一个字符串,做为KEY值呢?但这可能很是的长,因此咱们能够考虑对这个字符串求一个MD5做为参数的摘要,以这个摘要去取代reqParam的位置。

String KEY = "dedup:U="+userId + "M=" + method + "P=" + reqParamMD5;
这样,请求的惟一标识就打上了!

注:MD5理论上可能会重复,可是去重一般是短期窗口内的去重(例如一秒),一个短期内同一个用户一样的接口能拼出不一样的参数致使同样的MD5几乎是不可能的。

继续优化,考虑剔除部分时间因子

上面的问题其实已是一个很不错的解决方案了,可是实际投入使用的时候可能发现有些问题:某些请求用户短期内重复的点击了(例如1000毫秒发送了三次请求),但绕过了上面的去重判断(不一样的KEY值)。

缘由是这些请求参数的字段里面,是带时间字段的,这个字段标记用户请求的时间,服务端能够借此丢弃掉一些老的请求(例如5秒前)。以下面的例子,请求的其余参数是同样的,除了请求时间相差了一秒:

//两个请求同样,可是请求时间差一秒
String req = "{\n" +
""requestTime" :"20190101120001",\n" +
""requestValue" :"1000",\n" +
""requestKey" :"key"\n" +
"}";

String req2 = "{\n" +
        "\"requestTime\" :\"20190101120002\",\n" +
        "\"requestValue\" :\"1000\",\n" +
        "\"requestKey\" :\"key\"\n" +
        "}";

这种请求,咱们也极可能须要挡住后面的重复请求。因此求业务参数摘要以前,须要剔除这类时间字段。还有相似的字段多是GPS的经纬度字段(重复请求间可能有极小的差异)。

请求去重工具类,Java实现

public class ReqDedupHelper {

/**
 *
 * @param reqJSON 请求的参数,这里一般是JSON
 * @param excludeKeys 请求参数里面要去除哪些字段再求摘要
 * @return 去除参数的MD5摘要
 */
public String dedupParamMD5(final String reqJSON, String... excludeKeys) {
    String decreptParam = reqJSON;

    TreeMap paramTreeMap = JSON.parseObject(decreptParam, TreeMap.class);
    if (excludeKeys!=null) {
        List<String> dedupExcludeKeys = Arrays.asList(excludeKeys);
        if (!dedupExcludeKeys.isEmpty()) {
            for (String dedupExcludeKey : dedupExcludeKeys) {
                paramTreeMap.remove(dedupExcludeKey);
            }
        }
    }

    String paramTreeMapJSON = JSON.toJSONString(paramTreeMap);
    String md5deDupParam = jdkMD5(paramTreeMapJSON);
    log.debug("md5deDupParam = {}, excludeKeys = {} {}", md5deDupParam, Arrays.deepToString(excludeKeys), paramTreeMapJSON);
    return md5deDupParam;
}

private static String jdkMD5(String src) {
    String res = null;
    try {
        MessageDigest messageDigest = MessageDigest.getInstance("MD5");
        byte[] mdBytes = messageDigest.digest(src.getBytes());
        res = DatatypeConverter.printHexBinary(mdBytes);
    } catch (Exception e) {
        log.error("",e);
    }
    return res;
}

}
下面是一些测试日志:

public static void main(String[] args) {
//两个请求同样,可是请求时间差一秒
String req = "{\n" +
""requestTime" :"20190101120001",\n" +
""requestValue" :"1000",\n" +
""requestKey" :"key"\n" +
"}";

String req2 = "{\n" +
        "\"requestTime\" :\"20190101120002\",\n" +
        "\"requestValue\" :\"1000\",\n" +
        "\"requestKey\" :\"key\"\n" +
        "}";

//全参数比对,因此两个参数MD5不一样
String dedupMD5 = new ReqDedupHelper().dedupParamMD5(req);
String dedupMD52 = new ReqDedupHelper().dedupParamMD5(req2);
System.out.println("req1MD5 = "+ dedupMD5+" , req2MD5="+dedupMD52);

//去除时间参数比对,MD5相同
String dedupMD53 = new ReqDedupHelper().dedupParamMD5(req,"requestTime");
String dedupMD54 = new ReqDedupHelper().dedupParamMD5(req2,"requestTime");
System.out.println("req1MD5 = "+ dedupMD53+" , req2MD5="+dedupMD54);

}
日志输出:

req1MD5 = 9E054D36439EBDD0604C5E65EB5C8267 , req2MD5=A2D20BAC78551C4CA09BEF97FE468A3F
req1MD5 = C2A36FED15128E9E878583CAAAFEFDE9 , req2MD5=C2A36FED15128E9E878583CAAAFEFDE9
日志说明:

一开始两个参数因为requestTime是不一样的,因此求去重参数摘要的时候能够发现两个值是不同的
第二次调用的时候,去除了requestTime再求摘要(第二个参数中传入了”requestTime”),则发现两个摘要是同样的,符合预期。
总结

至此,咱们能够获得完整的去重解决方案,以下:

String userId= "12345678";//用户
String method = "pay";//接口名
String dedupMD5 = new ReqDedupHelper().dedupParamMD5(req,"requestTime");//计算请求参数摘要,其中剔除里面请求时间的干扰
String KEY = "dedup:U=" + userId + "M=" + method + "P=" + dedupMD5;

long expireTime = 1000;// 1000毫秒过时,1000ms内的重复请求会认为重复
long expireAt = System.currentTimeMillis() + expireTime;
String val = "expireAt@" + expireAt;

// NOTE:直接SETNX不支持带过时时间,因此设置+过时不是原子操做,极端状况下可能设置了就不过时了,后面相同请求可能会误觉得须要去重,因此这里使用底层API,保证SETNX+过时时间是原子操做
Boolean firstSet = stringRedisTemplate.execute((RedisCallback ) connection -> connection.set(KEY.getBytes(), val.getBytes(), Expiration.milliseconds(expireTime),
RedisStringCommands.SetOption.SET_IF_ABSENT));

final boolean isConsiderDup; if (firstSet != null && firstSet) { isConsiderDup = false; } else { isConsiderDup = true; }

相关文章
相关标签/搜索