2019年双11来了。1分36秒100亿,5分25秒超过300亿,12分49秒超500亿……若是没有双11,中国的互联网技术要发展到今天的水平,或许要再多花20年。数据库
从双11诞生至今的11年里,有一个场景始终在支付宝技术团队之中循环往复——每年肯定目标时,你们都将信将疑,或惊呼或腹诽:“不可能!太夸张了吧!”但每年的夸张目标,到最后都能奇迹般地成为现实。服务器
前一年须要拼命跃起才可以到的果实,后一年就会成为再普通不过的平常。不知不觉之间,双11已经从最初启航时的小船,成为了承载数十亿人快乐和梦想的巨舰。在这个举世瞩目的“奇迹工程”背后,是技术和技术人一块儿,十余年如一日,以难以置信的“中国速度”在不知疲倦地向前奔跑。架构
技术人的初衷每每极致单纯——既然决定要作,那就尽心尽力,勇往直前,但当他们一步一个脚印风雨兼程地走来,蓦然回首,就发现奇迹已经在那里了。app
2009年11月11日,对于支付宝工程师陈亮而言,原本是与往常没有任何不一样的一天。运维
那年尚未支付宝大楼,更没有Z空间,他趟过早高峰的车流,坐到华星时代广场的工位上时,一封来自CTO程立的邮件发到了他的电脑里:今天淘宝商城要搞一个促销活动,预估交易量比较大,你们盯着点系统。分布式
陈亮当时所在的团队主要职责是保障整个系统的稳定可靠。在促销活动的场景下,通俗地说来,就是要保障服务器“坚挺”,别被蜂拥而来的用户挤爆了。工具
淘宝商城在2009年的8月刚刚重组上线,日均交易量对于当时的支付宝而言,要稳稳接住不在话下。就算搞促销临时出现洪峰,不怕,扩容就好。性能
事实上也就是这么操做的。全团队的同窗聚在办公室里,盯着电脑屏幕,只要发现交易量逼近系统承载上限,就立刻进行扩容。测试
交易量的上涨有点不寻常,一片安静的办公室里原本只有键盘声,突然有人高喊一声:“我秒到了!”紧接着又有人跟着喊:“我也秒到了!”办公室里嗡地一下,热闹了起来。优化
原来有人很好奇淘宝商城究竟在作什么促销让交易量涨成这样,点过去一看,发现有折扣高达50%以上的“秒杀”,忍不住出手一试。
“已经想不起当时究竟秒到了什么,只记得你们都特别快乐。”陈亮说。
快乐,是陈亮对于这个促销活动最初、也最鲜明的印象。
不过除了一成天都忙于扩容的同窗以外,当时支付宝的大多数人都对这场促销并没有感知。“过后才知道前一天有促销,同事说流量有点猛。”如今已成为蚂蚁金服研究员的李俊奎说,运维负责人很紧张地在次日的复盘会议上提出“抗议”:“淘宝商城那边在搞什么?支付量一会儿提高了这么多,万一咱们提早准备的量不够,就危险了。”
淘宝商城搞了什么?站在今天回头去看,他们只是搞了一件不算很大的事:在“光棍节”当天,联合27个品牌作了一场促销活动,单日GMV 5000万。
当时没有任何人可以预计这个促销活动往后会成长为何模样,不过支付宝从数据的增加之中嗅到了山雨欲来的气息:这个活动带来的交易峰值超过平日的5倍,虽然此次平稳过关,但已经逼近了当时支付宝的承载极限。
2010年的年中刚过,支付宝就去跟淘宝商城通气:去年那个促销,今年还搞吗?淘宝商城说,搞。
好汉不打无准备之仗,如何筹备“双11”被提上了支付宝每周稳定性会议的议程。首当其冲的是要准备充足的容量。可是按多少准备呢?谁都没经验。
“拍脑壳估个数据,而后按预估数据乘以三去买机器,简单粗暴。”李俊奎直言不讳。
为了检验这样拍脑壳的决策行不行,他还和团队一块儿搞了个测试:经过手动更改配置,把多台机器上的流量导到一台机器上,测试一台机器的能接住多大的流量。“如今想起来,那就是压测最先的雏形。”
他们甚至准备了一个备用的工做联络群。当时尚未钉钉,工做群都搭在旺旺上,“万一旺旺服务器也出问题了,不能及时联络怎么办?”
筹备的时间虽不长,倒也方方面面都有兼顾,“可是无论事先作了怎样万全的准备,每一年总有意外发生。”金融核心技术部工程师赵尊奎说。他当年所在的团队是帐务会计组,一举一动都关系到钱,丝绝不容有错。
意外真的来了。
11日凌晨,促销活动刚开始不久,支付宝的帐务数据库就容量告急。
病来如山倒。发现问题时,情况已经十分危急,“只能再撑几分钟!”运维心急如焚,若是不能立刻找到解决办法,支付宝就面临宕机风险,交易链路一断,谁也买不成。
怎么办?运维把心一横,说,砍了会计系统吧,给核心的帐务系统腾空间。
时间已经容不得多加斟酌,一群高管站在背后,支付宝中间件团队的工程师蒋涛感到史无前例地紧张,“操做的时候手都在抖。”
这个当机立断的决策将支付宝从距离宕机只差几十秒的悬崖边挽救了回来。过后的数据显示,2010年的双11,参与用户达到2100万,总GMV达到10亿,是上一年的20倍,这是任何人都很难在事先预估到的涨幅。
“能想到会涨,但谁也想不到涨势会这么猛烈。”赵尊奎说,“也就是从那年起,咱们开始隐隐以为,更猛烈的还在后头。”
85后的肖涵和90后的郑洋飞,都是在读大学时就知道了双11。
肖涵喜欢网购,09年就成了第一批尝鲜双11的剁手族,还在一个技术交流群里认识了参与过双11的支付宝工程师;郑洋飞常买《电脑报》,那上面说2010年双11一天的销售额等于香港一天的零售总额,他一边惊叹,一边心生向往。
“以为好牛B,想进去看看。”
当年互不相识的两个年轻人,不约而同地产生了这样的想法。
肖涵在2011年加入了支付宝,那一年支付宝已经开启了“上半年搞建设、下半年搞大促”的模式,筹备工做从五、6月起就着手进行,他刚一入职,就被调去开发流量接入和调拨系统spanner。
这个系统至关于支付宝交易链路的第一道门户,“比如餐厅上菜的推车。通常餐厅,一个服务员只能每次上一盘菜,但双11的挑战,就是要让一位服务员同时能上十盘菜,所以咱们须要一个推车。不过业界没有现成的推车能知足支付宝的需求,咱们得本身造。”
差很少一全年的时间中,肖涵和团队为这个项目废寝忘食,spanner终于在2012年的双11迎来了第一次大考。
谁曾想,意外又发生了。
那一年支付宝的大促监控系统也已经上线,流量曲线可以秒级实时显示,零点将近时,全部人都紧盯着屏幕,翘首以盼。
——零点一到,流量进来了,曲线开始增加,造成很漂亮的弧度,全部人开始欢呼,可是突然,它跌了下去,而后开始像心电图那样抖动。
监控系统没有问题,也没有报错,为何流量会进不来呢?
一石激起千层浪。他所能看到的抖动,一样实时显示在了淘宝的做战指挥室里。支付宝工程师贺岩正做为支付宝的惟一“表明”,在那里和淘宝的技术同窗一块儿备战。这是个极其考验心理承受能力的工做,在支付曲线发生抖动的时刻,“淘宝的技术同窗们一会儿就把我围在了中间。连问‘支付宝出什么事了’?”贺岩回忆道。
肖涵脑子里一片空白,惟一的念头是,“不能让交易停下。”
0:00到0:20,短短的20分钟里,10分钟用来定位问题,10分钟用来解决问题;一样在这短短的20分钟里,外面已经天翻地覆:“‘支付宝不能付款了’登上了微博热搜,家人、亲戚、朋友都给我打电话问是什么状况,手机都要被打爆了。”
关掉了一个健康监控模块以后,系统终于恢复了稳定。比起紧张,肖涵感到的更是史无前例的震撼:原来本身所作的事已经和千万人息息相关,每一点微小的疏漏,所影响的都是难以估量的庞大群体。
“没有身在其中过,就很难意识到本身敲下的每一行代码有着怎样的份量。”郑洋飞说。他在2013年加入支付宝实习,带他的师兄巩杰说了一句令他印象极深的话:你看看那些客服mm,你敲代码时仔细一点,少出一个错,她们就不知能少接多少个报错电话。
跨过了2012年的坎儿,DBA就再三给出警告:扩容已经到头了,顶多再撑几个月,按这个增速,若是不想点别的办法,确定坚持不到明年双11。
祸不单行。另外的“紧箍咒”也接连落下:Oracle数据库的链接数上限成为扩容的瓶颈,更要命的是,因为机房的一再扩容,杭州的电力已不足以支撑。有时候为了保机房供电,“大夏天的,办公室都会停电,不得不运冰块过来降温。”巩杰苦笑着说,杭州的盛夏,谁过谁知道。
治标的方法快要山穷水尽,必需要从治本的角度出发寻找新的解决方案,好比,从架构层面“搞革命”,作单元化。
革命不是请客吃饭,要从架构层面作根本性的调整,举步维艰:一来没有任何成功经验能够借鉴,只能摸索着走;二来牵涉到众多部门,你们需求不一样,意见不免相左;三来,既然要革命,那目光必须放得更加长远,不能只是为了解决今年或明年的问题,至少也要作将来三年的规划。
与此同时,在和淘宝商城——如今叫天猫了——沟通以后,支付宝绝不意外地定下了又一个使人惊呼“不可能”的目标:支付峰值每秒2万笔。
事关重大,人人都很谨慎。“光是架构调整的方案就讨论了好久。”陈亮说,做为项目的架构师,他费了不知多少口舌去说服全部人都认同这个方案。
重担的一头落在他的肩上,另外一头则交给了2010年抖着手化解危机的蒋涛,蒋涛更愁稳定性问题:“作技术架构变动的同时还得稳住业务,这件事很是复杂,技术风险也很高。”
留给他们的时间也很少了。LDC架构的立项已经是2012年年末,距离2013年的双11不足一年,对于这样浩大的工程来讲,就一个字,紧。
陈亮最初构想了一个宏大的体系,要把全部系统都一口气单元化,但这个方案被程立否了:“主要问题在淘宝的交易上,先把淘宝作了。”按他的意思,哪怕先作第一期,2013年也必须上线。
一堆不可能的目标汇集在了一块儿。但目标既然定了,就只剩向前这惟一的方向。
“立项以后,咱们几乎每月都作发布。”蒋涛说,这个频率是通常项目开发的好几倍,但即使如此,直到双11以前半个月,整套系统才算部署完成,小错仍然不断,不过,随着愈来愈多的小问题和被发现和修正,他终于感到,“内心总算慢慢有点底气了”。
2013年,支付宝LDC架构首次在双11亮相,支付宝也第一次派“表明”前往双11的总指挥室——阿里巴巴西溪园区的“光明顶”。
这位“幸运”的表明就是李俊奎。“我就是去当‘炮灰’的。”他笑称本身一走进光明顶就感觉到了热烈的压力。当年的总指挥李津当着全集团几百位工程师的面,指着大屏幕点名喊他:“向秀(李俊奎的花名)!你看看支付宝!”
这项压力山大的任务,李俊奎连作了好几年,乃至于作出了经验。“首先是不要慌,不管接到什么反馈,先说‘知道了,我看看’。由于你一我的在现场其实什么也作不了,你的职责实际上是传达,以最快的速度,把问题传达给后方的伙伴,而后,相信他们。”
他说这是支付宝技术团队的重要制胜秘诀之一:你永远都不是一我的在战斗,你也没法一我的战斗,但你的身后永远有最靠谱的伙伴。
至于这一年的战果如何,按蒋涛的话说,“硬扛过去了”。新架构有惊无险,走出了第一步。
2013年双11的另外一个特殊之处是,支付宝的备战室里多出来一幅关老爷的挂画。
挂画是郑洋飞“请”来的,不过“拜关公”做为支付宝技术团队的一项传统,早在他入职以前就由来已久。源头听说要追溯到支付宝创建之初,每到重要的系统更新时,工程师们就会在旺旺群里转发关公表情包,以求更新顺利,“别出bug”。
隔了一年以后,关公像“升级”了,有同窗去西安校招时看到了关公的皮影艺术品,就“请”了一个回来放在备战室。后来,程立买了一尊木质关公像放过来,去年,副CTO胡喜又买了一尊关公铜像。
除了拜关公,去寺庙烧香也是例行项目,视目的地不一样,还分为“灵隐寺派”和“法喜寺派”两大派别。至于哪边灵验,说法不一,但据观察,每一年双11事后,程立、胡喜就会亲自率队上山还愿,从支付宝大楼一路步行到上天竺法喜寺,回来的途中,还会沿途捡垃圾作公益。
技术是纯粹的科学。技术人难道真的相信求神拜佛能避免系统故障和bug吗?
“心理上,我以为仍是挺有用的。”陈亮说,“主要是表达对于不可预知之物的一种敬畏。虽然咱们已经作了多年技术,但技术的道路上仍是充满了不少不可预知的东西。”
不可预知,构成了工程师们每一年面对双11最大的焦虑感来源。
他们用各自的办法缓解双11迫近的压力。有人是运动派,用跑步或打球放空大脑,有人是“强迫症”派,一遍又一遍地check代码才能安心,还有人是“吃货”派,迎战以前一定要先组团去吃海底捞。
全程参加了过去11年所有双11的赵尊奎,在被问到“哪年最很差搞”时,秒答曰:“哪年都很差搞。”一样“全勤”的陈亮则表示:“14年以前,咱们对于双11零点的信心,若是非要说一个数字的话,60%吧。”
但他很快补充:“不过2014年以后,这个数字就变成95%了。”
陈亮的信心,来自于当年支付宝压测体系的创建。这一次再也不是手动调配置测单机了,而是建立出仿真环境让系统去跑,提早找出系统的问题并及时修复,以避免在正式战场被打个措手不及。
“压测让双11开始从一个不肯定的事逐渐变成肯定的事,它极大地改变了咱们对于双11稳定性的保障方式。”有“压测小王子”之称的郑洋飞说。
虽然2014年的压测仅覆盖核心系统,但这个体系已经帮了大忙。在双11以前的一个月里,它至少让一百多个致命的问题提早暴露出来。“若是其中有一个没有修复,咱们2014年的双11确定就挂了。”陈亮说。
压测这一“压”,既压出不少隐患,也压出了一个大问题:支付宝所用的Oracle数据库在压测之中“抖”了起来,性能眼见得触到了天花板。
2014正是移动互联网大爆发的年份。指数增加的移动支付比例势必带来比往年更汹涌的流量峰值,Oracle肉眼可见地支撑不住了。
再买服务器?成本吃不消,并且为了应对峰值而增添的机器,平日里没有用武之地,彻底是资源的浪费。
还有没有别的办法?有的。阿里自研的分布式数据库OceanBase,从淘宝被划到支付宝后,已经沉寂了两年,正在焦急地寻找一展身手的舞台。
可是一据说是自研的数据库,业务满脸都是狐疑。跟交易和金额直接相关的数据库,只要错一个数据,后果就不堪设想,别说双11这么大的流量,即便平日,要不要用这个没通过验证的产品,也颇要斟酌一番。
先切1%的流量给OceanBase试试吧。这是你们争论了好一阵后得出的方案。可是Oracle在压测中的表现显示,缺口不止1%,而是10%。
OceanBase说,咱们来承接这10%。
10%,听起来很少,但双11的10%,至关于平日里的最高峰值。若是OceanBase能平安无事地接住这10%,就意味着它能够担起支撑支付宝平常运行的重任。
OceanBase必须证实本身有这样的能力。“咱们找了淘宝的同窗,协调了不少资源作了一个测试,主要校验淘宝订单的金额和支付宝交易金额是否能吻合。”DBA团队的工程师师文汇说,当时的方案很谨慎,若是OceanBase出现了问题,随时均可以切回来。
测试结果,OceanBase没有错漏一个数据。程立立即拍了板:10%都切给大家。这个决定成就了OceanBase在双11的首秀,“至关于Oracle和鲁肃(程立的花名)都帮了咱们一把。”师文汇笑着说。
这时距离2014年的双11,时间已经不足两周。可靠性虽然经受住了考验,但OceanBase毕竟是个诞生才四年的年轻数据库,小问题层出不穷,好比响应时间长达10毫秒,比Oracle差了好几个数量级。最后十来天,师文汇和全团队的同窗一块儿,硬是把它优化到了1毫秒如下。
“作了这么些年,对它的容量和性能仍是比较有信心的。”师文汇说。
他说得轻描淡写,但在这个曾经面临团队解散项目取消的产品身上,他和整个团队一块儿倾注了多少心血,除了他们本身以外,谁也说不清楚。
OceanBase最初并非为双11而作的,但在双11这个舞台上,它第一次得到了聚光灯下的位置,而且表现卓越,今后,支付宝开启了核心交易系统彻底搬迁上OceanBase的进程。
到今年,OceanBase对内100%承载蚂蚁业务的流量。对外,在被誉为“数据库领域世界杯”的TPC-C基准测试中,打破了由美国公司Oracle(甲骨文)保持了9年之久的世界记录,成为首个登顶该榜单的中国数据库产品。
2015年,李俊奎去拜访了上海证券交易所,那里的交易系统部署在6台大型计算机上,交易峰值能达到每秒10万笔。
他大为惊叹:10万笔!何等遥不可及的数字!何时支付宝也能达到就行了!回到杭州,他立刻与同窗们分享了此次见闻,结果同窗们告诉他说,今年咱们的目标就要超过每秒10万笔了。
李俊奎一想,这种一听就不可能的目标,是支付宝的做风,没毛病。
与此同时,郑洋飞则在为这个目标头痛不已。他刚刚跟他的主管打了一个赌,赌的是他做为2015年双11全链路压测的负责人,能不能保障双11的支付不出任何问题。赌注是一只apple watch。
这一年是90后的郑洋飞第一次挑大梁,从双11的参与者转换角色成为一个项目的主导者。但这一年也是他和团队都“忍辱负重”的一年,上半年,由于频繁不断的可用率问题,他们作稳定性的团队也在频繁遭受打击,士气不振,很多同窗选择了离开,内外的质疑声也接连不断,那几个月,空气里都仿佛写满了“难熬”二字。
“当时团队没几我的了,可是人人都憋着一口气,想着必定要把双11这个事情搞好。”郑洋飞说,“就是不想让人以为支付宝不行。”
局面有如背水一战,若是失败了,想要“翻盘雪耻”就要再等一年。由于双11每一年只有一次,不只是一年一度的大考,更是一年一度的舞台。按照系统部资深技术专家杨海悌的说法,“人人都想把本身一年的努力拿到双11去验证和展现,不让上还不高兴。”
跟2014年的全链路压测比起来,2015年主要要作几个方面大刀阔斧的改进:一是要从核心系统扩展到所有系统,二是要平台化,也就是打造一个全链路压测的平台工具,三是要跟整个集团的压测打通联动。
“老实说,很是忐忑。”郑洋飞内心没底。
当双11零点的洪峰扑面而来时,他已经忘掉了apple watch这回事。有一个压测没验证到的数据库定时任务,让曲线看上去不那么平滑。“稳定压倒一切”的宗旨之下,系统只要一抖,整个团队的心也跟着抖了起来。迅速排查的结果是,系统总体没出问题,但压测遗漏的一些细节,让结果不是那么完美。
“曲线不是特别好看。”他不无遗憾地说。
郑洋飞最终赢得了这只apple watch,但对于他而言,除了奖品以外,这只apple watch更有了别样的意义,时刻提醒他即便作了再充分的准备,也没有万无一失。
其实每一位支付宝工程师的心中,都有一条的“完美曲线”。
理想之中,它应该是这样的:双11零点,洪峰来了,曲线漂亮地攀升,没有骤升骤降,不要用频繁的抖动去折磨你们脆弱的神经。
若是要浓缩成一个词,那就是“丝般顺滑”。
可是,每一次为此而作的技术演进和架构变动进行到必定阶段,“你都会发现一开始可能设想得很是美好,但到了必定的规模以后,挑战就连续不断地来了。”杨海悌感叹道,“量变产生质变,这句话不是虚的。”
双11的“量”,早已一骑绝尘地进入史无前例的领域,2016年双11仅用了6个多小时,交易额就已超过2014年全天。这些年以来,都是本身在不断刷新本身的纪录。
在这样的量之下保障稳定,难度不止提升了一个数量级。
还记得2012年末制定的架构革命之“三年计划”吗?它真的持续了三年,这场最初是为了解决数据库链接数和机房限制而进行的架构革命,在三年的演进过程当中,又衍生出不少其余的架构,好比异地多活、容灾,弹性的容量调度等,直到2016年,才算所有落地。这之中每一步的演进,都是为了让系统具有动态扩容能力,可以顺滑地进行弹性的扩展和伸缩。
“大”是考验,“小”也是考验。
师文汇体会最深入的瞬间,不是2014年OceanBase一鸣惊人的时刻,而是2016年一次小小的测试。在这个测试里,他发现了一个指标有一点异常——很是不起眼,2毫秒的误差。
“2毫秒而已,若是在别的地方,极可能就会被判断为可有可无,而后漏过了。”但他的团队中的一位小伙伴,很是认真地去检查了这个问题——万幸如此。后来事实证实若是不解决这个问题,那年的双11就会有大麻烦。
“即便资源不足、时间紧张、软件有各类不完善的地方,但咱们的小伙伴不会放过任何一个问题。”师文汇感慨。
早些年,流量曾是实现完美曲线最主要的挑战,可是越到后来,随着业务的不断拓展,工程师们愈来愈清楚地认识到,稳定压倒一切不假,但技术更要着眼于将来。
2017年,是贺岩加入支付宝的第九年。这一年支付宝实现了离线在线混布,离线任务的大量闲置资源能够被用于在线任务,从而大大提高了资源的利用率。
“在一些小的场景中,这种效率提高能带来的节约可能不那么突出,但在咱们这样的体量上,它所带来的就是不可估量的一整个将来。”贺岩说。
有了前人积淀这么多年的基础,面向将来的路,就越走越顺利了起来。
2018年双11,支付宝其实保障了两个大促,天猫的大促,和支付宝本身的“码上双11”等玩法。这一年的故障数比前一年降低了70-80%,首次实现大促全天平稳。
大队长李铮很是淡定:“说白了,就是咱们把各类风险经过系统化或工程化的流程,控制得比较好。峰值出现的过程,也都在咱们的预期以内。”
2019,则是双11的“云原生”元年。
若是说技术是像叠积木那样一层一层累积起来的,那云原生就是最下面的基础,打好了这层基础,上层的应用就像是站在了巨人的肩膀上,生来就具有了一系列强大的能力。业务无需再过多地担心技术问题,只须要专一于业务代码便可。
故事讲到这里,不知你们是否还记得,当年由于每秒两万笔的峰值目标而惊呼“不可能”的同窗们。
当年,每秒两万笔是他们举全体之力奋斗半年才能冲上的高峰,而去年,每秒两万笔已经成为支付宝再平常不过的情况,随随便便,一秒钟的事。
这样的巨变真实发生了,只是身处当时当地,谁也没有想那么多。几乎每一位工程师都表示:“每一年搞完双11,下一年的目标就出来了,而后咱们就为着下一年的目标去进行相应的准备和努力。”
一个目标,又一个目标,在征服一个又一个“不可能”的过程当中,曾经觉得高不可攀的标高,都一一被甩到身后。当年遥不可及的每秒10万笔,今天看来不太小菜一碟。
只有当回头的时候才有所感受,在某一天突然发现,原来已经走出了那么远,原来已经攀登到了那么高的地方。
而当年那些惊呼不可能却又拼命将不可能变成现实的年轻人,已经纷纷长大,他们如今有着更多的从容淡定,上限在哪里没人知道,更大的多是,没有上限。
流量数据的增加也早已不是双11技术保障的所有。更多复杂的业务和玩法,在技术的成果之中生长起来,反过来又为技术的发展提供动力。走出双11,它们还能走入不少的场景:新年红包、五福集卡……
——或者走出支付宝和阿里巴巴。
那些由支付宝的工程师们创下的奇迹,正一一变成产品,服务更多的金融机构。至今已有数十家银行和金融机构用上了OceanBase,压测平台、云原生等技术也纷纷走向产品化,支付宝经过历年双11沉淀下的技术和经验,正在拉动整个中国的互联网金融科技一块儿飞奔。
——或者走向全世界。
双11早已不只是中国的双11,而是成为了一场全球的狂欢。与双11一块儿,技术也在走向全世界。
“不过要是说到咱们的理想,那就是未来某一年双11,整个备战室空空荡荡,除了关公像以外,不须要有任何同窗留守,智能化的系统能搞定一切问题,而咱们只须要捧着茶杯或喝着酒,看着丝般顺滑的曲线。”
对于巩杰所展望的这种将来,现场就有同窗笑了。“不可能吧!?”每一年双11都如同打仗通常,救兵如救火。
可是谁说不可能呢?毕竟,他们是那样一群已经把太多的不可能变为现实的人。
公众号:金融级分布式架构(Antfin_SOFA)