支付宝“咻一咻”峰值达到177亿次/分钟,技术如何支撑?

猴年春节最热闹的就是支付宝“咻一咻”。外人看热闹,内行看门道。三十晚上i天下网商发了一篇文章《前两轮互动数达去年春晚16倍,支付宝技术怎么做到的? 》,其中的一些数据还是首次对外公布。相关技术干货,我们云栖社区已经锁定专家来约稿了。
已经邀请四位专家来分享:
  • 2016支付宝春晚红包背后的技术支撑
  • 支付宝“咻一咻”分布式架构技术实践
  • 安全设计与挑战
  • 参加2016支付宝春晚红包的企业如何应对高峰技术挑战
大家还希望看哪些方面的内容?欢迎留言。

凝视屏幕,念念有词,指如疾风……2月7日晚,20点36、21点05、22点12,随着春晚主持人的一次次口播,全家人掏出手机,打开支付宝,在一片咻咻的声响中,20:36分,第一轮咻一咻开始,此轮结束时,互动次数就达到了677亿次,而去年春晚整场的总互动次数是110亿次,也就是说,今年春晚第一轮5分钟互动的互动次数已经超过了去年春晚四小时的累计互动次数!
而到第二轮结束,累计互动次数已经达到1808亿次,是去年的16倍。在20点38分,用户的参与热情达到顶峰,“咻一咻”峰值达到177亿次/分钟。
 
支付宝“咻一咻”峰值达到177亿次/分钟,技术如何支撑?

即使我们用20分贝(轻声细语的音量)来计算“咻”的声量,当时,全国咻一咻的声音叠加,也相当于135亿个鞭炮同时燃放的声音,咻一咻成为年的声音。

这一连串数字背后,是1月28日起,10天内,支付宝的一次脱胎换骨的变化,从4亿用户熟悉的支付工具,转身成为一个生活互动平台。

蚂蚁金服支付事业群技术部研究员倪行军向记者表示,跑在金融云上的春晚红包背后是一套轻巧,灵便,弹性十足的分布式技术架构。只需要调用的消息服务器的相关应用,迅速扩容,只要加机器就可以满足数倍涌入的需求量,这种方式的成本很低,系统本身不受压迫,它可以全自动、标准化操作。

用户的“装红包—发红包—拆红包”,简单的三次点击,背后是整个系统的经受天量访问的大考。

蚂蚁金服支付事业群技术部研究员倪行军向记者表示,“三次点击中最难的就是发红包,难点在于将红包准确发给准确的人。”

传统互联网红包发放人数的上限是200人,但支付宝红包打破了这一限制。而这一次更难的还不是这些。最终大量用户会分享了一个2.15亿的超级红包,这才是对系统最大的考验。

参与分红包的人数越多,对系统的要求及技术能力要求越高。背后需要大数据的海量、实时的处理能力,在保障资金及账户安全的情况下,实时完成百毫秒内用户无感知的风控审核,完成零误差的账户数、金额数的分发。

“在分子不变的情况下,分母越大,难度加倍。”倪行军表示。

这意味着,在除夕晚23点11分之前,无数用户在不断互动,直到除夕晚23点11分前一秒,支付宝后台才清楚,有多少人,哪些人可以平分2亿元现金。用户的每一次交换,询问、分享,都是向服务端发出不同请求,需要服务端承接海量的互动请求,瞬间识别并实时计算,实时清洗出无效数据。

“红包的发放意味着业务量和平时相比,瞬间有了千百倍的爆增。更难的是用户的行为并不完全按照我们之前的预期,幸运的是,我们有金融云的支持。”倪行军表示。

事实上,春晚这个超级IP与互联网的结合是央视近年来最闪亮的创新之一。今年的春晚创新了新的形式,通过口播咻一咻,将更多年轻的观众拉回到电视机面前。

观众通过双屏互动,连接世界,让更多青年人在团圆时找了分享的话题,这就是电视+与“互联网+”的切合点,也是媒体融合的入口。

 
上一篇:VB编程:ReleaseCapture&SendMessage拖动无标题栏的窗体


下一篇:Ubuntu18.04安装CUDA10.2+cuDNN