除夕当晚,全球观众参与百度APP红包互动活动次数达208亿次,这是作为本届春晚独家网络互动平台与红包互动平台的百度,刚刚公布的春晚红包活动数据。

但与往年不同的是,发着史上最高金额红包的百度APP,竟然没有宕机,一些第三方应用商店却“瘫痪”了。苹果手机自带的应用下载工具也一度无法正常使用。

据相关手机厂商反馈,“是因为大量用户下载百度系产品导致崩溃”。

春晚和互联网公司合作的互动史上,百度成为第一个扛住巨大春晚流量冲击的公司。

从主持人口播到摇一摇,再到红包入账,参与活动的数亿用户没有发现卡顿、没有白屏,用户体验像“丝滑一般”。这背后体现出了百度始终稳健的服务能力和过硬的技术实力。

猪年春晚,百度提供了4轮9亿的红包。每轮活动,用户的任务都不相同,有的去摇一摇、有的去feed流中搜索、还有进入小程序或小度商城。涉及百度数十个产品、百多种用户场景。再加上新增的AI玩法,这会给百度APP带来高并发、大流量,给百度云的服务器、带宽等基础设施带来巨大冲击。

实际上,春晚抢红包对百度来说主要存在三大挑战:短期的机器资源和网络带宽资源需求量巨大;临时用户登录量极大;瞬间出现巨大流量峰值。

但百度整个系统在除夕夜显示出了良好的弹性,全自动自如扩容缩容。数万台机器支持快速扩展,快速响应数亿网民的需求。当遇到流量洪峰时,系统会智能化调度,根据用户任务的不同,层层计算,匹配适应的容量,满足每秒亿级的服务请求,整个过程,就像有一个多层漏斗化解流量洪峰,优雅调控确保用户流程体验。

在春节期间,中国网络还存在一个特殊的迁徙现象。很多网民会从一线城市回到三四线城市。这使得流量结构发生变化。百度春晚技术保障项目管理团队根据往年春节用户迁移路线,提前规划好了不同地区的所需要的网络资源。百度云的智能调度系统,能够分钟感知不同地区资源紧张程度,并进行相应的资源调度和补给。

整个系统处理能力能够如此伸缩自如,依赖于百度早已成熟的网络架构。过去十多年,百度网络架构经历了百度自有业务规模快速增长和To B业务多样需求的考验,具有很好的高可扩展性和灵活性,可以快速调配服务器,支撑快速接入带宽资源,调度系统可以很好的支撑节点的快速扩容。

在最短的时间内,用最少的资源满足数亿网民的需求,这是百度对本次春晚红包项目技术的另一个考验。

因为相比往年同行平均3个月的准备期,春晚红包项目只有30天时间。对于负责数据中心机架供应、服务器扩容和网络建设的百度系统部,很多项目甚至要求3周内完成。数千万用户短时间冲击登录系统的难题,对于百度云短信平台来说,也只有20多天的解决时间。

(就地一张临时床铺,有同学多日住在办公室里)

但工程师们用技术创新和拚劲创造了各种奇迹。基于百度 “蜂巢”预制模块化数据中心专利技术,全程支持高功率密度的整机柜服务器交付,在北京顺义华威机房8小时内完成10000台服务器的物理上架,16小时完成自动化上线交付业务使用,创造了业界服务器交付速度的新纪录。IDC网络和CDN建设在3周内完成了相当于2018年全年的建设量。

百度云短信平台部门在20天内,将短信承载能力至少提升了数十倍,一键登录功能也在最短时间布局云上。百度云还提供了最先进的存储、计算等技术,保障小度商城等产品的流畅用户体验。

复盘百度春晚红包项目,我们发现,领先的技术架构,创新的解决方案,执行力高效的技术保障服务团队,帮助百度扛过了春晚炼狱。

这三大能力的结合,对百度云的AI to B 战略同样至关重要。

(多部门协同作战,在这个“作战室”中奋战长达一个月)

在产业互联网时代,云服务商已不能只提供存储、计算等基础设施服务,再提供AI、大数据、IoT等技术能力之外,还要针对不同行业和企业的特性,量身定制面向场景和业务的专属解决方案。

这意味着,云服务商要升级为技术服务商。能够贴近产业、企业和业务,去深刻理解业务需求。而且与 to c 市场还有不同的是,整个项目实施和交付的综合能力,对于B端客户来说同样重要。

2018年,互联网巨头纷纷布局To B市场,2019年,市场竞争将更加激烈。业内人士认为,经历过春晚红包场景的洗礼,百度云向市场证明了其服务的成熟技术能力、创新产品能力和稳定保障能力,将充满实力面对2019年的市场竞争。

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注