图片来源@视觉中国
文丨leitech
7月13日晚,“哔哩哔哩崩盘”话题登上微博热搜头条不到半小时,知乎、豆瓣等网络社区的讨论度和热度也随之飙升。 让微博卡顿,知乎、豆瓣等社区加载缓慢。 更有意思的是,“B站崩溃”发生时,已经是晚上11点。 一般来说,很多人应该都睡着了。 .
尽管如此,关于B站的消息还是迅速在全网引起热议。 甚至有传言称,B站倒闭后,散户甚至将A站、豆瓣、知乎等网络社区网站的服务器搞垮。 以至于网友调侃:B站服务器崩溃的时候,除了B站的程序员,还有A站的程序员,知乎、豆瓣、微博等网站的程序员都在加班。 建议以后关注B站。 一旦 B 站崩溃,它会立即打开 Standby 服务器分流进来的流量。
虽然大家都知道哔哩哔哩很火,但是第一次体验哔哩哔哩流量和用户量的恐怖,而且接近凌晨,以至于第二天一早股市开盘后,哔哩哔哩股价上涨。 这是一个上升趋势。
哔哩哔哩倒闭后的用户画像
“网络断了?” “什么垃圾网络?”,小雷昨晚刚退出游戏,打算逛一会B站,却发现点开视频后b站出错啦,开始无限转圈,然后要么显示404,要么显示502。感觉就像一个赤裸裸的连接 YouTube。 一开始,小雷还以为是网络又出问题了,就前两句就抱怨了。 不过,小雷很快就意识到,自己可能错怪了网络运营商。
在发现游戏服务器依然正常连接,访问其他网站也正常后,小雷闪动的QQ终于引起了小雷的注意。 点开后,发现几乎每个群都在讨论B站不可用的问题,这时,小雷这才发现,B站已经崩溃了。 嗯? B站崩了? 得到这个答案后,小雷迅速登录微博、知乎、贴吧等网络社区,果然在热搜榜和首页看到了相关话题。
“阿B不见了!” “B站挂了!” 等词几乎填满了所有活跃的在线社区。 问题。 例如,一位微博用户认为自己的手机流量耗尽,服务提供商关闭了网络服务。 给8元流量叠加包充值后,他发现还是打不开B站,于是他想可能是B站问题。 有一个问题。
而且,B站这次崩盘的范围还是挺大的。 除了网页版,B站包括App和海外版在内的几乎所有相关网络服务都进入了瘫痪状态。 以至于有网友表示,台湾版B站崩盘后,对岸的网络社区很多人都在问解放军是不是要解放我们,所以他们切断了我们的网络连接大陆。
另外还有很多不同版本的猜测,比如楼起火、服务器爆炸、程序员删库跑路等说法。 其中一些被描述得如此严肃,以至于许多网友认为这是真的。 可以说,哔哩哔哩崩盘的三个小时,让人们意识到哔哩哔哩的流量如此庞大,不少用户开始耍花招,比如声称哔哩哔哩将网址改成了AcFun.com。
熟悉二次元网站的朋友大概会心一笑。 大名鼎鼎的A站大家还是很熟悉的,但是也有不少可爱的新人信以为真。 再加上凑热闹的网友,突如其来的流量甚至让A站的服务器陷入了陷阱。 崩溃状态下,有A站用户笑称,第一次看到A站的视频有这么高的在线观看量。
如果说这次B站倒闭的最大受益者,小雷觉得应该是A站,毕竟他免费获得了这么高的流量,也让部分网友知道了国内的二次元UCG网站不仅是B站,结果有一些看热闹的觉得没什么大不了的网友想出了阴谋论,认为A站彻底垮了B站。当然,大家看完也该笑一笑这种言论,千万别当真。
在一向与B站不和的知乎上,相关问题迅速冲上热榜榜首,仅16分钟就有3802条回答(知乎网友统计)。 有呼呼用户吐槽:知乎儿平时都说小博站不好,现在看来大家都“嫌弃老实”了。
对于B站倒闭,网友们可以说是吃瓜吃瓜,痛快快快,而阴谋论者则快把外星人入侵地球和2233妈妈奋起反抗的剧本写完了。 神通广大,够大家笑一整天了。 哔哩哔哩的倒闭,对于哔哩哔哩的程序员来说,或许又是一个不眠之夜,但对于大多数网友来说,却是一生难得一见的夜晚。
不过大家还是很好奇,B站为什么会突然倒闭?
B站倒闭未必是坏事
从B站发布的微博来看,此次事故的原因似乎是部分机房无法访问,而B站的云服务器中心主要架设在华为云上,因此曾有网友辟谣称是华为云数据中心出现问题,华为云内部人员辟谣称,事故发生时华为云正在正常运行。
服务器机房出现故障并不少见,但让很多程序员疑惑的是,B站的容灾机制似乎并没有做好b站出错啦,这种相关网站和APP全部不可用的情况不太可能发生是一般的服务器故障可以引起的。
除了不靠谱的奥特曼攻击B站外,一开始还广泛流传的是断电论,最初来自一位自称是B站运营的用户的微博,一次断电导致服务器出现问题。
不过,这一说法很快遭到了业内人士的质疑。 就因为一次区域停电,导致其所有网络服务全部中断无法使用,所以B站相关部门从上到下全部被解雇,一个也不会受到委屈。
基本上像哔哩哔哩这样的大型互联网公司,不可能把所有的服务器都放在一栋楼里,一般的服务器中心都会有一套完整的UPS系统,可以保证服务器中心在短时间内的供电。 -长期停电。 普通手术。 而且B站的部分服务架设在华为云等数据中心,除非全国停电,否则不可能因为停电就让B站的所有网络服务无法访问。
从小雷查询到的信息来看,B站的事故因为CDN提供商的事故,可信度更高。 什么是 CDN? CDN是Content Distribution Network的缩写,是建立在现有承载网络之上,由不同区域的边缘节点服务器群组成的分布式网络。
简单来说,假设B站的内容服务器在上海,广州的用户想浏览一段视频,点击视频后,电脑会向广州的CDN服务器发送请求,CDN服务器将验证内容请求。 If 当前,如果内容保存在节点中,则内容将直接提供给用户。 如果没有,CDN 会向源服务器发送请求,传输内容,然后提交给用户。
CDN广泛应用于视音频、直播、购物等网站,可以有效加快用户获取相关资源的速度。 我们可以在点击视频后几秒钟内完成加载和播放。 很大一部分功劳在于CDN服务主体。 而且CDN服务还可以有效的降低源站的负载,让源站可以用更少的服务器来承载更多的流量。
但是,当CDN服务出现问题时,客户端发出的资源请求会直接绕过CDN服务器,接收端位于源服务器。 面对激增的用户请求,B站服务器自动启动容灾策略,开始对所请求的服务进行降级处理,比如拒绝部分用户的访问请求,反馈为网站上突然出现的404、502提示用户界面。
然而在不断的请求下,B站的网关最终没能抵挡住这一波攻击,导致整个网络环境崩溃。 这种说法的依据是,当时崩盘的网络并不仅限于哔哩哔哩,A、豆瓣、晋江等多个网站同时崩盘,但与哔哩哔哩相比,其他网站恢复得更快,所以并没有引起太多关注。
估计有人很好奇,为什么最大的B站恢复最慢? 从网友提供的信息来看,可能是因为B站的一系列容灾系统是自研的,所以在CDN服务商出现意外并发出预警后,并没有第一时间启动容灾系统,以至于网关在后续的流量瀑布攻击下败下阵来。 而且其他网站需要面对的用户访问量和B站不是一个数量级的,所以灾备系统终于顶住了突如其来的大量请求。
当然,这只是其中可信度较高的说法之一,真正的原因估计还要等B站公布后才能知道。 不过,这一次的崩盘,或许也算不上什么坏事。 除了让运维人员了解到当前服务器系统存在的问题,也让外界知道B站的活跃用户数和在线用户数已经达到了一个恐怖的程度。 从公司发展的角度来看,一个数量级可能是一件好事。