韩信点兵,多多益善。
现在不光在线服务吃机器,背后跑各种大数据查询的,人工智能算法的,你给他们多少他们就能用多少。巨头的服务器数量是几十万甚至百万量级的。比如说,好几年前Google的服务器数量是两百五十万台。
这是Facebook其中一个数据中心,一眼望不到头。我盗的图,侵删。我去年还是前年去过一个Twitter的数据中心,也非常大,在里面走的脚疼。
再来一张aws和azure数据中心的天下布武,只有非洲还是处女地。每个数据中心一般有几千到几万甚至十几万服务器不等。当然,这些服务器他们也不是都自己用。
下图是来自公开资料中Twitter各种服务器的比例,我没有泄露公司的机密。可以看到数据以及消息的存储和处理占了很高的比例。
我看到有朋友说水平高的程序员可以用很少的机器跑很高的并发,这诚然是一种水平,不过让非常多的机器一起跑还能做的结果准确和很高的稳定性,这也是一种水平。哪种水平更高,就仁者见仁,智者见智了。