搜索

Facebook 有几十亿用户,它的数据中心是如何提供支持的?

boxi · 2016-12-26
绿色的关键是借助自然的力量。

编者按:Facebook 的服务即将变得越来越复杂,需要消耗越来越多的电力。社交巨头必须为这样的未来做好准备。现在,它的数据中心电源使用效率已经达到了1.06—1.08的水平,甚至比Google的数据中心能效还要高。它是怎么做到的呢?请看《快公司》的介绍

在瑞典吕勒奥的数据中心园区内,Facebook实现了其Open Compute Project(OCP,开放计算项目)勾勒的服务器和数据中心设计,在这里服务器、供电和UPS都是定制的设计。

你在享受着观看朋友Instagram照片的愉悦?很喜欢表亲Facebook账号更新的新出生的小孩?你要靠Messenger跟在海外居住的同学朋友聊天?或者喜欢Oculus Rift带来的那种沉浸式体验?

如果没有那帮人开发、建造和维护着Facebook位于全球各地的数据中心基础设施的话,这一切都不可能实现。

2009年,当Facebook的用户数只有现在18亿的一小部分的时候,而且还没有收购或者开发Instagram、Messenger、Whatsapp以及Oculus的时候,该公司只有一个数据中心,这个数据中心就在它的硅谷总部内,里面真的就只有一组服务器。

不过正如Facebook负责工程的副总裁最近解释那样,该公司很快意识到自己需要扩张到第二个位置,也即是东海岸。并且更多的扩张也在此后迅速进行。

Parikh 说:Facebook所做的一切“都是高度互联的。”不是说加州这边有一批用户,所以就把这批用户放到加州的服务器,然后针对其他地区的用户也是类似的处置。所有用户都跟公司所做的一切事情以及所有其他用户连接到一起,而这给公司带来了重大的工程挑战。

在那段日子里,Facebook仍然还需要完全依靠第三方硬件和主机托管设施来放它的服务器基础设施。但随着时间转移,它已经放弃了对外部技术和设施的依赖,从2009年开始,Facebook就在建设自己的数据中心网络,它认为自己的这种基础设施是业界能效最高的数据中心之一,这种设施对于为庞大的用户群提供日常体验是必不可少的。

怎么做呢?其想法是让Facebook的工程师以及开发其app的人能够开发新服务,然后迅速部署到整个用户群。

例子?比如说Facebook Live,这个原先只是一个黑客马拉松项目,但在5个月的时间内就推向了整个Facebook社区。

Parikh说:“我们很珍视这个,这是我们文化的一部分,也就是快速行动,然后把体验快速交付给一个非常庞大的社区。”

更复杂的应用要求更复杂的基础设施

随着Facebook开始开发自己的数据中心,把自己2011年在俄勒冈州Prineville建设的那种基础设施如法炮制过去往往是很有诱惑的一种做法。实际上Parikh说这已经变成公司内部的一个玩笑,说公司需要做的就只有“定型/漂洗/重复”。

但随着公司开始通过Facebook服务以及其他app提供更为沉浸式的体验,它意识到自己既需要提升新的数据中心的电力和能源效能以维持经济效率,并且做出的不过时技术,从而能满足日益依赖人工智能和机器学习的系统的未来需求。

Parikh指出,毕竟,为2014年规模平稳运行准备的系统未必就能应付2017年的事情。

他说:“我们不希望谨慎行事太过保守,也不会对我们思考技术的方式感到自满。”

绿色数据中心

尽管Facebook本身的app就有18亿用户,但它的其他app用户数加起来甚至更多,至少已经有25亿。所有这些计算需求都需要一个全球的数据中心网络来提供空前的能力和效率。

Parikh说Facebook现在“正在思考如何建设配套,使得它对所有应用和服务都具备可伸缩性和弹性,并且为类似视频直播以及360°视频等新的沉浸式(服务)做好准备。”

目前Facebook在全球有着7个数据中心——其中5个在美国,分布在俄勒冈、爱荷华、德克萨斯、新墨西哥以及北卡罗莱纳,此外在爱尔兰和瑞典也各有一个。尽管公司不远分享未来的数字,但这个数字还在迅速增长。Parikh说Facebook通常会在12到18个月内破土动工一个新的数据中心。

随着网络的发展,带宽需求也在不断扩大。Facebook正在“非常积极地推进”数据中心之间每秒100GB的互联速率,而且已经在尝试如何把这个带宽提高到400Gbps。

即便带宽需求提高了能源使用量,Facebook仍然致力于建设依赖绿色电力的数据中心网络。去年,该公司称预计回到2018年采用50%的清洁和可再生能源。其计划是,在爱荷华州、德克萨斯州、爱尔兰、瑞典以及新墨西哥州的设施将100%利用风能、太阳能或者混合电力能源。

可行方式之一是一开始就限制电力用量。为了做到这一点,Facebook称自己已经开发出平均浪费电量只有6-8%的系统,相比之下,业界的标准是50-60%。而Google声称自己的数字是12%。

该公司对自己的能源使用效率(PUE)数字很有信心,甚至自信到敢实时展示其每一个数据中心的PUE数字。

实现这么高的能效其主要办法之一,是设施在设计上就考虑了从外面引入空气来对服务器激进型制冷,而不是靠昂贵并非耗电的空调系统。然后再把服务器产生的热量排出到建筑物外面。在更冷一点的气候条件或者季节下,其中的一部分暖气还可以回送到建筑物内,减少了对加热器的依赖。

Facebook很清楚自己的用户群和所提供的应用及服务的复杂性还会继续发展,如果自己没有为这一增长做好准备的话,数据中心就跟不上需求变化的步伐。

公司的用户期望的是高性能,他们不会管你使用的工具是什么,但如果数据中心基础设施没有好的适配性和扩展性的话,就无法保证实现Facebook的核心使命:让全世界的人们与家人朋友分享自己的生活,让地球成为连接更加紧密的地方。 


+1
3

好文章,需要你的鼓励

参与评论
登录后才能参与讨论哦...
后参与讨论
提交评论0/1000

请回复有价值的信息,无意义的评论将很快被删除,账号将被禁止发言。

文章提及的项目

下一篇

半个世纪前的《定位》观点应该作古,我们才是这个时代鲜活的人类

2016-12-26

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

为你推送和解读最前沿、最有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚集全球最优秀的创业者,项目融资率接近97%,领跑行业