Facebook對媒體揭露了身為社群網站龍頭的網站資料量實際數據-包括每天系統需處理超過25億則的發文、每天乘載超過500TB的流量、每天會有27億個「讚」、每日總上傳照片數約3億張、每半小時就要掃描約105TB的資料。
技術副總Jay Parikh表示,處理海量資料的關鍵在於如何讓海量資料對企業產生正面衝擊,不然海量資料就只是過剩的資料罷了。他也認為Facebook的優勢就在於即時處理資訊,並根據這些資訊所指推出新產品、了解使用者反應、迅速修正問題。
這樣的資料量讓Facebook成為新一代廣告平台寵兒,對此,Parikh說:「我們正努力追蹤廣告對不同類型的使用者的影響,變因包括性別、年齡、興趣等。」他認為未來Facbooks能做到提出「這個廣告在加州會比其他地方成功」這類細部的建議。
目前,Facebook所累積的資料量以足以讓每一次的改版都有參考反應可循,只需將資料丟進模擬程式中,改變參數就能得到大致的結果。
隨之而來的就是Project Prism。現在Facebook將所有即時的資訊與不斷演化中的使用者資料庫儲存在同一個資料中心,當不敷使用時再搬去下一個擴充中心,這樣搬遷難免浪費資源。
Project Prism啟動後將免去搬遷的麻煩,讓資料雖然被拆開存放了,表面上看起來卻還在同一個資料中心,也就是所有的即時將在加州、維吉尼亞洲、奧勒岡州、北卡羅來納州與瑞典的資料中心中穿梭。