Ev Oregon çölünde bu devasa yapı facebook'un çalışmasını nasıl sürdürüyor?

Oregon çölünde bu devasa yapı facebook'un çalışmasını nasıl sürdürüyor?

Video: #15 Oregon vs Oregon State Highlights | College Football Week 13 | 2020 College Football Highlights (Kasım 2024)

Video: #15 Oregon vs Oregon State Highlights | College Football Week 13 | 2020 College Football Highlights (Kasım 2024)
Anonim

PRINEVILLE, Ore. - Hızlı İnternet olduğundan emin olmanın birçok yolu vardır. Bir Google Fiber şehrine gidebilirsiniz. En Hızlı İSS'lerimizden birini seçebilirsiniz. Ya da evinizi bir Facebook veri merkezinin yanında inşa edebilirsiniz.

Örneğin, ilk Facebook veri merkezini ele alalım. Prineville, Ore'de açıldı. 2011'de, sosyal medya devinin o zamandan beri İsveç'ten Iowa'ya kadar yaptığı her veri merkezi için bir model teşkil etti. O kadar çok bant genişliği harcıyor ki, ağlarını güçlendirmek için bölgeye hizmet eden ve yerel sakinleri gezmeye götüren birden fazla ISS gerektiriyor.

Prineville veri merkezini, Facebook'un diğer olanaklarıyla birlikte, dünyanın en büyük sosyal ağının ortak kalbi olarak düşünebilirsiniz: bunlar, sitelere ait 1, 65 milyar aktif kullanıcıdan fotoğraf, durum güncellemesi ve haber beslemesi yenilemesi talepleri alıyor. kan dolaşımına oksijen pompalayan bir kalbe benzer şekilde olabildiğince hızlı yanıt verin.

Prineville tesisi beşinci yıldönümüne yaklaşıyor ve Mark Zuckerberg'in muhtemelen Harvard yurt odasında şirket için bir fikir hayal ederken Facebook'un yapacağı hakkında hiçbir fikri olmadığı şeyler için veri taleplerini ele alıyordu.

Bu hafta PCMag bir tur için uğradı.

Tabii ki Prineville hala fotoğrafları ve durum güncellemelerini saklıyor, ancak şu anda Facebook'un yapay zeka araştırmalarını destekleyen binlerce Nvidia GPU'su ve günde 24 saat test yapan 2.000 iOS ve Android telefonu da var. Bu, şirketin mühendislerinin Facebook'a ek olarak Instagram, Messenger ve WhatsApp'ı içeren uygulamalarının güç verimliliğini artırmalarına yardımcı oluyor.

Facebook Verileri 'Esnek, Gereksiz'

Prineville tesisi hakkında ilk dikkatinizi çeken şey büyüklüğü. Oregon'un ortasındaki ağaçlarla kaplı yüksek çölünden yükselen, Portland'dan üç saatlik bir araba yolculuğu tek bir bina değil, dört (ve son zamanlarda caddenin karşısına inşa edilmiş, uygun bir şekilde Connect Way adında bir başka büyük Apple veri merkezi içermiyor). Facebook binalarından biri içeriye iki Walmart sığdırabilir ve Nimitz sınıfı bir uçak gemisinden kabaca 100 metre daha uzundur.

İçinde birkaç petabaytlık depolama alanı bulunan ve Facebook mühendislerinin bileşenleri değiştirerek sürekli olarak yükselttikleri sunucular var. Veri merkezinde tam zamanlı çalışan 165 kişiden her biri için bina başına 30 kişi yalnızca güç kaynakları, işlemciler, bellek ve diğer bileşenlerin bakımı veya servisi için görevlendirildi.

Amazon’dan Charles Schwab’a İnternet’te faaliyet gösteren hemen hemen her şirketin özelliği, artıklıktır: birden fazla veri kopyasını depolayan birden fazla sunucu. Bu, Facebook'un Western veri işlemlerinin direktörü Ken Patchett'in yerine, esnekliğe odaklandığı Prineville'deki durumdan daha düşüktür; kabaca ne zaman ve nerede olursanız olun, birisi Facebook'ta oturum açtığında hazır olma yeteneği olarak tanımlanır.

Patchett'in dediği gibi “fazlalık değil, esneklik” e odaklanmak mümkündür çünkü Facebook, Lulea, İsveç'ten Altoona, Iowa'ya kadar dünyanın dört bir yanındaki birden fazla veri kopyasını saklama lüksüne sahiptir. Bu nedenle, iki veya daha fazla şeye sahip olmak yerine, her altı ana jeneratör için bir yedek elektrik jeneratörüne sahip olmak gibi, her yerdeki stratejik ekipman alımlarına odaklanabilir.

Patchett, “Dayanıklı olursanız mali açıdan sorumlu olmak zorundasınız” dedi. Oregon'un yüksek çölünde yüksek teknoloji veri merkezlerinin kurucu babalarından biri. Facebook’a gelmeden önce, The Dalles, Ore’de bir veri merkezi kurmaya yardım etti. Google’ın, Amerika’nın en büyük dokuzuncu ülkesinin en büyük Doğu bölümünü karakterize eden ucuz hidroelektrik güç ve serin ve kuru hava koşullarından yararlanan ilk İnternet şirketlerinden biri Google’dı. durum.

Çok fazla güç, elbette, Facebook'un çalışması için çok önemli. Sunucu sıcaklığı, güç ve para kazandıran klima üniteleri yerine kuru çöl havasında (aşağıda) çeken bir su soğutucusu ve dev fanların bir kombinasyonu ile düzenlenir. Hedef sıcaklık aralığı 60 ila 82 derece Fahrenheit arasındadır. Patchett'in ekibi, Prineville'in 1, 07'lik bir güç verimliliği oranına sahip olduğu hedefine ulaşmada o kadar iyi oldu ki bu, soğutma ekipmanlarının, ışıkların ve ısıtıcıların - hesaplama cihazı olmayan herhangi bir şeyin - tesisin toplam enerji kullanımının sadece yüzde 7'sini tüketmesi anlamına geliyor .

Kutudaki 32 iPhone

Soğutma ve gücün çoğu sunucuların taleplerini karşılamaya gidiyor, ancak bazıları yalnızca Prineville'de değil, bir Facebook uygulamasıyla her telefonda güç kullanımını azaltmak için etkileri olan nispeten küçük bir uygulama test odasına yönlendiriliyor.

Facebook uygulamasının güç yönetimi ile mücadele ettiği sır değil. Guardian bu yılın başlarında, uygulamanın iPhone'larda pil ömrünü yüzde 15 azalttığını iddia etti. Uygulamayı kolaylaştırmak ve pil tüketimini azaltmak için şirket, yaklaşık 3200 iOS ve Android telefonunu 32 kişilik gruplar halinde kutulara yerleştirdikleri Prineville'ye getirdi.

Her kutunun, yalıtımlı duvarlar ve bakır bantla sarılmış kendi Wi-Fi ağları vardır ve bu da Silikon Vadisi'ndeki merkezde çalışan bir test bataryası için kullanılır. Batarya kullanımı ve Facebook, Instagram, Messenger ve WhatsApp uygulamalarındaki güncellemelerden kaynaklanan performansta "gerileme" arıyorlar. Facebook kendi kodunda bir tane bulurlarsa, onu düzeltirler. Verimsizlik bir geliştirici tarafından tanıtıldıysa, sistem otomatik olarak suçluyu e-posta yoluyla bilgilendirir.

Kutular yalnızca en son iPhone 6'ları veya Galaxy S7'yi içermiyor. İOS tarafında, iPhone 4 ve daha sonraki sürümlerden birçok model içerir. Android tarafında kim bilir? İşi karanlık Android cihazları bulmak ve onları Prineville'e getirmek olan bir adam olduğunu söylemek yeterli.

Test altyapısını ve yazılımını geliştirmeye yardımcı olan bir mühendis olan Antoine Reversat, "Her yerden telefon almamız gerekiyor." Dedi. Nihai hedefi, rafların her biri 62 telefona kadar tutma kapasitesini iki katına çıkarmak ve telefonu bir adımda test edecek şekilde yapılandırmak için gereken 20 aşamalı manuel prosedürü azaltmanın bir yolunu bulmak. Bu, haber akışlarını yenilerken telefonlarını ölmüş olan herkesi rahatlatmalıdır.

Big Sur: Facebook'un AI beyni

Turumuzun ardından, adlandırıldığı Kaliforniya sahil şeridi gibi, tartışmalı olarak veri merkezinin en doğal kısmını oluşturan Big Sur yapay zeka sunucuları vardı. Elbette, Pasifik manzaralarını süpürmekten bahsetmiyoruz, bunun yerine, Nvidia'nın hızlandırılmış hesaplama başkan yardımcısı Ian Buck'ın yönetiminde, bir grup resim olarak görünen şeyi gösteren bir bilgisayar ekranı.

Buck, “Resimleri tanımak için bir sinir ağını eğittik” dedi. “Resimlere yarım saatlik bir bakıştan sonra, kendi eserini üretmeye başlayabilir” dedi.

Sergilenenler, 19. yüzyıl Fransız izlenimciliğine benziyordu, ama bir bükülme ile. Bir meyve natürmortının ve bir nehir manzarasının birleşimini istiyorsanız, Big Sur sunucu başına 40 petaflops işlem gücünü esneterek sizin için boyayacaktır. Karmaşık makine öğrenme problemlerini çözmek için Nvidia GPU'ları (bu durumda, PCI.e tabanlı Tesla M40 işlemcileri) kullanan birkaç AI sisteminden biridir. Google'ın DeepMind sağlık projesi ayrıca Nvidia'nın işlemcilerini kullanıyor.

Facebook, diğer görevlerin yanı sıra hikayeler okumak, fotoğrafların yüzlerini tanımlamak, sahnelerle ilgili soruları yanıtlamak, oyun oynamak ve rutinler öğrenmek için Big Sur kullanıyor. Aynı zamanda, yazılımı açık kaynak kodlu olarak geliştirir ve diğer geliştiricilere AI'ya özel altyapılarını kurma konusunda bir plan sunar. Donanım, her biri 33 watt'a kadar sekiz Tesla M40 GPU kartı içeriyor. Nvidia'nın, P100 amiral gemisi de dahil olmak üzere Tesla GPU'larının yeni PCI.e sürümlerini piyasaya sürdüğünden emin olun, yükseltme kolaylığını artırmak için tüm bileşenlere bir sunucu çekmecesinde kolayca erişilebilir.

Unutulmuş Fotoğraflar İçin Soğuk Depo

Prineville, Facebook'un ilk veri merkezi olduğundan, mühendislerin Facebook sunucularını daha verimli hale getirmek için fikirlerini test ettiği yer olma eğilimindedir. En yeni fikirlerden biri, soğuk hava deposu veya Facebook'ta çok fazla görüş almayan bir şey depolayan özel sunuculardır - örneğin lise fotoğraflarınız ya da Michael Jackson 2009'da öldüğünde yayınladığınız onlarca durum güncellemesi .

Soğuk depolamanın başarının sırrı, çok yönlüdür. İlk seviye, yüksek performanslı kurumsal donanımdan oluşurken, daha düşük katmanlar daha ucuz bileşenler kullanmaktadır ve bazı durumlarda - belki de hiç kimsenin görmeyi ummadığınız ayraçlarla desteklediğiniz fotoğraflar için - teyp kütüphaneleri. Sonuçta, her soğuk depolama sunucusu rafının 2 petabayt depolama alanı veya aya kadar uzanan 4.000 penn yığını alabilmesi beklenir.

Gelecek için Bina

Facebook, yerel okullara ve hayır kurumlarına yapılan bağışlarda 1 milyon dolardan fazla dahil olmak üzere Prineville'e daha hızlı İnternet ve diğer avantajlar getirmiş olsa da, varlığı tartışmasız değildir. Oregon, halen 2008 konut balonundan gelen yerel ekonominin ulusal ortalamayı takip ettiği bir zamanda şirkete vergi indirimlerinde çok para veriyor.

Yine de, 1.65 milyar insan bu çöl karakolu ve kız kardeşi veri merkezleri olmadan Facebook'a erişemeyecekti. Ve dördüncü Prineville binasına son rötuşları koymuş olmasına rağmen, Teksas'taki beşinci merkezi tamamlama yolunda ilerliyor. Ancak, bu, Facebook gezintinizin tükettiği enerji konusunda kendinizi suçlu hissettiriyorsa, olmamalıdır. Patchett'e göre, Facebook'u bir yıl boyunca gezen tek bir kullanıcı, latte yapmak için gerekli olandan daha az enerji tüketiyor. Başka bir deyişle, Starbucks'a yalnızca bir seyahatten vazgeçebilir ve haber akışınızı kalbinizin içeriğine göre kaydırabilirsiniz.

Oregon çölünde bu devasa yapı facebook'un çalışmasını nasıl sürdürüyor?