Ev İleri düşünme Google’ın tensör işleme birimleri, makine öğrenmesi için kuralları değiştirdi

Google’ın tensör işleme birimleri, makine öğrenmesi için kuralları değiştirdi

Video: Ari Lennox - GROUNDED (A #BlackOwnedFriday Jingle) (Kasım 2024)

Video: Ari Lennox - GROUNDED (A #BlackOwnedFriday Jingle) (Kasım 2024)
Anonim

Geçtiğimiz hafta Google’ın I / O geliştiricileri konferansında yaptığı en ilginç ve beklenmedik duyurulardan biri, makine öğrenmesi için kendi yongalarını tasarlayıp uygulamasıydı. Açılış konuşması sırasında Google CEO'su Sundar Pichai, Tensor İşleme Birimleri (TPU) olarak adlandırdığı şeyi sundu ve şirketin bunları Go şampiyonu Lee Sedol'u mağlup eden AlphaGo makinelerinde kullandığını söyledi.

Pichai, "TPU'lar, watt başına ticari FPGA'lara ve GPU'lara göre daha yüksek bir performans derecesidir, " dedi. Çok fazla ayrıntı vermemiş olsa da, Google seçkin donanım mühendisi Norm Jouppi bir blog gönderisinde bir TPU’nun özel bir ASIC (uygulamaya özel entegre devre) olduğunu açıkladı. Başka bir deyişle, makine öğrenmeyi çalıştırmak için özel olarak tasarlanmış ve Google'ın makine öğrenimi çerçevesi olan TensorFlow için özel olarak tasarlanmış bir çiptir.

görüntü

Görevde, Jouppi, işlem hacminin daha az transistör gerektirdiği anlamına gelen azaltılmış hesaplama hassasiyetinin "daha toleranslı" olduğunu söyledi. Bu, Google’ın saniyede daha fazla işlem yapmasını ve kullanıcıların daha hızlı sonuç almasını sağlar. TPU'lu bir tahtanın veri merkezi raflarında sabit disk sürücüsü yuvasına oturduğunu ve şirketin AlphaGo makinelerinde kullanıldığını söylediği TPU'larla dolu sunucu raflarının görüntüsünü gösterdiğini söyledi.

Ek olarak, Jouppi, TPU’ların Google’da, arama sonuçlarının uygunluğunu geliştirmek için kullanılan RankBrain ve haritaların ve navigasyonun doğruluğunu ve kalitesini artırmak için kullanılan Sokak Görünümü de dahil olmak üzere Google’da bir dizi uygulama üzerinde çalıştığını söyledi.

Bir basın toplantısında, Google’ın Teknik Altyapı Urs’i VP’si Hölzle, TPU’nun, çoğu modern CPU ve GPU’nun tasarlandığı yüksek hassasiyetli kayan nokta matematiği yerine 8 bit tam sayı matematiği kullanarak çalıştığını doğruladı. Çoğu makine öğrenmesi algoritması daha düşük çözünürlükte verilerle iyi sonuç verir, bu da çipin belirli bir alanda daha fazla işlem yapabileceği ve daha karmaşık modellerin verimli bir şekilde ele alınabileceği anlamına gelir. Bu yeni bir fikir değil, CES'te bu yılın başlarında açıklanan Nvidia Drive PX 2 modülü 32 bit kayan nokta hassasiyetinde 8 teraflop yapabiliyor ancak 24 derin öğrenme "teraops" a ulaşıyor (şirketin 8 terimi -bit tamsayı matematik).

Hölzle spesifikasyonlara girmeyi reddetse de, raporlar Google’ın bugün hem TPU’ları hem de GPU’ları kullandığını doğruladığını söylüyor. Bunun bir süre daha devam edeceğini söyledi, ancak Google'ın GPU'ları çok genel olarak görmesini önererek makine öğrenmesi için daha optimize edilmiş bir yongayı tercih etti. Şirketin daha sonra çipin yararlarını anlatan bir makale yayınlayacağını, ancak bunların diğer şirketlere satılmak için değil, yalnızca iç kullanım için tasarlandığını belirtti. Açıkladığı başka bir uygulama, Android telefonda kullanılan ses tanıma motorunun arkasındaki bilgisayar parçasını taşımak için cips kullanmaktı.

ASIC kullanma seçimi Google tarafından ilginç bir bahis. Son yıllarda makine öğrenimindeki en büyük gelişmeler - derin sinir ağları için büyük itmenin arkasındaki teknoloji - bu modelleri eğitmek için GPU'ların, özellikle Nvidia Tesla hattının benimsenmesi olmuştur. Yakın zamanda, Intel, ortada bir yerde olan FPGA'ların (sahada programlanabilir kapı dizileri) lider üreticisi Altera'yı satın aldı; GPU'lar kadar genel bir amaç değil ya da Google'ın çipi kadar TensorFlow için özel olarak tasarlandılar, ancak çeşitli görevler yapmak için programlanabilirler. Microsoft, derin öğrenme için Altera FPGA'ları deniyor. IBM, son zamanlarda çeşitli uygulamalarda kullanılmaya başlanan sinir ağları için özel olarak tasarlanmış TrueNorth Neurosynaptic yongasını geliştiriyor. Cadence (Tensilica), Freescale ve Synopsys, bu modelleri çalıştırmak için DSP'lerini (dijital sinyal işlemcileri) zorluyor; Mobileye ve NXP kısa süre önce özel olarak ADAS ve kendi kendini süren otomobiller için tasarlanan fişleri açıkladı; Movidius ve Nervana da dahil olmak üzere birçok küçük şirket, AI için özel olarak tasarlanmış cipslerin planlarını açıkladı.

Hangi yaklaşımın uzun vadede en iyi olacağını bilmek için henüz çok erken, ancak çok farklı seçeneklere sahip olmak, önümüzdeki birkaç yıl içinde ilginç bir rekabet göreceğimiz anlamına geliyor.

Google’ın tensör işleme birimleri, makine öğrenmesi için kuralları değiştirdi