Google TPU晶片實測AI應用效能比CPU/GPU最高快30倍
(編譯/柱子) 4年前,Google面臨一個難題:如果Google所有使用者每天存取其語音辨識服務3分鐘的話,那麼該公司就必須讓資料中心的數量倍增,才能處理得了這些服務背後機器學習系統的所有請求。 針對上述需求,Google並非選擇購買一大堆房地產來建構資料中心與服務的傳統解決方式,反而另闢蹊徑地展開建立分散式硬體以運行像是語音辨識之類機器學習應用服務的旅程。 這段旅程的成果就是張量處理器單元(Tensor Processing Unit, TPU,所謂「張量」是指多維資料陣列而言),其為...