這篇報導說,Google為他做給機器學習使用的開源碼中介軟體Tensorflow,打造了專用的晶片(ASIC),比目前的GPU和FPGA的效率高一個數量級。(其實這句話是不大精確的,因為FPGA的效率可能比GPU快一個數量級)。
如果CPU/GPU/FGPA要靠摩爾定律提昇10倍的效率,大概要等7年,前提是摩爾定律仍然持續(我看很難)。如果摩爾定律停滯了,硬體加速的優勢,就不只7年了,可能是永久的,因此硬體加速變得格外重要。
不過打造ASIC頗花錢的,除非應用面已成熟而且有足夠的需求。有些機器學習所需的演算法已然成熟,當然可以用ASIC 來做,但是對於其他尚未成熟的機器學習,或是機器學習之外的應用,FPGA是比較有彈性的加速技術,也是我們正在研究的技術。
沒有留言:
張貼留言