AI(人工智能)是當(dāng)今科技圈的熱門話題,深度學(xué)習(xí)則是AI訓(xùn)練的重要手段之一。如何學(xué)習(xí)要靠硬件和算法支撐,這方面,Intel力挺CPU,NVIDIA則力挺GPU。
日前,Intel實驗室聯(lián)合美國萊斯大學(xué)宣布了一種突破性的深度學(xué)習(xí)新算法SLIDE。
SLIDE基于散列開發(fā),而非當(dāng)前最富盛名的BP算法(反向傳播算法)所基于的矩乘。
借助SLIDE,CPU用于傳統(tǒng)AI模型深度學(xué)習(xí)訓(xùn)練的效率大大提升。研究論文舉例稱,一套擁有44個Xeon核心的平臺和一套價值10萬美元、由8張NVIDIA Vlta V100加速卡支撐的平臺(TensorFlow框架)執(zhí)行相同的訓(xùn)練任務(wù),前者用時1小時,后者則花了3.5小時。
有趣的是,Intel還表示,它們這套平臺尚未充分優(yōu)化,還是“殘血”狀態(tài),比如處理器的DLBoost并未啟用。
不過,這套44核至強平臺到底是什么型號CPU并未公布,一說就是22核心44線程的至強鉑金6238,一說是雙路至強鉑金6238,還有可能是未發(fā)布的產(chǎn)品。