欧美亚洲中文,在线国自产视频,欧洲一区在线观看视频,亚洲综合中文字幕在线观看

      1. <dfn id="rfwes"></dfn>
          <object id="rfwes"></object>
        1. 站長資訊網(wǎng)
          最全最豐富的資訊網(wǎng)站

          百度硅谷人工智能實驗室開源高性能計算代碼 加速分布式深度學(xué)習(xí)訓(xùn)練

            美國時間2月22日,百度硅谷人工智能實驗室(SVAIL)宣布向深度學(xué)習(xí)領(lǐng)域開源了 Ring Allreduce算法庫,以實現(xiàn)在多個GPU之上更快速地訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型。

            Ring Allreduce是高性能計算領(lǐng)域的著名算法,但在深度學(xué)習(xí)領(lǐng)域應(yīng)用不足。該技術(shù)可以實現(xiàn)近乎線性的加速,以及幾十個甚至上百個GPU的擴(kuò)展。比如,運用Ring Allreduce算法,百度硅谷人工智能實驗室將神經(jīng)網(wǎng)絡(luò)的訓(xùn)練擴(kuò)展至40個GPU并且訓(xùn)練速度提高31倍。

          百度硅谷人工智能實驗室開源高性能計算代碼 加速分布式深度學(xué)習(xí)訓(xùn)練

            百度研究員Shubho Sengupta表示:“我們很高興能開源我們的Ring Allreduce算法庫,該庫可應(yīng)用于各大主要的深度學(xué)習(xí)框架,這將使深度學(xué)習(xí)研究人員可以在更多GPU上用更快的速度訓(xùn)練自己的模型。”

            過去幾年里,神經(jīng)網(wǎng)絡(luò)迅猛發(fā)展,其訓(xùn)練所需的數(shù)據(jù)量和計算資源也越來越大。為了提供所需的計算能力,更多GPU被用在訓(xùn)練之中。

            在多個GPU之上訓(xùn)練神經(jīng)網(wǎng)絡(luò)通常比較困難,因為比較普遍的做法是向單個GPU發(fā)送數(shù)據(jù),這樣就形成了通訊瓶頸。而Ring Allreduce算法可以大大減少GPU用于發(fā)送數(shù)據(jù)的時間,用更多的時間進(jìn)行有效運算,以此來消除瓶頸。

            “Ring Allreduce算法讓我們可以在神經(jīng)網(wǎng)絡(luò)的眾多設(shè)備和節(jié)點之間進(jìn)行更加高效的梯度分級,這是一種針對帶寬優(yōu)化的算法,能夠大大減少運算時間,從而實現(xiàn)更多設(shè)備的擴(kuò)展,同時還能保留同步隨機(jī)梯度下降的確定性與可預(yù)測的收斂性質(zhì)。百度研究員Andrew Gibiansky表示。

            百度Ring Allreduce (https://github.com/baidu-research/baidu-allreduce )C類庫可在Github上下載使用。同時Github上還提供與TensorFLow共同使用時所需的補(bǔ)丁 (https://github.com/baidu-research/tensorflow-allreduce)。

          特別提醒:本網(wǎng)內(nèi)容轉(zhuǎn)載自其他媒體,目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實,對本文以及其中全部或者部分內(nèi)容、文字的真實性、完整性、及時性本站不作任何保證或承諾,并請自行核實相關(guān)內(nèi)容。本站不承擔(dān)此類作品侵權(quán)行為的直接責(zé)任及連帶責(zé)任。如若本網(wǎng)有任何內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系我們,本站將會在24小時內(nèi)處理完畢。

          贊(0)
          分享到: 更多 (0)
          網(wǎng)站地圖   滬ICP備18035694號-2    滬公網(wǎng)安備31011702889846號