欧美亚洲中文,在线国自产视频,欧洲一区在线观看视频,亚洲综合中文字幕在线观看

      1. <dfn id="rfwes"></dfn>
          <object id="rfwes"></object>
        1. 站長資訊網(wǎng)
          最全最豐富的資訊網(wǎng)站

          谷歌推機器學(xué)習(xí)標(biāo)注圖片中物體界面 整體速度提高3倍

          谷歌推機器學(xué)習(xí)標(biāo)注圖片中物體界面 整體速度提高3倍

            10月24日上午消息,據(jù)中國臺灣地區(qū)媒體iThome.com.tw報道,Google在2018 ACM多媒體會議上,推出一種使用機器學(xué)習(xí)來標(biāo)注圖片界面,讓使用者快速為圖片中物體標(biāo)記出輪廓以及標(biāo)簽,提高整體標(biāo)記速度達三倍。

            由于現(xiàn)代基于深度學(xué)習(xí)電腦視覺模型的性能,取決標(biāo)簽訓(xùn)練資料的多少,越大的資料庫將能讓機器學(xué)習(xí)有更好的表現(xiàn)。Google在許多深度學(xué)習(xí)的研究都一再提到,高品質(zhì)的訓(xùn)練資料取得并不容易,而這個問題已經(jīng)成為發(fā)展電腦視覺的主要瓶頸,對于諸如自動駕駛、機器人或是圖片搜尋等這類以像素為辨識基礎(chǔ)的工作更是如此。

            傳統(tǒng)的方法需要使用者手動以標(biāo)記工具,圈出圖片中物體的邊界,Google提到,使用COCO加Stuff資料集,標(biāo)記一個圖片需要19分鐘,標(biāo)記完整個資料集需要53000個小時,太過耗時沒效率。因此Google探索了全新的訓(xùn)練資料標(biāo)記方法-流體標(biāo)注(Fluid Annotation),能以機器學(xué)習(xí)幫助使用者快速找出圖片物體輪廓上標(biāo)簽。

            流體標(biāo)注從強語義分割模型的輸出開始,使用者能以自然的使用者界面,借由機器學(xué)習(xí)輔助進行編輯和修改,界面提供使用者需要修正的物體以及順序,讓人們能夠?qū)P挠谀切C器尚無法辨識清楚的部分。為了標(biāo)注圖片,Google預(yù)先以約一千張具有分類標(biāo)簽和信任分?jǐn)?shù)的圖片訓(xùn)練了語意分割模型(Mask-RCNN),具有最高信心的片段(Segment)能被用于初始標(biāo)簽中。

            流體標(biāo)注能夠為使用者產(chǎn)生一個短清單,透過點擊就能快速為物體上標(biāo)簽,而使用者也可以增加范圍標(biāo)記,來覆蓋沒被偵測出來的物體,并透過滾動選擇最佳的形狀。另外,除了能夠增加,也能刪除既有的物體標(biāo)記或是變更物體深度順序。

            目前這一階段的流體標(biāo)注的目標(biāo)是讓圖像更快更容易,提高整體資料集標(biāo)記速度達三倍。接下來Google要改進物體邊界標(biāo)記,并以更多的人工智能加速界面操作,擴展界面以處理現(xiàn)在無法辨識的類別。

          特別提醒:本網(wǎng)內(nèi)容轉(zhuǎn)載自其他媒體,目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實,對本文以及其中全部或者部分內(nèi)容、文字的真實性、完整性、及時性本站不作任何保證或承諾,并請自行核實相關(guān)內(nèi)容。本站不承擔(dān)此類作品侵權(quán)行為的直接責(zé)任及連帶責(zé)任。如若本網(wǎng)有任何內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系我們,本站將會在24小時內(nèi)處理完畢。

          贊(0)
          分享到: 更多 (0)
          網(wǎng)站地圖   滬ICP備18035694號-2    滬公網(wǎng)安備31011702889846號