谷歌開源語義圖像分割模型DeepLab-v3+
安妮 編譯自 谷歌官方博客
量子位 出品 | 公眾號 QbitAI
今天,谷歌宣布開源語義圖像分割模型DeepLab-v3+。
據谷歌在博客上的描述,DeepLab-v3+模型是目前DeepLab中最新的、執行效果最好的語義圖像分割模型,可用於伺服器端的部署。
此外,研究人員還公布了訓練和評估代碼,以及在Pascal VOC 2012和Cityscapes基準上預訓練的語義分割任務模型。
DeepLab已三歲
雖然有「Lab」這個單詞,但DeepLab真的不是谷歌的某個實驗室啊喂~
這是三年前谷歌提出的一個語義分割模型,它改進了卷積神經網路(CNN)的特徵提取器,能更好地對物體建模,對上下文信息的理解也較為準確。經過多次訓練後,改進版的DeepLab-v2和DeepLab-v3相繼誕生。
而DeepLab-v3+模型就是DeepLab模型最新的改進方案。
研究人員通過添加一個簡單的解碼器模型擴展DeepLab-v3,用於細化分割結果,在物體邊界的劃分上甚是有用。
之後,他們還進一步將深度可分離的卷積應用到spatial pyramid pooling和解碼器模型中,構建出更厲害的編碼-解碼器網路進行語義分割模型。
相關資源
想了解DeepLab-v3+的更多技術細節,可移步官方博客:
https://research.googleblog.com/2018/03/semantic-image-segmentation-with.html
或前往代碼地址一探究竟:
https://github.com/tensorflow/models/tree/master/research/deeplab
—完—
活動報名
加入社群
量子位AI社群13群開始招募啦,歡迎對AI感興趣的同學,加小助手微信qbitbot4入群;
此外,量子位專業細分群(自動駕駛、CV、NLP、機器學習等)正在招募,面向正在從事相關領域的工程師及研究人員。
進群請加小助手微信號qbitbot5,並務必備註相應群的關鍵詞~通過審核後我們將邀請進群。(專業群審核較嚴,敬請諒解)
誠摯招聘
量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話界面,回復「招聘」兩個字。
※無人車公司May Mobility種子輪融資1150萬美元,寶馬豐田聯合領投
※無人車企哪家強?通用第一Waymo第二,蘋果特斯拉進黑榜
TAG:量子位 |