當前位置:
首頁 > 新聞 > CVPR 2019提前看:少樣本學習專題

CVPR 2019提前看:少樣本學習專題

CVPR 2019 年共收到了 5165 篇有效提交論文,比去年 CVPR2018 增加了 56%,論文接收方面,本屆大會共接收了 1300 論文,接收率接近 25.2%,截止本文截稿前統計共有 288 篇 Oral 論文。我們根據所有接收論文的細分方向做了一個柱狀圖供讀者參考,可以看到深度學習,識別相關的論文仍然佔有較大比例。

CVPR 2019提前看:少樣本學習專題

CVPR 2019提前看:少樣本學習專題

本文選擇深度學習細分種類下的少樣本學習(Few-Shot Learning)這個話題。近兩年來我們注意到學界開始改變之前大數據好效果的模型訓練方式,關注用少量的數據來達到較好的任務表現,目前此類方法還處在學界探索實驗階段,在業界運用還不算普及(由於業界產品對模型精確度有比較高的要求,且大多針對的都是特定業務細分場景),然而該方向『小數據學好模型』的思想對之後的機器學習研究和應用都具有非常好的前景以及應用潛力,所以筆者今年挑了四篇思路和方法都比較新穎,同時結果也具有說服力的少樣本學習的文章進行了比較細緻的引讀和推薦,文章內容涵蓋物體分類、物體檢測任務,以期給關注這個方向的讀者更多的啟發。

由於篇幅有限,在詳細介紹的四篇論文之外,我們還準備了幾篇同樣非常新穎的少樣本學習工作做了簡略的介紹,這部分文章涉及圖像檢索,人臉反欺詐,長尾數據分類等任務,最後我們將篩選的本屆 CVPR 接受的幾篇少樣本學習或者相關的半監督學習文章的原文和名稱都附到了文章末尾供讀者參考。

分類任務上的少樣本學習

1.Edge-Labeling Graph Neural Network for Few-shot Learning(classification)

  • paper: https://arxiv.org/abs/1905.01436
  • code: https://github.com/khy0809/fewshot-egnn

圖網路(Graph Neural Network, GNN)由於節點與節點之間具有相關性可以實現更豐富的信息傳遞,在近期來涉及到的推理問題(Reasoning)或者是視覺問答(Visual Question Answering)等任務上都有不少的嘗試,而少樣本學習(few-shot learning)的難點通常是在於可用樣本有限,所以樣本之間潛在的關聯性在學習過程中就變得非常重要了,通用的前傳網路很難捕捉到樣本之間豐富的關聯信息,圖網路正好可以彌補這一點:圖網路在節點之間構建的豐富的連接,使得其能夠利用節點之間的信息傳遞機製得到鄰節點的信息並且進行聚合,通過一定複雜程度的圖網路,就能夠表達數據個體之間豐富的關聯互動特徵。

常見的圖網路關注於節點的表示與特徵嵌入,為了更充分的利用節點的關聯信息,本篇論文提出了邊標記圖網路(Edge-Labeling Graph Neural Network,EGNN),類比於關注節點信息的 GNN,EGNN 通過迭代更新連接邊的信息直接可以反映節點之間的類內相似度(intra-cluster similarity)與類間差異度(inter-cluster dissimilarity)從而獲取正確的類別分配結果。另一方面,EGNN 在無需 re-train 的情況下能很好地適應不同數目的類別,並且很容易擴展到轉換式推理(Transductive Inference)上面,同時在現有的 GNN 方法中,EGNN 在分類任務上實現了大幅的性能提升。

在完整觀察 EGNN 結構之前,我們先理解 EGNN 里的節點與對應的連接邊信息的基本更新方式:

CVPR 2019提前看:少樣本學習專題

在圖中首先更新節點特徵,之後再更新節點之間連接邊的特徵,因為一組節點的特徵有變化,進而也會影響到連接邊上的特徵,以及衡量節點之間的類內相似度(intra-cluster similarity)與類間差異度(inter-cluster dissimilarity)的參數也會對應得到更新,在邊和點的特徵都得到更新之後,計算邊損失(Edge Loss),用 episodic training 的訓練策略來更新 EGNN 的權重。

接下來我們會從少樣本分類學習的問題定義入手,結合一個二分類的例子來闡述 EGNN 的各個模塊與更新演算法規則,幫助我們理解 EGNN,最後順延擴展到論文實驗中真正部署的多分類任務。少樣本分類顧名思義就是通過每個類別極少或較少的訓練樣本來學習泛化而且魯棒的分類器能夠保持較高的準確度並且具有擴展性從而識別新的類別。由此,每個分類的任務 T(Task)都包含一個支持集 S(Support Set)與查詢集 Q(Query Set),支持集是一個已包含標籤的數據集,查詢集則是未經標記的數據集,也正是學好的分類器進行驗證的一個數據集。如果支持集 S 包含 N 個類,每個類別對應有 K 個標記數據,那麼我們稱此類問題為 N 路 K 樣本分類問題(N-way K-shot classification problem),現在我們假設手上有兩個類別的數據,支持集 S 中每個類別有兩個樣本,查詢集 Q 有一個未標記樣本(類似測試樣本,我們已知標籤,但是對於網路並不透露它)我們將這個問題歸為 2 類 2 樣本問題,參考下圖 EGNN 框架圖,我們一個模塊一個模塊來理解推導:

CVPR 2019提前看:少樣本學習專題

原始的兩類五個樣本數據都是圖像,所以首先 a)我們將圖像輸入到卷積神經網路(Convolutional Neural Networks)中提取特徵,得到數據樣本的特徵表示,之後根據已有特徵建立鄰接邊並初始化,形成一張全連接圖(fully-connected graph),每一條邊都指代著它連接的兩個節點的關係類型。圖的構造用數學形式表示為 G=(V,E;T),對於每一個任務 T,一個圖對應著一個節點集合 V,一個邊集合 E。對於支持集的邊標籤我們採用節點的標籤進行表示如下:

CVPR 2019提前看:少樣本學習專題

至於邊的特徵 e 我們一個數值範圍在 [0,1] 區間內的二維向量來分別表示該條邊連接的兩個節點類內相似度(intra-cluster similarity)與類間差異度(inter-cluster dissimilarity),圖網路同樣也是多層網路,每層均可以按照類似的規則進行初始化。

CVPR 2019提前看:少樣本學習專題

b)圖初始化完成之後,我們就根據之前提到過的信息更新流程,首先更新節點特徵:

CVPR 2019提前看:少樣本學習專題

之後就是根據變換後的節點信息來更新邊的特徵:

CVPR 2019提前看:少樣本學習專題

c)在數次的節點、連接邊特徵迭代更新之後,我們可以從最近更新的邊特徵上得到最終的節點類別預測,用非常直接的加權投票(weighted voting)方法,結合支持集 S 里的樣本標籤以及它們與查詢樣本連接邊的預測值,我們就可以很容易的推出待查詢樣本的所屬類別,節點的預測概率可以表達為:

CVPR 2019提前看:少樣本學習專題

同樣地,EGNN 的推理過程演算法正如上述各個模塊流程所述,詳細的網路模塊圖與演算法流程圖如下:

CVPR 2019提前看:少樣本學習專題

CVPR 2019提前看:少樣本學習專題

具體到實驗部分,EGNN 採用了 miniImageNet,tieredImageNet 兩個標準數據集,圖像種類數目由 100 到 608 類,圖片數目也分為較少和較多,且 tieredImageNet 還具有分層級的圖像種類類別結構,EGNN 嘗試從數據體量大小,種類多少,任務難易程度來比較從而證實加入 EGNN 中邊屬性後的網路優越性,最終實驗結果如下圖所示,平均起來比之前提出的各類 GNN 在少樣本分類任務上確實有不錯的精度提升:

CVPR 2019提前看:少樣本學習專題

CVPR 2019提前看:少樣本學習專題

綜合看下來這篇文章在構思和實現方面都非常有創新,充分利用了圖結構學習節點關聯的特性,實驗結果也非常有說服力,是非常有亮點的一個作品,也對之後圖網路相關的工作提供了更多的啟發。

2. LaSO: Label-Set Operations networks for multi-label few-shot learning (classification, multi-label)

  • paper: https://arxiv.org/abs/1902.09811

數學中集合運算的基本概念:集合的並(Union),交(Intersection),補(Complement)三大運算對於我們都不陌生。但是今天這篇論文提出,小樣本學習(few-shot learning)情況下的圖像多標籤分類(multi-label classification)也能夠實現類似集合一樣的交,並,補操作。

對於小樣本學習來說,核心難點經常是可用訓練樣本數目不足,解決的方法也多是尋求各種形式的樣本合成(Example Synthesis),當然樣本合成基本都是針對於單標籤的普通分類情況,LaSO(Label Set Operation networks)在此基礎上,提出了一個應用於多標籤小樣本分類場景下的樣本合成方法,將一組圖片輸入到 LaSO 網路里,獲取兩張圖片各自的特徵,並將他們結合起來,學習在特徵空間上的並集特徵(union feature),交集特徵(intersection feature)以及補集特徵(compelemt feature)表示,這三個學習到的特徵也會對應我們在多分類上的語義標籤的並,交,補操作。

舉例子來說明:我們希望訓練一個野外各種類動物的分類器,然而目前我們手上僅有的卻都是少量的關在籠子里的動物樣本圖片,籠中動物顯然無法很好地泛化和學習到野外動物的特徵表示,所以在 LaSO 提出的場景下,我們先將一張籠中公雞與一張籠中兔的圖片配位一對輸入到網路中,讓 LaSO 不只是學習到兔和公雞的特徵,同時還有我們完全沒有涉及的籠子的特徵,而籠子的特徵恰好是兩張輸入圖片的交集(intersection),我們取出這樣的交集特徵,同時再次輸入一隻籠中老虎的照片獲得籠中虎特徵,此時對籠中虎特徵求它與籠子特徵的補集(complement),我們從一定程度上就獲得了「無籠子」的野生老虎的特徵了,示意圖如下:

CVPR 2019提前看:少樣本學習專題

接下來我們一起看看 LaSO 的整個模型結構:

CVPR 2019提前看:少樣本學習專題

LaSO 模型接受一對圖片 X,Y 為輸入,分別進入骨幹網路 B(文章採用 InceptionV3 以及 Resnet 作為特徵提取網路)進行特徵提取得到特徵 Fx,Fy。在對兩張圖片的特徵進行連接之後,根據我們希望學到的圖像中個體類別的交,並,補,所以連接好的特徵分別進入 LaSO 的交、並、補網路模塊 Mint,Muni,Msub 中學習合成對應的特徵 Zint,Zuni,Zsub,特徵 Z 可以認為是對應著一張假設的圖像 I,這張圖像 I 中的個體類別恰好對應著輸入 X,Y 的標籤的並/交/補,舉例說明 Zint 可以看做假設圖 I 的提取特徵,而圖 I 的標籤 L(I)正是輸入 X 與 Y 的標籤交集。

在這之後結合我們已經渠道的所有特徵,訓練一個分類器 C 並使用交叉熵損失函數(Binary Cross-Entropy Loss, BCE)來學習這個多標籤分類的問題,同時之前學習合成特徵 Z 的三個 LaSO 模塊也採用一樣的損失函數進行參數更新,具體表達式如下:

交叉熵損失函數:

CVPR 2019提前看:少樣本學習專題

分類器 C 損失函數:

CVPR 2019提前看:少樣本學習專題

LaSO 模塊損失函數:

CVPR 2019提前看:少樣本學習專題

除此之外考慮到操作對稱因素以及模型穩定因素,基於重構的均方誤差(Mean Square Error,MSE)也作為另一部分的損失載入到模型的最後:

對稱損失:

CVPR 2019提前看:少樣本學習專題

模型穩定損失:

CVPR 2019提前看:少樣本學習專題

在實驗過程部分,論文主要採用了 MS-COCO 2014 與 celebA 的數據集來進行實驗和對比分析,將 COCO 數據集的 80 的物體類別隨機分成 64 個已知類別與 16 個未知類別,並且使用平均精度(mean Average Precision,mAP)來衡量 LaSO 模塊的學習能力,結果具體如下:

CVPR 2019提前看:少樣本學習專題

CVPR 2019提前看:少樣本學習專題

綜合看來,這篇 LaSO 論文選題的角度非常有創新性,少量樣本來學習多標籤分類,並且使用集合中並、補、交的數學概念來操作圖像標籤,進行樣本增廣,反過來又輔助了少樣本學習情況下樣本缺乏的問題,提出的網路架構也非常直觀易懂,雖然目前看來分類效果還有待提升,同時網路的訓練目前也還是分批來進行,擴展的實驗也沒有那麼豐富,但是它提出的新穎角度和方法,也仍然是值得關注的,相信之後也會有更多的思考和新的工作會更新,根據原文,LaSO 的代碼也即將在近期公布供讀者參考驗證。

檢測任務上的少樣本學習

3.RepMet: Representative-based metric learning for classification and few-shot object detection (detection)

  • paper: https://arxiv.org/abs/1806.04728

深度度量學習(Deep Metric Learning,DML)顧名思義,通過衡量映射在某一空間上的樣本之間的距離,來學習樣本的相似度與區分度。比如在分類任務學習中,不同類別的圖像樣本通過神經網路抽取特徵得到一個個表徵之後,通過歐式距離衡量樣本表徵之間的相隔遠近,從而推導出樣本所屬的類別。在這樣的樸素衡量思想下,少樣本分類學習即可以非常容易的繼承這樣的演算法思路:採用一個合適的嵌入空間(embedding space)來表徵樣本,再套入合適的距離度量損失來衡量新入樣本與各個未知類別之間的距離大小,從而得到待測樣本的應屬類別。

在深度度量學習的大框架啟發下,本篇論文提出了一個新式的深度度量學習方法來同時應用到分類以及檢測任務上:該方法以一種端到端的(end-to-end)訓練過程同時學習骨幹網路參數,嵌入空間,以及每一個物體類別的多模態分布(multi-modal distribution)。之後論文在幾個任務和數據及上都做了實驗和對比,證明這個新的深度度量學習方法在少樣本的目標檢測上面的有效性 並在 ImageNet-LOC 數據集上取得了目前為止最好的成績。

接下來讓我們大致看一下 RepMet 方法的思路:類似 Faster-RCNN 一類的常用檢測方法,通常是一個提取 ROI(Region of Interest)的網路 RPN(Region Proposal Network),再加上一個分類提取出來的 ROI 的分類器頭(cleassifier head),整體構成整個檢測模型,論文依託於這個大的結構不變,將模型中的分類器頭用一個子網路(subnet)進行了替換:將 ROI 通過池化後提取的嵌入特徵向量作為子網路輸入,子網路通過提出的深度度量學習新方法,對比嵌入特徵向量(embedding features)到每一個類別的表徵向量(representatives)之間的距離,學習並計算每個 ROI 的所屬類別後驗概率(posteriors)。所以在少樣本檢測的系列實驗中,我們將新類別提供的少量訓練樣本送入骨幹網路提取得到前景 ROI 並計算出它們的嵌入特徵向量,用這部分嵌入特徵向量替代之前從已知類別里學到的表徵向量(representatives),從而得到新類別的表徵,再計算後驗概率。訓練和測試階段的大致流程可以參考如下的流程圖:

CVPR 2019提前看:少樣本學習專題

在對 RepMet 的設計思路有了大致了解之後,我們來看這整個模塊的網路架構:

CVPR 2019提前看:少樣本學習專題

首先圖像輸入骨幹網路並通過池化得到輸入 RepMet 子網路模塊的輸入特徵向量,輸入特徵進入到幾個全連接層構成的 DML 嵌入模塊得到對應的嵌入特徵向量 E,之後便是距離衡量的模塊,計算出嵌入特徵 E 與多個類別的表徵向量的距離,此距離也在之後用來計算所給出圖像的後驗概率,公式如下:

CVPR 2019提前看:少樣本學習專題

除了計算類別後驗概率,論文同樣計算了開放的背景類別後驗概率:

CVPR 2019提前看:少樣本學習專題

至於損失,類別損失論文就採用了基礎的交叉熵損失,另一部分則是 margin 損失,保持嵌入向量 E 與表徵向量之間至少有一定的距離,公式如下:

CVPR 2019提前看:少樣本學習專題

根據論文所提出的子網路以及其對應的損失函數設計,可以使得其能同時訓練一個深度度量學習的嵌入表達網路與一個計算類別後驗概率的多模態混合分布模型,二者加在一起就組成了替代傳統檢測器的分類器頭(classifier head)的模塊,於是同樣可以組合到特徵提取的骨幹網路中,進行端到端的訓練過程。

實驗首先將 RepMet 整個模塊作為分類器的性能在多個數據集上與其餘 SOTA 方法做了對比,取得了一定的精度提升:

CVPR 2019提前看:少樣本學習專題

另一方面,在少樣本的檢測任務上,RepMet 與現有的唯一一個 LSTD 方法做了對比,取得了當前最好的少樣本檢測精度:

CVPR 2019提前看:少樣本學習專題

這篇論文綜合看來關注了比較新穎的少樣本檢測問題,提出的方法簡單直接,並且也取得了不錯的效果,對於少樣本檢測任務是一個非常有趣的開端,遺憾的是文章提出的方法更側重的還是在提取到 ROI 之後的分類器上做變動和改進,我們期待朝後會有更多的工作陸續出來並且能夠對整個分類器的改進提出新思路,同時據論文內容,代碼也將在不久之後公開供讀者參考借鑒。

4. Few Shot Adaptive Faster R-CNN(detection)

  • paper: https://arxiv.org/abs/1903.09372

在實際生活中人眼可以非常輕易地在不一樣的新場景下識別出類似的場景或者物體,比如晴天狀況下的街道和雨天狀況下同一條街道,正午的故宮和傍晚的故宮,又或者是嶄新的一台越野車以及車身附著泥漿的越野車。

CVPR 2019提前看:少樣本學習專題

作為人類不會因為氣候,光照,或者物體細小的外觀變化導致最後無法識別該物體,但是神經網路就會,對於局域的場景變換(domain shift)比較敏感的檢測器會因為如上的一些原因造成檢測器大幅度性能下降,為了解決此類問題,現有的大部分解決方法均基於無監督的區域適應(unsupervised domain adaptation, UDA),此類方法通常要求大量的目標域數據,相對也需要較長的適應時間,目前適用的領域也大都集中於分類問題,對於檢測或者更複雜的視覺問題,應用起來效果並不理想。

本篇論文著眼於以上問題,探索了僅僅依靠少量目標域標記數據來訓練一個檢測器完成區域適應的可能性,提出了名為 FAFRCNN(few-shot adaptive Faster R-CNN)的網路結構,這個新的框架由圖像(image)與實例個體(instance)兩層級的的適應模塊組成,並搭配一個特徵配對機制,與一個強力的正則化,配對機制的引入,使得圖像層級的模塊能夠均衡地抽取並對齊成對的多粒度特徵(multi-grain patch features),最終更好的捕捉全局的域變換(global domain shift),例如說光照,而在個體對象層級上,語義上成對匹配的個體特徵能夠更好地提供不同物體類別之間的區分度,消除不確定性。另一邊,強化的正則引入,它能夠使得適應過程訓練更加穩定並且避免過度適應(over-adaption)問題的發生。

在宏觀地了解了 FAFRCNN 的設計思想和初衷之後,我們來進一步地看看整個框架的網路結構:

CVPR 2019提前看:少樣本學習專題

假設我們有非常充裕的原場景區域數據(source domain data)用於訓練,表示為(Xs,Ys),同時還有一個非常小的目標域數據集(target domain data),表示為(Xt,Yt),其中 Xs 與 Xt 各自代表著對應數據集的輸入圖片,Ys 指代著完整的 bounding box 標記。使用 f 指代特徵抽取器,那麼輸入網路後得到的特徵就表示為 f(x),受之前圖到圖轉化(image-to-image translation)的啟發,文章提出使用分離池化(split pooling, SP),以不同的高寬比和縮放尺度設置窗口,均勻地從各個位置提取局部特徵塊。

如上述網路結構左上角所示的那樣,設置不同縮放比、寬高比之下的網格窗口(grid window)寬高分別為 w, h,最終得到 9 對 w,h 的組合,對於每一對寬高來說,網格中生成的無邊界矩形(non-border rectangles)在通過池化之後都會變成固定大小的特徵向量,池化使得不同大小的網格都能最終統一地兼容在一個區域分類器(domain classifier)上,在特徵經過不同縮放尺度的池化之後,我們得到三個池化向量 SPl(f(X)),SPm(f(X)),SPs(f(X)), 正是這些局部塊的特徵最終可以影響圖像層級的域變換,例如光照,天氣狀況等。之後根據得到的特徵,我們建立了對抗網路來學習區域的變換,對抗網路中的判別器嘗試分清原場景域數據與目標域數據,與此同時特徵生成器嘗試生成真假難辨的特徵來迷惑判別器。以小尺度縮放的判別器舉例來說,函數的最終目的就是最小化如下的損失:

CVPR 2019提前看:少樣本學習專題

對於其他尺度的函數公式也是同樣的,所以最終圖像層級 (image-level) 的域變換判別器,想要達到的目的就是最小化三者的和:

CVPR 2019提前看:少樣本學習專題

對於個體層級(instance-level)的域變換來說,也是類似的情況,判別器嘗試最小化

CVPR 2019提前看:少樣本學習專題

在此同時生成器嘗試最小化:

CVPR 2019提前看:少樣本學習專題

最終在四個數據集上的場景下,FAFRCNN 都取得了目前最好的成績:

CVPR 2019提前看:少樣本學習專題

CVPR 2019提前看:少樣本學習專題

CVPR 2019提前看:少樣本學習專題

綜合看來,文章提出的域適應問題是非常有實際應用價值的,在之前一些工作的基礎上,FAFRCNN 提出了用少樣本學習來完成檢測器中的域適應過程,並與 Faster-RCNN 進行融合,實驗結果也非常具有說服力,值得一提的是網路結構為了學習域變化,整體用了三個對抗網路訓練,在應用中是否能夠如 Faster-RCNN 一樣的高效呢?在速度和準確性的 trade-off 之間表現如何,目前還沒有文章作者會放出代碼的更新,我們可以期待之後是否有相應地更新以及應用於其他數據集上的更新。

其他任務的少樣本學習

1.Deep Tree Learning for Zero-shot Face Anti-Spoofing

  • paper: https://arxiv.org/abs/1904.02860

本文針對人臉識別過程中反欺詐(face Anti-Proofing) 的問題,提出了一個深度樹網路(Deep Tree Network)來進行零樣本的人臉反欺詐(Zero-Shot Face Anti-Proofing, ZSFA)工作,在之前的工作中僅能零樣本識別 1-2 類別的識別欺詐攻擊,本篇工作提供了更加深入的探索將可探測到的欺詐類別擴展到了 13 類,同時引入了首個人臉反欺詐的資料庫,涵蓋了多個類別的欺詐攻擊,並證明了本身提出的論文達到了目前為止最好的性能。

2.Few-Shot Learning with Localization in Realistic Settings

  • paper: https://arxiv.org/abs/1904.08502

傳統的識別方法通常要求體量大而且類別均衡的訓練數據,同時少樣本學習的時候要求在認為造成的小規模數據集上進行測試,然而現實世界中我們遇到的識別類問題卻恰恰是顯示了一種類別分布的重尾效應(heavy-tailed class distribution)。在這篇文章中證明了之前在人為設計數據及上學習到的少樣本學習方法在此類分布模式的數據上並不起作用,根據已有的 meta-iNat benchmark 結果,文章提出了新的 parameter-free 思考與三個訓練提升方式,最終在該 benchmark 上達到了非常好的提升效果。

3.Doodle to Search: Practical Zero-Shot Sketch-based Image Retrieval

  • paper: https://arxiv.org/abs/1904.03451

這篇論文主要關注的內容是基於草圖的零樣本圖像檢索(zero-shot sketch-based image retrival, ZSSBIR):當人們畫出一個大致輪廓的草圖作為檢索請求,演算法能夠準確地檢索到之前未見過類別中的圖片,在前作基礎上,文章提出了新的策略將草圖與實際圖像建模合併到同一個嵌入特徵空間,同時外來的語義知識也被加入進來作為語義遷移的助力,並且成功在該任務上取得了不錯的效果

4.Zero-Shot Task Transfer

  • paper: https://arxiv.org/abs/1903.01092

這篇文章理論性相對稍強,它提出一種名為 TTNet 的新型元學習演算法,TTNet 可以做到沒有任何標籤的情況下對面臨的新任務,回歸出其該有的參數,也即是零樣本的任務學習。文章在 Taskonomy 數據集上針對四個任務:曲面法線,空間布局,深度,以及相機姿態估計做了如上所述的零樣本任務學習,而提出的方法 TTNet 超越了目前所有的 SOTA 模型,另一點值得提出的是,這篇論文也是首次嘗試將零樣本學習應用在任務轉化中的一篇作品。

CVPR 其他少樣本學習/無監督學習論文列表

註:加粗文章為 oral 文章, 未加粗文章是 poster

1.Generating Classification Weights with Graph Neural Networks for Few-Shot Learning(Oral)

2.Gradient Matching Generative Networks for Zero-Shot Learning(Oral)

  • paper:http://openaccess.thecvf.com/content_CVPR_2019/html/Huang_Generative_Dual_Adversarial_Network_for_Generalized_Zero-Shot_Learning_CVPR_2019_paper.html

3.Learning Inter-pixel Relations for Weakly Supervised Instance Segmentation(Oral)

  • paper:https://arxiv.org/abs/1904.05044

4.Unsupervised Person Image Generation with Semantic Parsing Transformation

  • paper:https://arxiv.org/abs/1904.03379

5.Rethinking Knowledge Graph Propagation for Zero-Shot Learning(Oral)

  • paper:https://arxiv.org/abs/1805.11724

6.Meta-Transfer Learning for Few-Shot Learning(Poster)

  • paper:https://arxiv.org/abs/1812.02391

7.Generative Dual Adversarial Network for Generalized Zero-shot Learning(Poster)

  • paper:https://arxiv.org/abs/1811.04857

8.Hierarchical Disentanglement of Discriminative Latent Features for Zero-shot Learning(Poster)

  • paper:https://arxiv.org/abs/1803.06731

9.Marginalized Latent Semantic Encoder for Zero-Shot Learning(Poster)

10.Spot and Learn: A Maximum-Entropy Image Patch Sampler for Few-Shot Classification(Poster)

11.Large-Scale Few-Shot Learning: Knowledge Transfer with Class Hierarchy(Poster)

12.Generalized Zero- and Few-Shot Learning via Aligned Variational Autoencoders(Poster)

  • paper:https://arxiv.org/abs/1812.01784

13.Dense Classification and Implanting for Few-shot Learning(Poster)

  • paper:https://arxiv.org/abs/1903.05050

14.On zero-shot recognition of generic objects(Poster)

  • paper:https://arxiv.org/abs/1904.04957

15.out-of-distribution detection for generalized zero-shot action recognition(Poster)

  • paper:https://arxiv.org/abs/1904.08703

作者簡介:

Angulia Yang 畢業於新加坡國立大學,目前從事人工智慧相關計算機視覺 (Computer Vision) 與機器學習(Machine Learning)的研究與開發工作,主要工作方向集中為遷移學習與圖像分類,近期對強化學習與生成模型進展也有持續關注。在工程師的角色之外,我也是機器之心的一枚業餘分析師與撰稿人,對編程技術與計算機視覺前沿工作保持時刻關注,通過文字與大家分享我對前沿工作的剖析和新技術的理解,並從中收穫啟發與靈感。AI 作為一個涵蓋學科知識非常綜合的行業,投入三年多的時間都在不停地更新充實自己的知識體系,也見證了視覺相關的技術進入越來越多的行業並且獲得消費者的認可,一直相信 AI 技術的產生與發展不是壁壘與掠奪,而是互助與分享,AI For The Greater Goods of Everyone。非常歡迎讀者朋友隨時找我溝通交流業界動態、學術想法,或者是提出意見反饋想看到的論文分析與業界洞見,聯繫方式:anguliachao@gmail.com。

Angulia 機器之心個人主頁: https://www.jiqizhixin.com/users/9cfaced6-c84b-45bf-bfc4-861e14f74742

參考鏈接:https://www.jiqizhixin.com/articles/2019-02-26

http://bbs.cvmart.net/topics/302/cvpr2019paper

本文為機器之心原創,轉載請聯繫本公眾號獲得授權。

?------------------------------------------------

加入機器之心(全職記者 / 實習生):hr@jiqizhixin.com

投稿或尋求報道:content@jiqizhixin.com

廣告 & 商務合作:bd@jiqizhixin.com

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器之心 的精彩文章:

只要戴上這副眼鏡,你也可以去歌神演唱會抓逃犯了
引用量、影響因子,這些指標正在拖累學術研究

TAG:機器之心 |