當前位置:
首頁 > 科技 > 深度 | BAIR提出MC-GAN,使用GAN實現字體風格遷移

深度 | BAIR提出MC-GAN,使用GAN實現字體風格遷移


選自

BAIR


作者:Samaneh Azadi


機器之心編譯


參與:Nurhachu Null、路




近日,BAIR 發布博客提出 MC-GAN(Multi-Content GAN),可以快速生成相同風格的字體。






左圖:已有的一張電影海報;右圖:使用 MC-GAN 生成的新電影名稱。




文本是二維設計中的一個顯著視覺元素。藝術家投入了大量時間設計在視覺上與其他元素的形狀和紋理相兼容的字形。這個過程需要大量勞動,藝術家們通常只設計標題或注釋所必需的字形子集,這使得設計完成後文本很難更改,或者很難把看到的字體實例遷移到自己的項目中。




早期字形合成研究集中在輪廓的幾何建模上,局限於特定的字形拓撲上(例如,不能應用到裝飾字體或者手寫體),並且不能與圖像輸入一起使用。隨著深度神經網路的興起,研究者研究了從圖像進行字形建模的問題。另一方面,合成與局部觀察相一致的數據在計算機視覺和圖形學中是一個有趣的問題,例如,多視角圖像生成、補全圖像中的缺失區域,以及三維形狀的生成。字體數據是一個典型的例子,它提供了文字樣式和內容的清晰分解。




條件生成對抗網路(cGANS)[1] 的最新進展在許多生成應用中取得了成功。然而,它們只有在相當特定的領域中才能發揮最佳效果,無法適應通用領域或多領域遷移。類似地,當被直接用來生成字體時,cGAN 模型會生成嚴重的失真。例如,給定下面五個字母:








條件生成對抗網路模型無法以同一種風格生成 26 個字母:





用於 Few Shot 字體風格遷移的多內容生成對抗網路




我們設計了多內容 GAN 架構 [2] 來為每個觀察到的字符集(只具備少量觀察到的字形)重新訓練定製的魔法網路,而不是為所有可能的字體裝飾訓練單個網路。該模型考慮沿著信道的內容(即 A-Z 字形)和沿著網路層的樣式(即字形裝飾),將給定字形的樣式遷移到模型未見過的字形的內容。




多內容 GAN 模型包括用於預測粗糙字形形狀的堆疊 cGAN 架構和用於預測最終字形顏色和紋理的裝飾網路(ornamentation network)。第一個網路稱為 GlyphNet,用於預測字形掩碼;第二個網路稱為 OrnaNet,用於微調從第一個網路生成字形的顏色和裝飾。每個子網路遵循條件生成對抗網路(cGAN)的結構,並修改該結構以達到使字形風格化或裝飾預測的特定目的。




網路架構




下面是 GlyphNet 示意圖,它從一組訓練字體中學習字體流形的一般形狀。GlyphNet 的輸入和輸出是字形的堆棧,其中每個字母分配有一個通道。在每個訓練迭代中,x_1 包含一個由 y_1 字形組成的隨機子集,剩餘輸入通道被清零。








通過這種新穎的字形堆棧設計,跨網路信道學習不同字形之間的相關性得以實現,並實現風格自動遷移。下圖通過結構類似性(SSIM)指標在包含 1500 個字體樣例的隨機集合上展示了這種相關性。計算每個生成字形與其真實字形之間的結構相似性時,當一次觀察到一個字母時,共發現了 25 種分布。這些曲線圖顯示了當觀察到字母 β(藍色)時生成字母 α 的分布 α|β 與當給出除 β 以外的任何其它字母(紅色)時生成字母 α 的分布 α|β。在生成 26 個字母中的每一個字母時,兩個信息量最大的給定字母和兩個信息量最少的給定字母的分布如圖所示。例如,從圖的第五行來看,與其他字母相比,字母 F 和 B 在生成字母 E 方面是最有信息貢獻的,而 I 和 W 是信息最少的。其他例子中,O 和 C 是構造 G 的最具指導性的字母,R 和 B 是生成 P 的最具指導性的字母。







因此,對於任何僅有幾個觀察字母的期望字體,預訓練的 GlyphNet 要生成全部的 26 個 A-Z 字形。但是我們應該如何遷移裝飾呢?第二個網路 OrnaNet 採用這些生成的字形,在簡單的整形變換(reshape transformation)和灰度信道重複之後(在下圖中用 T 表示),使用條件 GAN 架構生成具備期望顏色和裝飾的輸出。OrnaNet 的輸入和輸出是批量的 RGB 圖像,而不是堆棧(其中每個字母的 RGB 信道是其對應的灰度字形的重複)。OrnaNet 中的多個正則化器會懲罰風格化字母掩膜與其對應字形形狀的偏差。








結果




下面,我們將使用單個單詞給出的字體樣式演示例句。








此外,以下是 OrnaNet 預測的逐步改進:






參考資料




[1] Phillip Isola, Jun-Yan Zhu, Tinghui Zhou, and Alexei A. Efros. "Image-to-Image Translation with Conditional Adversarial Networks." CVPR 2017.


[2] Samaneh Azadi, Matthew Fisher, Vladimir Kim, Zhaowen Wang, Eli Shechtman, and Trevor Darrell. "Multi-Content GAN for Few-Shot Font Style Transfer." CVPR 2018.




論文鏈接:https://arxiv.org/abs/1712.00516


GitHub 鏈接:https://github.com/azadis/MC-GAN




原文鏈接:http://bair.berkeley.edu/blog/2018/03/13/mcgan/






本文為機器之心編譯,

轉載請聯繫本公眾號獲得授權


?------------------------------------------------


加入機器之心(全職記者/實習生):hr@jiqizhixin.com


投稿或尋求報道:editor@jiqizhixin.com


廣告&商務合作:bd@jiqizhixin.com

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器之心 的精彩文章:

受AlphaGo啟發,AI重建量子系統新方法登上Nature Physics
DeepMind於Nature子刊發文提出非對稱博弈的降維方法

TAG:機器之心 |