本文來自AI新媒體量子位(QbitAI)

這個小遊戲,你大概還有點印象。機器給出一個名詞,給你20秒時間畫畫,同時,它會根據你畫的東西一直猜猜猜。
遊戲的名字,叫“Quick, Draw!”。
今天,谷歌開放了Quick, Draw!資料集,包含345類、5000萬幅簡筆畫。這些簡筆畫,來自這個小遊戲的1500萬使用者。
資料集的GitHub位址:
<a>https://github.com/googlecreativelab/quickdraw-dataset</a>
與通常的圖像資料集不同,谷歌捕捉了這些簡筆畫的繪制過程,存儲成為一組帶時間戳的向量,并加上了中繼資料資訊标簽,包括機器要求使用者畫的是什麼、使用者所在國家等。
△ Quick, Draw!遊戲玩家畫的蘋果
谷歌希望開發者、研究人員和藝術家,能用這些資料來進行研究、探索。他們說,這些簡筆畫構成了一個獨特的資料集,開發者可以用它來訓練新的神經網絡,研究人員可以借助它探索世界各地人民畫畫的模式,藝術家則可能從中獲得靈感,創造我們從未想過的東西。
如果你用這個資料集創造了什麼東西,谷歌希望你通過郵件告訴他們,或者去A.I. Experiments網站送出。
谷歌大腦團隊研究員David Ha和Douglas Eck發表了論文《A Neural Representation of Sketch Drawings》來詳細闡釋這個項目,并在谷歌官方部落格上發文做了通俗說明。
在Quick, Draw!資料集開放之後,Sketch-RNN模型也在谷歌的藝術項目Magenta下開源。谷歌開放了Sketch-RNN的預訓練模型、供你在TensorFlow中訓練自己模型用的源代碼、以及一份Jupyter notebook教程。
最後,這裡還有一個Douglas Eck釋出的視訊,展示了Sketch-RNN生成的瑜伽過程:
10秒左右,模型為畫面中的人,加了個瑜伽墊,你會看到機器懵了一會兒。具體原因,作者在項目相關論文中做出了解釋。
Sketch-RNN開源模型:
<a>https://github.com/tensorflow/magenta/tree/master/magenta/models/sketch_rnn</a>
A Neural Representation of Sketch Drawings論文:
<a>https://arxiv.org/abs/1704.03477</a>
【完】
本文作者:李林
原文釋出時間: 2017-05-19