本文来自AI新媒体量子位(QbitAI)

这个小游戏,你大概还有点印象。机器给出一个名词,给你20秒时间画画,同时,它会根据你画的东西一直猜猜猜。
游戏的名字,叫“Quick, Draw!”。
今天,谷歌开放了Quick, Draw!数据集,包含345类、5000万幅简笔画。这些简笔画,来自这个小游戏的1500万用户。
数据集的GitHub地址:
<a>https://github.com/googlecreativelab/quickdraw-dataset</a>
与通常的图像数据集不同,谷歌捕捉了这些简笔画的绘制过程,存储成为一组带时间戳的向量,并加上了元数据信息标签,包括机器要求用户画的是什么、用户所在国家等。
△ Quick, Draw!游戏玩家画的苹果
谷歌希望开发者、研究人员和艺术家,能用这些数据来进行研究、探索。他们说,这些简笔画构成了一个独特的数据集,开发者可以用它来训练新的神经网络,研究人员可以借助它探索世界各地人民画画的模式,艺术家则可能从中获得灵感,创造我们从未想过的东西。
如果你用这个数据集创造了什么东西,谷歌希望你通过邮件告诉他们,或者去A.I. Experiments网站提交。
谷歌大脑团队研究员David Ha和Douglas Eck发表了论文《A Neural Representation of Sketch Drawings》来详细阐释这个项目,并在谷歌官方博客上发文做了通俗说明。
在Quick, Draw!数据集开放之后,Sketch-RNN模型也在谷歌的艺术项目Magenta下开源。谷歌开放了Sketch-RNN的预训练模型、供你在TensorFlow中训练自己模型用的源代码、以及一份Jupyter notebook教程。
最后,这里还有一个Douglas Eck发布的视频,展示了Sketch-RNN生成的瑜伽过程:
10秒左右,模型为画面中的人,加了个瑜伽垫,你会看到机器懵了一会儿。具体原因,作者在项目相关论文中做出了解释。
Sketch-RNN开源模型:
<a>https://github.com/tensorflow/magenta/tree/master/magenta/models/sketch_rnn</a>
A Neural Representation of Sketch Drawings论文:
<a>https://arxiv.org/abs/1704.03477</a>
【完】
本文作者:李林
原文发布时间: 2017-05-19