欢迎光临
我们一直在努力

吴恩达新年公开推荐这个设计师,上千人点赞

来源:量子位

杨净 箫萧 发自 凹非寺

量子位 报道 | 公众号 QbitAI

2021年一开始,OpenAI在GPT-3方向上的又一重要突破,让吴恩达等大佬激动了。

之前给GPT-3一段话,就能写出一段小说。

现在它成功跨界——可以按照文字描述、生成对应图片!

比如你输入“OpenAI公司门面”,它就能给出设计图:

这个新的AI,叫做DALL·E(Dali+ Wall-E)。

除了生成现实中的图片外,DALL·E还能按要求设计出“一颗白菜穿着芭蕾舞裙在遛狗”,妥妥的漫画风。

从“五边形闹钟”到“牛油果形状的座椅”,只要你的想象力够丰富,DALL·E全都能画出来。

技术上更厉害的是,OpenAI透露这个AI是基于GPT-3而构建,仅使用了120亿个参数样本,相当于GPT-3参数量的十四分之一

于是效果一出,吴恩达、Keras之父等纷纷转发、点赞。堪称2021年第一个令人兴奋的AI技术突破。

看吴恩达老师pick的这个demo效果,以后是想直接描述生成自己想要的蓝工装?

“图像版”GPT-3,还自带排名

生成这些优秀作品的,是一个名为DALL·E的结构。

DALL·E的名字,来源于大艺术家达利(Dalí)和皮克斯动画《机器人总动员》中的主角“瓦力”(WALL·E)

本质上,它就是一个被重新训练过的“120亿参数版”GPT-3,能根据一段文字描述,生成对应的图像。

为了让DALL·E能“识字画图”,研究者们用包含各种“文本-图像”组合的数据集,来训练DALL·E。

这其中,DALL·E以单数据流的形式,一次性接收1280个字符(token),其中256个字符分配给文字,其余的1024个则分配给图像。

DALL·E将对这些输入信息进行建模,利用自注意力层的注意力遮罩,确保每一个输入的图像字符,都与所有输入的文字字符关联。

然后DALL·E将根据文本,通过最大似然估计,逐个字符生成图像。它不仅能从文字中,生成一整幅草图,还能重新生成图像中的任何一块矩形区域。

这就完了?

当然没有,我们最终看到的作品,其实只是DALL·E创作的一部分,即“优秀作品选”

也就是说,还需要一个网络CLIP,来对它生成的这些作品进行排名、打分。

越是CLIP看得懂、匹配度最高的作品,分数就会越高,排名也会越靠前。

这种结构,有点像是利用生成对抗文本,以合成图像的GAN。不过,相比于利用GAN扩大图像分辨率、匹配图像-文本特征等方法,CLIP则选择了直接对输出进行排名。

据研究人员表示,CLIP网络的最大意义在于,它缓解了深度学习在视觉任务中,最大的两个问题。

首先,它降低了深度学习需要的数据标注量。相比于手动在ImageNet上,用文字描述1400万张图像,CLIP直接从网上已有的“文字描述图像”数据中进行学习。

此外,CLIP还能“身兼多职”,在各种数据集上的表现都很好(包括没见过的数据集)。但此前的大部分视觉神经网络,只能在训练的数据集上有不错的表现。

例如,CLIP与ResNet101相比,在各项数据集上都有不错的检测精度,然而ResNet101在除了ImageNet以外的检测精度上,表现都不太好。

具体来说,CLIP用到了零样本学习(zero-shot learning)、自然语言理解和多模态学习等技术,来完成图像的理解。

例如,描述一只斑马,可以用“马的轮廓+虎的皮毛+熊猫的黑白”。这样,网络就能从没见过的数据中,找出“斑马”的图像。

最后,CLIP将文本和图像理解结合起来,预测哪些图像,与数据集中的哪些文本能完成最好的配对。

此次生成的Demo图像,正是从512个样本中,用CLIP选出的前32个样本。研究人员强调,整个过程他们全程没有参与

有哪些初步效果?

此次上线的Demo,大致分成这几类效果。

控制变量,修改物体的属性(数量、颜色)

甚至,还可以加上个年代属性。输入文字:电话。

那这个电话放在未来呢?竟然会是这个亚子。

同时控制多个对象。比如,戴红色帽子,黄色手套,蓝色衬衫和绿色裤子的企鹅。

说实话,要换成是我,我一个也画不出来。(手动裂开)

推断细节。正如上文举的例子,“沐浴在朝阳中的田间水豚”。

单从文字上看,还有很多细节需要考究:水豚位置,阴影有无,绘画风格。但这些,似乎都没有难倒DALL·E

大佬们纷纷给出好评

对于OpenAI这个新鲜出炉的DALL·E,大佬们也纷纷发表了自己的看法。

Keras创始人@François Chollet表示,这看起来非常酷,尤其是“图像生成”部分。

从原理上来看,应该就是GPT-3在文本合成图像方向上的扩展版。

OpenAI的CTO Greg Brockman在转发DALL·E后,更是立刻获得了1.4k的赞。

英伟达的机器学习专家Ming-YuLiu,也送上了自己的祝福。

他表示,这样的模型在文本转图像的能力上,简直超乎想象。

当然,也有对这种方法的限制感到困惑的学者。

来自哈佛的助理教授Tomer Ullman,在对DALL·E的能力表示惊叹时,也提出了对于模型泛化能力限制的疑惑。

他认为,如果能生成“绿方块上的红方块”,模型理应也能生成“蓝方块上的绿方块上的红方块”?

希望这样的模型,能在提升泛化等能力后,真正被用来减轻设计师们的负担。

当然,如果再开一开脑洞的话,应用前景可能不止于减轻负担。

如果效果足够好,还要什么乙方设计师?

以及像动画、影视等领域,是不是未来剧本一放,AI就能给你出成果了?

参考链接:

https://openai.com/blog/dall-e/

https://openai.com/blog/clip/

https://twitter.com/fchollet/status/1346558591835070464

https://twitter.com/gdb/status/1346554999241809920

https://twitter.com/liu_mingyu/status/1346573218270724097

https://twitter.com/TomerUllman/status/1346556192907255808

未经允许不得转载:10bet备用官网_10bet下载_10bet开户 » 吴恩达新年公开推荐这个设计师,上千人点赞