天天看点

盘点四大民间机器学习开源框架

盘点四大民间机器学习开源框架

theano 在深度学习框架中是祖师级的存在。它的开发始于 2007,早期开发者包括传奇人物 yoshua bengio 和 ian goodfellow。

theano 基于 python,是一个擅长处理多维数组的库(这方面它类似于 numpy)。当与其他深度学习库结合起来,它十分适合数据探索。它为执行深度学习中大规模神经网络算法的运算所设计。其实,它可以被更好地理解为一个数学表达式的编译器:用符号式语言定义你想要的结果,该框架会对你的程序进行编译,来高效运行于 gpu 或 cpu。

它与后来出现的 tensorflow 功能十分相似(或者应该说,tensorflow 类似 theano ),因而两者常常被放在一起比较。它们本身都偏底层,同样的,theano 像是一个研究平台多过是一个深度学习库。你需要从底层开始做许多工作,来创建你需要的模型。比方说,theano 没有神经网络的分级。

但随着这些年的发展,大量基于 theano 的开源深度学习库被开发出来,包括 keras, lasagne 和 blocks。这些更高层级的 wrapper api,能大幅减少开发时间以及过程中的麻烦。甚至,据雷锋网(公众号:雷锋网)所知,很少开发者会使用“裸奔”的 theano,多数人需要辅助的 api。顺便说一句,theano 是一整套生态系统,别只用它裸奔,然后抱怨不好用。

在过去的很长一段时间内,theano 是深度学习开发与研究的行业标准。而且,由于出身学界,它最初是为学术研究而设计,这导致深度学习领域的许多学者至今仍在使用 theano。但随着 tensorflow 在谷歌的支持下强势崛起,theano 日渐式微,使用的人越来越少。这过程中的标志性事件是:创始者之一的 ian goodfellow 放弃 theano 转去谷歌开发 tensorflow。

因此,资深一些的开发者往往认为,对于深度学习新手,用theano 练练手并没有任何坏处。但对于职业开发者,还是建议用 tensorflow。

优点:

python + numpy 的组合

使用计算图

rnn 与计算图兼容良好

有 keras 和 lasagne 这样高层的库

不少开发者反映,它的学习门槛比tensorflow 低

缺点:

本身很底层

比 torch 臃肿

不支持分布式

有的错误信息没什么用

大模型的编译时间有时要很久

对事先训练过的模型支持不足

用的人越来越少

caffe

盘点四大民间机器学习开源框架

这又是一个祖师级的深度学习框架,2013 年就已问世。

它的全称是 “convolution architecture for feature extraction”,意为“用于特征提取的卷积架构”,很明白地体现了它的用途。caffe 的创始人,是加州大学伯克利分校的中国籍博士生贾扬清。当时贾在伯克利计算机视觉与学习中心做研究。博士毕业后,他先后在谷歌和 facebook 工作。

在 ai 开发者圈子中,caffe 可以说是无人不知、无人不晓。据 github 最新的机器学习项目热度排名,caffe 仅位列 tensorflow 之后,雄踞第二。它是一个被广泛使用的机器视觉库,把 matlab 执行快速卷积网络的方式带到 c 和 c++。虽然 caffe 被部分开发者看做是通用框架,但它的设计初衷是计算机视觉——并不适于其他深度学习应用,比如文字、语音识别和处理时间序列数据。

caffe 的主要用途:利用卷积神经网络进行图像分类。这方面它代表了业内一流水平,是开发者的首选。

说到 caffe,就不得不提 model zoo。后者是在 caffe 基础上开发出的一系列模型的汇聚之地。因此,开发者使用 caffe 最大的好处是:能在 model zoo 海量的、事先训练好的神经网络中,选择贴近自己使用需求的直接下载,并立刻就能用。

就雷锋网所知,这些模型中有很多是世界一流的。有很多它们的教程:

alex’s cifar-10 tutorial with caffe

training lenet on mnist with caffe

imagenet with caffe

业内人士普遍认为,caffe 适合于以实现基础算法为主要目的的工业应用,有利于快速开发。但对于处理较特殊的任务,它存在灵活性不足的问题——为模型做调整常常需要用 c++ 和 cuda,虽然 python 和 matlab 也能做些小调整。

非常适合前馈神经网络和图像处理任务

非常适于利用现有神经网络

不写代码也能训练模型

python 交互界面做得不错

需要 c++ 和 cuda 来编写新 gpu 层级。

在递归神经网络上表现不佳

对于大型神经网络,它十分繁琐(googlenet, resnet)

没有商业支持

torch

盘点四大民间机器学习开源框架

相比其他开源框架,torch 是一个非主流。

没错,说的就是它的开发语言:基于1990 年代诞生于巴西的 lua,而非机器学习界广泛采用的 python。其实 lua 和python 都属于比较容易入门的语言。但后者明显已经统治了机器学习领域,尤其在学界。而企业界的软件工程师最熟悉的是 java,对 lua 也比较陌生。这导致了 torch 推广的困难。因此,虽然 torch 功能强大,但并不是大众开发者的菜。

那么它强大在哪里?

首先,torch 非常适用于卷积神经网络。它的开发者认为,torch 的原生交互界面比其他框架用起来更自然、更得心应手。

其次,第三方的扩展工具包提供了丰富的递归神经网络( rnn)模型。

因为这些强项,许多互联网巨头开发了定制版的 torch,以助力他们的 ai 研究。这其中包括 facebook、twitter,和被谷歌招安前的 deepmind。

与 caffe 相比,在 torch 里定义一个新层级比它要容易,因为你不需要写 c++ 代码。和 tensorflow 和 theano 比起来,torch 的灵活度更高,因为它是命令式的;而前两者是陈述式的(declarative),你必须 declare 一个计算图。这使得在 torch 上进行束搜索(beam search)这样的操作要比它们容易得多。

torch 的热门应用:在增强学习领域,用卷积神经网络和代理处理图像问题。

兴趣主要在增强学习的开发者, torch 是首选。

灵活度很高

高度模块化

容易编写你自己的层级

有很多训练好的模型

需要学 lua

通常需要自己写训练代码

不适于循环神经网络

scikit-learn

盘点四大民间机器学习开源框架

scikit-learn 是老牌的开源 python 算法框架,始于 2007 年的 google summer of code 项目,最初由 david cournapeau 开发。

它是一个简洁、高效的算法库,提供一系列的监督学习和无监督学习的算法,以用于数据挖掘和数据分析。scikit-learn 几乎覆盖了机器学习的所有主流算法,这为其在 python 开源世界中奠定了江湖地位。

它的算法库建立在 scipy (scientific python) 之上——你必须先安装 scipy 才能使用 scikit-learn 。它的框架中一共包括了:

numpy: 基础的多维数组包

scipy: 科学计算的基础库

matplotlib: 全面的 2d/3d 测绘

ipython: 改进的交互控制器

sympy: 符号数学

pandas:数据结构和分析

它命名的由来:scipy 的扩展和模块在传统上被命名为 scikits。而提供学习算法的模组就被命名为 scikit-learn。

它与 python 世界另一大算法框架——tensorflow 的主要区别是:tensorflow 更底层。而 scikit-learn 提供了执行机器学习算法的模块化方案,很多算法模型直接就能用。

经过筛选的、高质量的模型

覆盖了大多数机器学习任务

可扩展至较大的数据规模

使用简单

灵活性低