在这篇文章中,我们将介绍几个顶级的开源 linux 生态系统的人工智能(ai)工具。目前,ai 是科学和技术中不断进步的领域之一,很多人都在致力于构建软件和硬件来解决诸如医疗,教育,安全,制造业,银行等领域的日常挑战。
下面是一系列旨在并开发成用于支持 ai 的平台,允许你用在 linux 或可能许多其它的操作系统上。名单排列顺序没有意义。
1.deep learning for java(deeplearning4j)
deeplearning4j 是 java 和 scala 编程语言的,商业级的,开放源码的,即插即用,分布式的深度学习库。它专为企业相关的应用程序而设计,并在分布式 cpu 和 gpu 的基础上继承了 hadoop 和 spark。
dl4j 在 apache 2.0 许可证下发布,提供 gpu 支持 aws,并适用于微服务架构。

2.caffe ——深度学习框架
caffe 是一个基于速度的模块化和富有表现力的深度学习框架。它在 bsd 2-clause 许可下发布,并且已经在诸如研究,启动原型,以及视觉、语音及多媒体等工业应用领域支持了若干社区项目。
h20 ——分布式机器学习框架
h20 是一个开源的,快速的,可扩展和分布式的机器学习框架,还有框架配备的算法。它支持更智能的应用程序,如深度学习,梯度 boosting,随机森林,广义线性模型(即逻辑回归,弹性网络)等等。
这是一个面向业务用于决策数据的人工智能工具,它能够让用户使用更快更好的预测模型来绘制来自于他们对数据的见解。
mllib ——机器学习库
mllib是一个开源的,易于使用和高性能的机器学习库,作为apache soark的一部分而开发。本质上它易于部署,并且可以在现有的 hadoop 群集和数据上运行。
mllib 还附带分类、回归、推荐、聚类、生存分析等等的算法集合。重要的是,它可以用于 python、java、scala 和 r 编程语言。
5.apache mahout
mahout 是一个开源框架,设计用于构建可拓展的机器学习应用程序,它有以下三个显著的特点:
提供简单和可扩展的编程工作场所
提供 scala+ apache spark,h20 以及 apache flik 的各种预包装算法
包括 samaras,矢量数学实验带有 r 之类语法的工作场所
6.open neural networks library(opennn)
opennn 也是一个用 c ++ 编写的用于深度学习的开源类库,用于煽动神经网络。然而,它只是有经验的 c ++ 程序员和有极高机器学习技能人员的最佳选择。它侧重于深度架构和高性能。
oryx 2
oryx 2 是初始 oryx 项目的延续,是在 apache spark 和 apache kafka 的基础上作为 lambda 架构的重新架构而开发的,虽然专用于实现实时机器学习。
它是一个应用程序开发和附带某些应用程序用于协同过滤、分类、回归和集群用途的平台。
opencyc
opencyc 是一个开源门户,面向最大和最全面的通用知识基础和常识推理引擎。它包括大量 cyc 术语,用一种精确设计的方式排列,在针对应用程序诸如这样的领域:
丰富的领域建模
特定领域的专家系统
文本的理解
语义数据集成以及ai游戏等等。
9.apache systemml
systemml 是用于机器学习非常适合大数据的开源人工智能平台。其主要特点是——运行在 r 和 python 这样的语法上,专注于大数据并专门针对高层次数学而设计。它是如何工作的在主页上有很好的解释,其中包括明确说明的视频演示。
有几种方法来使用它,包括 apache spark、apache hadoop、jupyter 和 apache zeppelin。一些显著用途包括汽车,机场交通和社会银行业。
nupic
nupic 是一个开源框架,用于机器学习的开源框架,基于 heirarchical temporary memory (htm),一个新皮层理论。集成了 nupic的htm 程序可实施分析实时的流数据,并且它在那里可学习到现有数据的基于时间的模式,预测即将值以及揭示任何不规则性行为。
它的显著特点包括:
持续在线学习
时空格局
实时流数据
预测和建模
强大的异常检测
分层时间记忆