| 導語
Apache Spark社群最大的技術峰會,SPARK + AI 峰會(SAIC),于4月23-25日,在美國舊金山落下帷幕。
資料與人工智能需要結合:最佳的人工智能應用,需要有大量大規模持續更新的訓練資料,方能建構其最佳的資料模型,時至今日,Apache Spark已成為獨特的一體化資料分析引擎,它內建了大規模資料處理和領先的機器學習與人工智能算法。
本次SAIC含蓋了資料工程與資料科學的内容,包括AI産品化的最佳實踐案例分享:超大資料規模下,利用流資料處理確定訓練資料更新的時效性,完成資料品質監控,測試以及資料模型服務。也有對流行的軟體架構如TensorFlow,SciKit-Learn,Keras,PyTorch,DeepLearning4J,BigDL以及Deep Learning Pipelines等,分别進行深入的主題分享探讨。
除了Spark + AI主題外,本次峰會,為開發者,資料科學家以及探尋最佳資料與人工智能工具來構架創新型産品的技術實踐者們,提供了一站式交流的獨特體驗,超過了5000名來自世界各地的工程師,資料科學家,人工智能專家,研究學者以及商務人士,加入到了這3天的深度交流與學習中。
| SAIC主題分享包括了如下内容:
- Apache Spark的下一步計劃
- 機器學習産品化的最佳實踐
- 用MLflow來管理機器學習生命周期
- 最新的機器學習與深度學習架構進展
- 資料與人工智能一體化資料分析平台
- 人工智能應用實踐案例分享
- Apache Spark的應用案例分享
- 結構化與持續流資料處理應用
| 分論壇也提供為來自不同技術背景人士提供了多樣化的議題選擇:
- 人工智能
- 資料科學
- 深度學習技術
- 機器學習産品
- 開發者
- 企業專場
- Python與進階資料分析
- 前沿學術研究
- 技術實作深入探讨
- Apache Spark應用與生态
| PPT下載下傳位址
https://www.slidestalk.com/x/3623/saic_2019_na原文連結
https://mp.weixin.qq.com/s/CSTqXHCpJPvlkVAeaY1mIw為 Spark 愛好者提供一個交流技術和傳遞資訊的平台,在這裡你可以掌握大資料計算領域最前沿的資訊,可以與 Spark 技術大牛面對面交流,還有不定期社群福利領取喲~
