天天看點

AI與大資料融合時代來臨,DTCC2019 精彩内容不能錯過!

資料驅動商業變革,創新引領行業未來。

AI與大資料融合時代來臨,DTCC2019 精彩内容不能錯過!

2019年5月8日-5月10日,由IT168旗下ITPUB企業社群平台主辦的第十屆中國資料庫技術大會(DTCC 2019),将在北京市新雲南大酒店召開。本次大會将以“資料風雲,十年變遷”為主題,采用“3+2”模式。即3天傳統技術演講+2天深度主題教育訓練。大會設定了超過100場的主題演講;另外,為了深化資料領域的項目落地,還提供了2天的深度課程教育訓練。

中國資料庫技術大會已經成功舉辦了九屆,DTCC 2019是第十屆。十年的風雨同舟,十年的相濡以沫!DTCC已成為中國資料庫領域最具影響力品牌,是CIO/CTO、資料庫系統管理者、DBA經理/主管,資料庫架構師、資料分析師及系統管理者等人群的饕餮大餐。

AI與大資料應用、雲時代的資料庫,NoSQL 技術與實踐,金融行業資料庫實踐、NewSQL 分布式資料庫實踐……DTCC 資料庫技術大會的議題設定,涉及與資料相關的各個層面,包括:資料架構、資料分析、資料治理等。其中,AI與大資料應用專場,是此次大會的重點,為了提高議題的深度和廣度,組委會特設定了上、下兩個專場,分别于5月8日和5月9日下午,與您共聚一堂,共話行業未來!

在過去幾年,大資料行業的發展已足夠成熟,大資料落地案例随處可見;而最新的AI技術,則是大資料發展的助推器,把大資料推向一個新的頂峰。進入2018年以後,AI和大資料融合趨勢明顯,未來可能會成為企業挖掘商業價值的最大推動力。過去,企業資料可用性不高,樣本容量也有限,無法在毫秒内分析大量資料;而人工智能和機器學習技術,讓企業在資料容量和資料源可用性方面有了質的飛越,才有了真正的大資料通路和實時處理能力。同樣,人工智能技術雖然已經存在了幾十年,但是直到現在,當人們有了更強大的資料采集、存儲、計算能力後,才獲得了更先進的算法和機器學習模型。

把人工智能和大資料技術結合在一起,将帶來意想不到的商業價值。以瓜子二手車為例,雖然二手車行業廣告營銷非常密集,但是品牌廣告的獲客能力已達到瓶頸,存量市場的使用者營運變得愈發重要。大資料時代,企業可以輕而易舉地擷取大量的使用者資料,比如使用者的登入/注冊時間、搜尋/浏覽了哪些車源、實地檢視了哪些車源等等。有了這些資料,再結合人工智能和機器學習算法,企業能夠深入分析和挖掘使用者的特征和偏好,并針對不同的使用者進行個性化的精細營運。屆時,瓜子二手車資深研發工程師周家帥,将參加DTCC2019 資料庫大會,全面分享大資料和人工智能在瓜子精細化營運平台中的應用實踐和落地經驗。

通過新一代資訊技術推動使用者增長,這也是快手能把競争對手甩出幾條街的根本原因。前快手增長技術負責人張翼認為,使用者增長(user growth)和增長黑客(growth hacking)不僅是一個炙手可熱的話題,更是全新的組織方式和企業推進方式。使用者增長,強調以資料和技術為驅動力,通過多角色的增長團隊,做快速、極緻的小步疊代,進而提升使用者的增長速度、留存和活躍度;而增長黑客,則依賴技術新管道、大資料與資料分析,來實作快速測試産品開發及營銷的新想法,也是一種利用使用者行為資料驗證或尋求演進的科學方法。簡單了解,這兩種方法打破了傳統市場,傳播,産品,營運和技術的界限,讓使用者社交和分享得到高度重視,讓現有使用者來不斷帶來新使用者。那麼,當使用者增長以及增長黑客遇到了人工智能,将碰撞出怎樣的火花?在5月8日的資料庫技術大會上,張翼将具體介紹人工智能,深度學習,個性化推薦等技術,如何幫助一家網際網路企業實作使用者的增長和産品提升。

人工智能和大資料技術帶來了強大的獲客能力,騰訊也是最大的獲益者。“騰訊廣告系統每天有上百億次請求量,以及上百T的資料,為保證資料流的穩定可靠和高性能,騰訊實施了一系列資料保護措施。”騰訊廣告資料系統總監李銳表示,對于資料分析場景,騰訊基于Spark和Hbase建構了一套實時離線統一的統計系統,還自研了一套基于ssd的多元資料透視分析系統,對萬億行資料做實時查詢僅需秒級。同時,借助于機器學習技術,特征工程重點保障特征資料的正确性,確定訓練和預估使用的特征資料一緻性,并且提升特征生産和調研的效率。此外,騰訊廣告系統還涉及資料安全以及整個平台的架構問題等等。具體内容細節,将在資料庫大會當天揭曉。

借助人工智能和大資料技術打造數字營銷平台,精碩科技也積累了很多寶貴經驗。精碩科技進階架構師劉喆,将分享人工智能在數字營銷領域的一些實踐,包括:平台建構、算法落地和具體的案例等。

然而,挖掘資料價值,讓資料驅動商業變革,具體涉及哪些關鍵技術?根本沒有标準答案可尋。位元組跳動大資料技術專家郭俊,将帶來《Spark Shuffle 穩定性與性能優化》主題演講,具體介紹位元組跳動提升 Shuffle 性能的技術變遷過程。衆所周知,在 HDFS 與 Yarn 混合部署過程中,在長期幾乎滿負載的數萬節點的大資料叢集上,由于部分節點故障或者負載過高造成 Shufffle Read 時 SparkFetchException 的現象非常普遍。一旦發生問題,必然會觸發 Stage 重試,進而延長整個 Application 的執行時間,增加了資源占用,同時影響了 SLA。是以避免 Shuffle 失敗,提高 Shuffle 穩定性對保障 SLA 及提升資源利用效率具有重要意義。

當然,不管是大資料、人工智能,還是二者的結合體,隻有适合自己、滿足業務需要的技術,才能發揮實際價值。 58同城 AI Lab負責人詹坤林、華為進階技術專家時金魁、競技世界首席資料科學家巴川等重量級嘉賓,将分别就智能客戶、智能車聯網、網際網路遊戲平台業務模型建構等話題,展開深入讨論。

總之,DTCC2019是一場真正意義上的資料庫技術嘉年華,不管您是這一領域的創造者、架構者還是應用者,我們期待與您相聚,共同探索資料價值。DTCC 2019,我要參加,你要不要來?

繼續閱讀