天天看點

2019 年 AI 領域都發生了什麼?

2019 年無疑是忙碌的一年。人工智能的進步和新聞頻頻登上頭條新聞,讓我們的生活充滿了敬畏和自豪的時刻,但一些其他時刻充卻斥着一種惱人的想法,那就是這項技術讓人們發現,我們的社會并沒有準備好迎接人工智能的普及。

2019 年,究竟是人工智能進步的一年,還是幻滅的一年呢?随着研究人員攻城略地,迅速攻克以前難以企及的基準,今天,我們可不可以這樣認為,這個領域已經正在步入穩步發展的軌道呢?

在 ADSP (Applied Data Science Partners,意即“應用資料科學合作夥伴”)網站上,我們想後退一步,把 2019 年的人工智能界發生的事件整理好,以讓公衆能夠有個全新的視角。在聚光燈下,重要的是要将一項工作最初吸引人們的興趣,與它的實際重要性,以及它對該領域産生的影響區分開來。為此,本文将展開人工智能故事的平行線索,并試圖分離出它們的意義。多虧了我們出色的内容作家 Elena Nisioti ,她将這些故事講得如此精彩!

讓我們坐下來,一起回顧 2019 年的人工智能領域的方方面面。

處在文藝複興時期的領域

如果讓我們用一句話來描述 2019 年的人工智能現狀,那很可能是:“強化學習(Reinforcement Learning )回歸,看起來将永存”。

到目前為止,我們中的大多數人可能已經熟悉了監督式學習(Supervised Learning):有些人收集了大量的訓練資料,将它們饋送到機器學習算法中,然後得到一個模型,這個模型可以為我們進行預測和分類。我們中的一些人甚至可能有這樣的印象:即,人工智能就是監督式學習的同義詞。然而,監督式學習隻不過是我們今天擁有的衆多類型的機器學習中的一種罷了。

在強化學習(Reinforcement Learning,RL)中,智能體用試錯的方法,通過與環境進行互動來學習,這種環境會給它們的行為提供獎勵回報。當涉及到多個智能體時,它們被稱為多智能體強化學習系統(Multi-agent Reinforcement Learning System)。

這個領域已經存在幾十年,從概念上來講,它聽起來比監督式學習更像是一種合理的創造智能的學習機制。然而,直到 2015 年,DeepMind 才獲得了人們的關注,當時 DeepMind 使用深度 Q 學習(Deep Q-learning)建立了 Atari(雅達利) 遊戲的智能體,這是一種結合了經典強化學習算法和深度神經網絡的算法。2018 年,OpenAI 也通過解決 Montezuma’s Revenge (一款被認為難度特别高的 Atari 遊戲),進而在這一領域确立了自己的地位。

在過去的幾個月裡,事态更新了:

2019 年 AI 領域都發生了什麼?

這些工作重新喚起了學術界對強化學習的信念,在過去,人們曾經認為強化學習效率低下,過于簡單,無法解決複雜的問題,甚至連遊戲的問題也不能解決。

今年,另一個大受歡迎的應用是自然語言處理(Natural Language Processing,NLP)。盡管研究人員在這一領域工作了幾十年,但近些年的自然語言處理系統生成的文本聽起來還是不夠自然。自 2018 年底以來,人們的注意力已經從過去的詞嵌入轉移到預訓練語言模型,這是自然語言處理從計算機視覺中借鑒來的一種技術。這些模型的訓練是以非監督的方式進行的,這使得現代系統能夠從網際網路上的大量文本中進行學習。是以,這些模型變得“博聞強識”,并發展出了了解上下文的能力。然後,可以通過監督式學習進一步提高它們在特定任務上的表現。這種通過在不同任務上訓練機器學習模型來改進模型的做法,屬于遷移學習(transfer learning)的範疇,被認為具有巨大的潛力。

自去年 Google BERT 、 ELMo 和 ulmfit 等系統在 2018 年底推出以來,自然語言處理一直風頭正茂,但今年的聚光燈被 OpenAI 的 GPT-2 給“奪走了”,它的表現引發了人們對自然語言處理系統的道德使用的大讨論。

實踐走向成熟

今年,人們也見證了最近一些深度學習技術走向成熟。應用監督式學習,特别是計算機視覺技術,已經催生了現實生活中成功的産品和系統。

生成對抗網絡(Generative Adversarial Networks,GAN)是一對神經網絡,其中,生成器網絡試圖通過學習生成模仿訓練資料的圖像來欺騙判别器網絡,現在已經達到了近乎完美的水準。對人工智能來說,創造虛假但又逼真的人物和物體的圖像,已經不再是前沿領域了。從 2014 年生成對抗網絡的引入到 2019 年 NVDIA 開源的 StyleGAN ,一圖勝千言,我們用下面的圖檔來說明,這可能是了解該領域進展情況的最佳方式:

2019 年 AI 領域都發生了什麼?

2019 年,人工智能創造的藝術品甚至脫離了過去幾年的假設性讨論,成為了今天博物館裝置和拍賣的一部分。

計算機視覺還被應用于一些具有重大商業和社會意義的領域,包括自動駕駛車輛和醫學。但是,人工智能算法在這些領域中的應用自然是緩慢的,因為它們直接與人類生活直接互動。至少到目前為止,這些系統還不是完全自主的,它們的目的,在于支援和增強人類操作員的能力。

研究團隊正與醫院密切合作,開發用于疾病早期預測的人工智能系統,并整理大量的健康資料檔案,其中一個值得注意的例子,是 DeepMind Health 和 UCLH 之間正在進行的合作。然而,這些工作中的大部分仍處于試驗階段,迄今為止,唯一獲得 FDA 準許的人工智能系統是 SubtlePet ,這是一款使用深度學習增強醫學圖像的軟體。

沉睡的巨人

AutoML 是機器學習的子領域之一,自 20 世紀 90 年代以來就一直存在,在 2016 年引起了人們的極大興趣,但不知何故從未登上頭條新聞,至少不像其他人工智能趨勢那樣。也許這是因為它并不那麼花哨的性質:AutoML 的目的是通過自動化決策來使機器學習的實踐更有效,而今天資料科學家是通過手動、蠻力調優做出的決策。

在過去三年中,我們對這一領域的了解已經發生了變化,今天,大多數大公司都提供了 AutoML 工具,包括 Google Cloud AutoML、Microsoft Azure、Amazon Web Service 和 DataRobot 等。今年,随着學習進化人工智能架構(Learning Evolutionary AI Framework,LEAF)成為最先進的人工智能技術,人們的興趣轉向了“進化”(Evolutionary)方法。然而,AutoML 還沒有達到可以讓一個完全自動化的人工智能系統比人工智能專家團隊執行更好的成熟水準。

對人工智能的擔憂

盡管取得了壓倒性的成功,但今年人工智能領域也給我們帶來了一些令人沮喪的故事。其中主要問題之一是機器學習模型中的偏見,這一問題直到 2018 年才顯現出來,當時 Amazon 發現他們的自動招聘系統中存在性别偏見,而美國法院廣泛使用的判決工具 COMPAS 也被發現存在性别和種族的偏見。

今年案件的數量有所增加,這可能表明,公衆和機構對用于自動化決策的現有人工智能系統越來越懷疑。以下是圖景的一小部分:

今年 10 月份,某醫院的算法被發現對黑種人患者存有偏見。

去年 10 月,某人權組織指責用于發放英國簽證的人工智能系統存在種族偏見。

今年 11 月,Apple 的信用評分系統被客戶指責存有性别偏見。

偏見是一個特别令人擔憂的問題,因為它位于監督式深度學習的核心中:當有偏見的資料被用于訓練,且預測模型無法解釋時,我們不能真正判斷出是否存有偏見。迄今為止,學術界的反應一直是緻力于開發技術,以了解深度模型決策背後的原因,但專家警告稱,如果我們采用正确的實踐方法,那麼許多問題都可以迎刃而解。 Google Cloud Model Cards 是最近的一次嘗試,旨在使組織社群走向開源模式,同時明确描述其性質和局限性。

今年另一個讓人擔憂的發現是,當一項技術變得越複雜時,它被濫用的可能性就越大。Deepfake 就是生成對抗網絡的陰暗面,深度學習算法被用來在純粹虛構的場景中建立涉及真實人物的圖檔或視訊。人們不難看出,這項技術如何被用于傳播虛假新聞,從政治宣傳到欺淩。這個問題單靠科學家是無法解決的,曆史已經證明,科學家并不善于預測他們的發現對現實生活的影響,更不用說控制它們了,這需要社會各界進行廣泛的對話。

今天的人工智能到底有多強大?

如今,要量化人工智能的價值真的很困難。但有一點是可以肯定的:人工智能已經脫離了科幻小說和前衛計算機科學的領域,現在,人工智能已成為社會不可分割的一部分,人們對人工智能進行了大量的投資。

今年早些時候,三名主要的深度學習研究人員獲得了圖靈獎,這是對人工智能作為計算機科學的一個領域的認可,而人們對此期待已久。

2019 年 AI 領域都發生了什麼?

原文連結:

https://www.linkedin.com/pulse/2019-review-what-just-happened-world-artificial-david-foster/ https://www.infoq.cn/article/LsRIIX0FTwZyxYir39pj

繼續閱讀