天天看點

美國總統科學技術顧問委員會釋出:《賦能研究:利用人工智能應對全球挑戰》

作者:全球技術地圖
美國總統科學技術顧問委員會釋出:《賦能研究:利用人工智能應對全球挑戰》
美國總統科學技術顧問委員會釋出:《賦能研究:利用人工智能應對全球挑戰》

2024年4月29日,美國總統科學技術顧問委員會(PCAST)釋出《賦能研究:利用人工智能應對全球挑戰》(Supercharging Research: Harnessing Artificial Intelligence to Meet Global Challenges)報告。報告提出了人工智能加速研究的五大發現和相關建議,旨在推動安全、有效地應用人工智能,增強人類研究人員的能力,探索科學的可能性,并在日益數字化的世界中降低風險。元戰略梳理報告重要内容,為讀者探讨利用人工智能加速科學研究提供參考。

一、人工智能賦能研發的未來願景

鑒于人工智能技術(尤其是生成式人工智能)在科學應用方面的快速發展,很難預測随着人工智能技術的融入,科學工作流程将如何以及何時發生演變。是以,關于如何利用人工智能加速科學研究需要持續關注以下三個領域:

(1)授權人類科學家廣泛應用人工智能工具;

(2)負責任地使用人工智能工具;

(3)共享人工智能基礎資源。

美國總統科學技術顧問委員會釋出:《賦能研究:利用人工智能應對全球挑戰》

圖 利用人工智能加速科學研究需重點關注的三大領域

共享人工智能基礎設施(如提高高性能計算叢集上的使用時間)将使科學家能夠使用和了解先進的人工智能工具。這有助于制定負責任使用人工智能的共同标準,并通過向所有機構的研究人員提供使用機會來提升公平性。負責任地使用人工智能工具将鼓勵以安全的方式共享模型和資料,并促進人工智能輔助研究項目的周密設計,以提高科學産出的品質。授權人類科學家廣泛應用人工智能工具将為科學界解決緊迫的挑戰提出創新的方案,進而證明對共享資源和負責任地使用人工智能的投資是合理的,并能夠建立一個利益相關者社群,以繼續發展和鞏固這些投資。

二、人工智能加速研究的五大發現及建議

發現1:重要的研究因無法獲得先進模型而受阻。

科學研究是一項合作性工作,為了使一組研究人員的研究成果能夠被其他研究人員複制、驗證和借鑒,必須向研究人員廣泛提供資料和模型。目前,規模最大、功能最強大的人工智能模型通常都是專有的,隻有部分研究人員才能使用,是以很難獨立驗證這些模型的相關研究。如果這種情況持續下去,有可能在人工智能領域制造新的“數字鴻溝”,以及潛在的“人工智能單一文化”,即人工智能應用依賴于極少數的供應商或架構。當不同的假設和方法處理同一個問題時,研究和科學方法就會蓬勃發展,是以,“人工智能單一文化”會阻礙科學進步,因為它可能會錯過更好的答案。目前,擷取尖端人工智能模型的成本,以及領先的科技公司與學術或政府機構之間回報的巨大差異,使得人工智能發展不均衡。此外,為了解如何以負責任的方式部署這些強大的人工智能模型,以及發現和應對不負責任地使用這些人工智能工具所造成的影響,開展研究以探究人工智能系統的各種弱點和偏差,并盡可能準确地量化減輕人工智能系統缺陷各種方法的有效性,是一個關系到公衆利益的重要問題。由于人工智能模型的性能在很大程度上取決于其規模,是以,所有人工智能基礎研究人員都必須能夠使用小型和大型模型。公共部門和私營部門在使用人工智能方面有着不同的動機和目标,但它們可以進行有價值的合作,以創造一種負責任地使用人工智能的文化。

建議1:擴大現有實踐,廣泛且公平地共享人工智能基礎資源。

為了以開放和具有成本效益的方式支援科學需求,鼓勵實驗和創新,必須為共享人工智能模型、資料集、基準和計算資源提供更多的支援。這不僅有利于大型人工智能公司,也有利于學術研究人員、國家和聯邦實驗室、較小的公司和非營利組織。在美國,這方面的相關實踐是建立和資助國家人工智能研究資源(NAIRR),就其目前的規模而言,NAIRR試點項目無法提供與私營部門(其大多數模型都是封閉源代碼和專有的)或其他國家類似的項目同等規模的計算資源或模型。但進一步擴大這些共享資源将是重要的第一步,可使廣大研究人員充分受益于現有最先進的人工智能模型,同時避免重複勞動。

發現2:尖端研究需要通路高品質資料。

未來的尖端研究将越來越多地由資料驅動,機器學習技術的訓練尤其依賴于大量高品質的資料集。例如,成功的蛋白質折疊模型就是在現有的數十萬個蛋白質結構資料庫上訓練出來的。人工智能氣候模型依賴于各種現有資料,包括曆史記錄、超級計算機模拟、衛星資料以及使用再分析方法的三者組合。

聯邦政府擁有許多額外的資料集,這些資料集對于許多科學應用以及重要挑戰的知情決策而言都是非常寶貴的,這些資料的更多價值仍有待挖掘。私營部門建立的資料也有可能改善公共福利。例如,私營部門更常掌握化合物和材料的化學和實體特性資料。許多聯邦資料集包含敏感的個人資訊,是以不能公開釋出;然而,在保護個人隐私的同時,仍有可能利用這些資料開展科學研究,例如,限制對彙總和匿名資訊的通路,或使用從基礎資料中提取的合成資料集。

建議2:在有适當保護和保障措施的情況下,擴大對聯邦資料集的安全通路,以滿足關鍵研究需求。

安全通路聯邦資料的問題既敏感又在技術上十分複雜,盡管如此,允許經過準許的研究人員有限度地通路此類資料,以及将此類資料集的匿名版本釋出給資源中心(如未來的國家人工智能研究資源或國家安全資料服務)的好處是巨大的,是以應鼓勵擴大現有的安全資料通路試點計劃。此外,還可以進一步發展現有的聯邦資料庫管理指南,将隐私保護技術的前沿發展納入其中,如差别隐私、同态加密、聯合學習以及合成資料的使用。雖然原始資料集,尤其是标注了相關“中繼資料”的資料集對于傳統資料科學和最新的人工智能資料分析而言,已經具有重要的研究價值,但經過更精心策劃和維護、專門面向研究用途的資料庫将在多個科學領域産生更具變革性的影響。目前,高品質的資料整理是一項昂貴而艱巨的任務,需要大量專業人員進行工作,利用人工智能技術實作整理過程的自動化具有巨大潛力。未來,我們預計使用人工智能工具将許多現有的聯邦資料集更新為這種高品質的資料庫是可行的,我們建議将其作為聯邦資料共享計劃的長期目标。

發現3:人工智能為學術界、産業界和聯邦政府各部門之間的合作提供了獨特的資源。

美國産業界投資數百億美元用于基礎和應用人工智能研究。美國國家科學基金會(NSF)最近宣布投資1.4億美元,建立7個新的國家人工智能研究所,這些研究所包括國家人工智能研究資源試點計劃,涉及到NSF的各個部門。這些研究所提供的人工智能基礎設施,以及人工智能本身所具有的跨學科性質,将促成高度跨學科的研究。相關資源還可以将美國政府和聯邦實驗室及使用者設施、私營企業以及基礎科學和應用科學領域的學者聚集在一起,開展新穎的、可能具有變革意義的合作。這些平台正在開發資料共享基礎設施,同時将人工智能工具作為社群建設的一部分,并計劃引入其他機構和更多行業合作夥伴。

建議3:支援涉及學術界、産業界、國家和聯邦實驗室以及聯邦機構合作的人工智能基礎和應用研究。

聯邦政府資助的學術研究與私營部門研究之間的界限模糊不清,許多研究人員隸屬于學術機構、非營利組織和/或私營公司,目前美國有很大一部分研究和研發工作由私營公司提供支援。為充分利用人工智能的潛在研究效益,需要支援涉及各種有前景、有成果的假設和方法的研究。這可能需要資助機構在如何與産業界合作以及哪些研究人員可以得到支援方面放寬姿态,以促進創新研究工作和不同部門之間的合作。雖然私營人工智能部門可以為合作帶來大量非常有益的計算資源、專業知識和資金,但需要確定行業合作夥伴的市場激勵與項目的公共和科學目标相一緻,同時在一開始就明确知識産權和許可計劃。跨部門合作的例子可包括從多個來源建立高品質的公共科學資料集,建立多模态基礎模型,或開發新的量子計算機量子位架構等下一代技術。随着人工智能領域的快速發展,聯邦機構和私營部門将需要探索和重新評估新興的國家人工智能基礎設施需要如何發展。

發現4:沒有适當的基準名額、驗證程式和負責任的實踐,人工智能系統可能會提供不可靠的輸出結果,其品質難以評估,而且可能對科學領域及其應用有害。

科學研究是一個互相關聯的生态系統,一個研究小組的研究成果、模型和資料将影響其他研究人員在基礎和應用領域的工作。如果不負責任地使用人工智能工具,可能會對這個生态系統産生負面影響,因為這些研究結果會受到算法偏差的影響,無法複制,缺乏對其不确定性的量化,過度拟合訓練資料而犧牲了與真實世界資料對比的準确性,或者無法通過更透明的技術(如數值模拟和實驗室實驗)進行驗證。此外,個人資料隐私或資料建立者的知識産權必須得到保護和尊重。從長遠來看,釋出标簽不當的合成資料可能會導緻“資料污染”,對進一步的科學工作産生負面影響。如果在沒有專家監督的情況下部署全自動人工智能工具,将帶來極高的風險。學術界必須制定和完善依靠人工智能輸入的研究和資料的出版标準。高等教育機構需要對初級科學家進行現代化教育訓練,使他們能夠充分利用新的人工智能工具,能夠獨立驗證和衡量這些工具的産出,并以合乎道德和負責任的方式使用它們。科學進步的步伐越來越快,這也要求研究人員和政府科學機構進行更高水準的雙向公衆參與。一些雙重用途的研究應用,如生物病原體的功能增益研究,将需要更高水準的監測、監管和監督。

建議4:在科學研究過程的所有階段采用負責任、透明和可信的人工智能使用原則。

美國國家科學基金會(NSF)和美國國家标準與技術研究院(NIST)等機構應繼續支援負責任和可信賴的人工智能的科學基礎研究,包括制定衡量人工智能标準的基準、人工智能模型的特性(如準确性、可重複性、公平性、彈性和可解釋性),并開發工具來評估資料集的偏差,區分合成資料和真實世界的資料。各機構應征求這些領域的研究人員以及社會和行為科學相關學科的意見,以幫助制定負責任的人工智能使用政策。這些政策需要随着我們對這些技術的理論和實踐的了解不斷更新。我們鼓勵人工智能技術的開發者和使用者、政策制定者以及人文、法律和社會科學領域的專家就人工智能治理、使用和影響等更廣泛的話題繼續開展對話。由于圍繞治理工具的行業整合日益加劇,一小部分技術和咨詢機構控制了大部分市場,是以廣泛的對話和多樣化的投入尤為重要。與此同時,管理在人工智能的應用中産生的不準确、有偏見、有害或不可複制的研究結果的風險,這不應僅在科研項目進行的時候考慮,而是需要從項目的初始階段就開始規劃。聯邦資助機構應考慮更新其負責任的研究行為指南,要求使用此類技術的研究人員制定負責任的人工智能使用計劃。這些計劃應包括對潛在人工智能相關風險的評估,如算法偏差、敏感資訊披露、結果缺乏透明度或和可重複性,或潛在的有害應用,并說明為降低這些風險所采取的措施,特别是說明任何自動化流程的相關監督程式。這些要求可仿照現有的資料管理計劃要求,并以《人工智能權利法案藍圖》和NIST釋出的《人工智能風險管理架構》為藍本。為盡量減少研究人員額外的行政負擔并建立責任文化,各機構可幫助列舉主要風險并提供潛在的風險緩解流程。此外,還可以更新資料管理計劃要求,要求披露和記錄研究項目中所使用的人工智能工具。

發現5:最佳性能需要人工智能和人類專業知識的結合。

人工智能最有效、最有價值的應用是以輔助工具的形式幫助科學和研究解決緊迫問題。此外,就目前的技術成熟度而言,生成式人工智能資源還太不可靠,無法實作獨立于人類監督或幹預的全自動化連續運作,尤其是在準确性、可解釋性和可複制性至關重要的科學領域。此外,人類智能和人工智能的優勢在很大程度上是互補的。人工智能可以不知疲倦地從龐大的資料集中找出規律并執行重複性任務,而人類則可以從數量少得多的資料中推斷并得出結論,進行系統性和戰略性推理,并與其他人類和人工智能助手協調行動。目前的人工智能工具在展示真正的創造力、分析或高層次戰略思維方面仍然相當薄弱。即使在未來的世界中,人工智能輔助工具已經非常普遍,而且除了目前最先進的人工智能模型(如大語言模型)之外,還有更多的人工智能技術可用,我們預計科學研究仍将繼續由人類科學家指導。科學家們将利用人類特有的能力,從相對較少的資料中得出高層次的結論,以補充人工智能從大型資料集中生成建議和聯系的能力,并将研究中更為正常和乏味的過程自動化。

建議5:鼓勵将人工智能輔助內建到科學工作流程中的創新方法。

科學研究是一個絕佳的“沙盒”,研究人員可在其中實踐、探索和評估人類與人工智能助手之間合作的新模式。此類範例可包括:科學咨詢人工智能代理,作為複雜軟體或實驗室裝置操作的複雜自然語言界面;将生成式人工智能算法與人類專家回報和驗證方法(或其他類型的人工智能系統)相結合,以提高生成式人工智能的準确性;或使用人工智能工具,以其他方式無法實作的規模,開展跨學科、分散或衆包研究項目。我們的目标不應該是最大限度地提高自動化程度,而應該是利用互補性,讓人類研究人員在負責任地使用人工智能的情況下進行高品質的科學研究。資助機構應認識到新工作流程的出現,并設計靈活的程式、衡量标準、資助模式和挑戰問題,鼓勵(但不強制)以新的人工智能輔助方式組織科學項目的實驗。更廣泛地說,激勵結構可能需要更新,以便能夠支援不同類型的科學貢獻,例如,利用人類專家的回報來訓練人工智能系統,開發專門針對科學應用的新人工智能軟體工具,或整理高品質且可廣泛使用的資料集。這些貢獻可能無法通過傳統的研究所學生産力名額得到應有的認可。新的衡量标準将補充傳統的衡量标準,并使人們更充分地了解研究人員對科學進步做出的各類貢獻。

三、結論

當今世界迫切需要科學進步來應對各種全球和社會挑戰。人工智能工具如果能得到人類專家适當和負責任的監督,在高品質資料基礎上進行教育訓練,并使用可靠的科學技術進行驗證,就能成為創新的引擎,為科學家和政策制定者應對這些挑戰的能力增添動力。為實作這些目标,需要向科學界廣泛提供先進的模型、資料集和基準,需要将負責任的人工智能實踐融入科學工作流程,還需要對人工智能的基礎及其各種科學應用進行持續投資。雖然建立這樣一種人工智能基礎設施和科學文化需要巨大的資源和努力,但也将産生巨大的回報:一個廣泛且公平的研究與開發生态系統,既開放又安全。在這個生态系統中,科學思想可以迅速轉化為實驗、原型和解決緊迫問題的成功方案。人工智能工具可以補充傳統的研究工作,依靠人工智能輔助,但由人類指導的合作與研究範式仍然符合驗證、可複制性和客觀性的最高科學标準。人工智能技術可在科學領域做出重大貢獻,但我們必須保持警惕,嚴格識别和管理其弱點和風險。雖然人工智能将是這一變革的手段方法,但最終增強能力的将是人類。無論是科學家還是普通大衆,通過提高合作能力來應對重大挑戰,并更深入地了解我們周圍世界的複雜性。我們應熱情擁抱這一機遇,充分認識到如果不負責任地使用這些人工智能工具可能帶來的風險,確定在利用人工智能加速科學研究的同時,堅守以人為本的理念,以應對全球挑戰。

免責聲明:本文轉自元戰略。文章内容系原作者個人觀點,本公衆号編譯/轉載僅為分享、傳達不同觀點,如有任何異議,歡迎聯系我們!

轉自丨元戰略

美國總統科學技術顧問委員會釋出:《賦能研究:利用人工智能應對全球挑戰》

研究所簡介

國際技術經濟研究所(IITE)成立于1985年11月,是隸屬于國務院發展研究中心的非營利性研究機構,主要職能是研究大陸經濟、科技社會發展中的重大政策性、戰略性、前瞻性問題,跟蹤和分析世界科技、經濟發展态勢,為中央和有關部委提供決策咨詢服務。“全球技術地圖”為國際技術經濟研究所官方微信賬号,緻力于向公衆傳遞前沿技術資訊和科技創新洞見。

位址:北京市海澱區小南莊20号樓A座

電話:010-82635522

微信:iite_er

繼續閱讀