天天看點

《人工智能法案》草案如果政府監管人工智能,他們會扼殺創新嗎?

作者:人工智能的視界

《人工智能法案》草案,歐洲議會最近通過了一項名為《AI法案》的草案,旨在應對人工智能帶來的威脅。目前,全球正處于人工智能革命的浪潮中,這一技術正在改變我們的生活和工作方式。然而,人工智能的快速發展也引起了全球的擔憂:我們的工作是否會受到威脅?它是否會産生虛假資訊、加劇偏見和錯誤資訊?

《人工智能法案》草案如果政府監管人工智能,他們會扼殺創新嗎?

為了解決這些問題,我們和我們的政府都在積極努力。歐洲議會已經邁出了第一步,通過了被稱為《AI法案》的草案。該法案旨在禁止那些被認為對人類生命構成“不可接受”風險的系統。然而,這可能會引發歐洲政府與在人工智能領域投資數十億美元的美國科技巨頭之間的沖突。

在這個讨論中,我們邀請到了一些嘉賓來分享他們的觀點。他們是愛丁堡大學技術道德未來中心研究主任 Atoosa Kasirzadeh、科技企業家兼 Pillar.hr 首席執行官 Mark Simpson,以及劍橋大學機器學習教授 David Krueger。

《AI法案》的通過被認為是人工智能領域邁出的重要一步,為人工智能制定了一套規則。這個法案可能成為建立全球監管機構的架構,但也引發了一個問題:它是否會抑制創新?

我是主持人穆罕默德·賈姆喬姆。目前全球正在經曆一場人工智能革命,這一技術正深刻地改變着我們的生活和工作方式。然而,人工智能的迅猛增長也引發了全球的擔憂。我們擔心自己的工作是否會受到威脅,人工智能是否會産生虛假資訊,是否會加劇偏見和錯誤資訊的傳播。為了解決這些問題,無論是個人還是政府,我們都在積極努力。

歐洲議會已經采取了第一步來應對這些問題,他們通過了一項名為《AI法案》的草案。這項立法旨在禁止那些被認為對人類生命構成不可接受風險的系統,然而這也可能導緻歐洲政府與在人工智能領域投資數十億美元的美國科技巨頭發生沖突。

我認為我們都認識到人工智能的重要性,我們需要進行監管,但糟糕的監管對于人工智能來說也是不可取的。我們的共同目标是盡快達成一個良好的監管架構,該架構得到所有人的認可。當然,我們也需要有效的執行。我們需要這些法律賦予我們的義務在實踐中得以落實,以確定人們的安全。我們是第一個通過具體的立法提案來應對迅速發展和演變的技術的國家,我們的目标是建立信任,并對這些系統提供透明度和監督。至少在透明度方面,我們需要有所作為。我們需要明确表明這些内容并非由人類制作,我們還進一步要求這些大型模型的開發者更加透明,與服務提供商共享關于這些系統的教育訓練和開發的資訊。

該法律提案旨在確定人工智能系統的安全和道德,并確定科技公司遵守規則和法規。如果他們不遵守,将面臨巨額罰款。法律将人工智能系統分為不同的風險級别,低風險系統将有較少的規則和法規,但風險越高,規定将越嚴格。其中,被認為構成不可接受風險的人工智能系統類别包括在實時公共場合進行面部識别。當然,也會有例外情況。例如,警方可以在實時公共場合使用生物識别監控,比如尋找失蹤兒童。但大部分情況下将被禁止。許多歐洲議會議員表示,這與歐盟的價值觀根本不符,将侵蝕權利。然而,也有人認為這種監管在安全和執法方面具有一定的價值。

人工智能面臨許多挑戰,因為它是一個快速發展的系統。決策者真正面臨的問題是如何在保護人們權利的同時支援和平衡創新。他們不希望歐盟的大型人工智能公司離開歐盟,轉向美國等地。否則,歐盟将在這場技術和人工智能競賽中落後。

《人工智能法案》草案如果政府監管人工智能,他們會扼殺創新嗎?

現在我要和我們的嘉賓一起讨論這個問題。她是愛丁堡大學技術道德未來中心的研究主任,也是英國研究與創新社會和政策影響的進階政策研究員。紐約的馬克·辛普森是一位科技創業家,也是Pillar公司的首席執行官,該公司是一家利用人工智能技術的面試智能平台。芝加哥的大衛·克魯格是劍橋大學的機器學習教授,他的研究重點是人工智能學習中的存在安全性。

讓我先問你,對于歐洲議會通過的這項法案,這對于制定人工智能規則書來說意義有多大?

我認為這肯定是一個重要的第一步,但我們還有漫長而艱難的道路要走。我真的很高興看到歐洲,特别是歐盟,正在努力關注和負責任地思考人工智能的監管。是以,我認為這肯定是一個重要的行動,因為它也向其他大陸和世界上的其他國家表明,我們有能力做些事情。是以這是第一步,讓我們繼續共同努力。

大衛,上個月我與你交談時,你和其他技術上司者和科學家發出了關于人工智能帶來的危險的警告。這項通過的法案是否讓你覺得人們對于人工智能帶來的警告更加重視了?

我不會這麼說。我也很高興看到這項立法通過。但這項立法已經醞釀了很長時間,早在我們發表聲明之前就已經開始了。而且它并不是專門針對存在性風險。我認為它更多地針對的是我們五年前開始起草時已經看到的那些問題。我認為有很多其他迹象表明人們開始更多地考慮存在性風險。是以我對最近的發展感到鼓舞,但并不是特别對這一點。

如果我可以進一步追問,你看到的其他一些迹象是什麼,讓你相信其他人現在開始考慮所謂的存在性威脅?

我認為是因為與許多人交談,包括在像這樣的媒體上交談。此外,我想英國政府已經公開表态過這個問題。我不确定他們的具體計劃是什麼,或者他們是否在采取正确的行動。但至少他們說他們是認真對待,并試圖召集上司人,至少是美國,來讨論這個問題。我認為我們仍然可能缺少應對這個問題有效處理所需的全球範圍。我們需要包括中國等其他國家。但這可能是朝着正确方向邁出的一步,雖然也許還為時過早。

馬克,如果政府現在競相監管人工智能,從你的角度來看,可以采取哪些具體步驟來確定創造力和創新不受到壓抑?

是的,我們歡迎歐盟的這項新政策,我認為它隻需以正确的方式應用即可。對于創新和創造力來說,正确的方式是確定一些原因和一些不良行為有所監管。我的意思是,目前已經有很多法律規定,您不能使用任何形式的技術,無論是人工智能還是其他任何技術,進行不良行為。如果我們遵循目前有效的法律并以與人工智能相關的方式應用這些法律,秉持相同的原則,我認為這可能是一個非常令人鼓舞的步驟。

當涉及到虛假資訊和深度僞造技術時,我們從你的角度來看,對此應該有多擔憂?

是的,我認為我們應該非常擔心,特别是随着生成模型的進步。我們将會獲得越來越好的合成媒體,例如由這些技術生成的圖像、文本、視訊或音頻聲音等内容。有時候人們很難判斷他們在社交媒體和其他平台上看到的内容是由人工智能系統生成的,還是來自可靠來源。當我們無法判斷和區分來自可靠來源的内容和由人工智能系統生成的内容時,我們基本上處于一個非常危險的邊緣,因為民主機構的威脅就在其中。信任彼此的意義以及對不同政府和機構的信任,這不僅僅是個别國家的問題,而是全球問題,都将被削弱。我對未來的前景沒有積極的展望。

大衛,我看到你對我剛才說的一些内容點頭表示認同。當然,你用了"存在性"這個詞來形容這種情況。這是你和你的同僚在談論人工智能帶來的威脅時使用過的詞彙。

我非常擔心人工智能的發展速度超過了控制速度,這是我和其他人建立聲明的原因。我認為這絕對是我的首要關注點,因為我們隻是在探索人工智能極端影響的表面,無論是系統的純粹智能和力量,還是它所帶來的社會影響。是以,虛假資訊絕對是一個重要問題,它可能會造成災難性後果。正如之前提到的,虛假資訊在未來的存在性風險場景中可能發揮重要作用。

有趣的是,我們尚未看到它在使用現有技術時産生更大的影響。但我認為我們可能正要跨越一個門檻,進而開始對我們的資訊生态系統産生巨大影響。以2024年美國選舉為例,越來越多的報道稱人們正在利用這些系統進行欺詐,這與虛假新聞和合成聲音模仿人的聲音等相關的另一種風險。總體而言,我認為破壞信任是一個非常重要的問題。它可能迫使人們不得不更多地依賴大型機構,如政府或大型媒體公司。這将帶來許多後果。目前,我們仍然可以自己驗證我們看到的一些内容是否真實發生,但在未來,我們可能需要依賴權威機構來判斷是否應該相信某個内容是否合法,這種情況将越來越多地發生。

馬克,作為一位科技創業家,人們經常問你,由于人工智能的原因,是否比以前更容易失去工作。你是如何回答的?

像市場上的任何重大變革一樣,我認為人工智能與工業革命和曆史上的其他變革一樣,确實會對某些工作造成威脅。但我認為這更多是一種工作和技能的轉變,而不是我們将失去所有工作。随着技術的進步,某些工作可能會消失,但同時也會創造出新的工作機會。人工智能可能會自動化一些重複性的任務,但它也會催生出需要人類創造力、創新和解決複雜問題的領域。我們需要适應這種變化,通過終身學習和教育訓練來提升自己的技能,以适應未來的工作市場。

總的來說,人工智能的發展帶來了機遇和挑戰,我們需要全球合作和負責任的監管來確定其合理和可持續的應用。雖然還有很多問題需要解決,但我對人工智能的未來充滿信心,相信我們能夠共同應對并塑造這個技術的發展。

另外,還有一個相反的觀點,即通過人工智能的幫助,我們能夠更好地完成工作,為社會增加更多價值。這也可能引發市場的潛在繁榮,我們能夠從事更具價值的工作并得到更高的報酬。是以,我相信會有一種轉變,以及對所需技能的重大變革。

然而,展望未來幾十年的世界,人工智能能夠幫助我們。聯合國秘書長也對人工智能的快速增長表達了關切,并支援建立一個全球監管機構,確定人工智能技術的安全、可靠、負責任和道德。聯合國秘書長還支援了一個提案,呼籲建立一個國際監管機構來監測人工智能。

從我的角度來看,實作這個提案需要相當長的時間。整個過程将非常複雜。就像您所提到的,許多組織需要傾聽不同專家的聲音。而僅僅說要監測人工智能并沒有太多意義,因為人工智能可以是任何東西。簡而言之,任何能進行某種推理的算法系統都是人工智能系統。是以,解釋和監測人工智能這個概念變得非常複雜。我們需要對監測人工智能的概念進行深入思考。

與監測核能發展的提議相比,我們可以區分或抑制将核能用于軍事目的,這是有意義的。但是,如果要抑制将人工智能系統用于軍事目的,那就沒有意義,因為我認為世界上大多數國家都在軍事發展中使用一種或多種形式的人工智能。

對于這些術語的解釋,我們需要非常謹慎。我認為這将是一個非常複雜的過程。我們最好的做法是彙集不同聲音、不同利益相關者,進行複雜的頭腦風暴。否則,這些聲明隻會是毫無意義的聲明。當我們真正要将它們付諸實施時,我們會發現我們無能為力。

關于建立一個監測機構的提案,實作它需要多長時間無法确定。這取決于各種因素,如政治意願、技術發展和國際合作。然而,我認為現在是開始行動的時候了。我們可以先從監測最大的人工智能模型開始,因為這些模型的建構相對困難,隻有少數幾個組織有能力實作。通過監測這些模型所需的計算資源和其生産分發過程,我們可以初步實施監測措施。

除了自願行為準則外,關于人工智能的監管還需要科技行業的參與。自我監管是必要的,很多研究實驗室和人工智能公司已經實施了某種形式的自我監管。然而,這仍然不夠,因為人工智能系統可能對全球範圍内的人類社會帶來嚴重破壞。是以,我們需要進行更嚴肅、更進階的對話,包括要求首席執行官解釋他們所說的自我監管的具體内容。

總之,人工智能監管的問題是複雜的,需要全球合作和跨領域的專家意見。雖然實作監管機構需要時間和努力,但我們應該開始行動,從監測最大的人工智能模型和推動科技行業的參與開始。通過深入思考和積極對話,我們可以朝着安全、可靠和負責任的人工智能發展邁進。

是以,當談到監管時,康斯坦斯認為這非常重要,這是下一步,他需要明确自我監管或監管的确切含義。否則,我們隻會敷衍其事而不做實質性讨論,人工智能的發展也将持續前進。不幸的是,我認為我們将無法有效地進行監管。是以,我們需要更加具體,将不同利益相關者聚集在一起。我們需要傾聽那些多年來一直從事負責任、道德和安全人工智能工作的專家們的意見和觀點,需要将科技公司首席執行官的觀點納入到充滿活力和成效的對話中。否則,我認為我們無法取得任何進展。大衛,我明白你渴望積極參與其中,請繼續發表你的看法。是的,我完全同意我剛才說的。隻是稍作補充。我的意思是,我們絕對不能相信科技公司會對自己進行有效監管。我認為這種想法本身就是荒謬的,尤其是當這些公司的首席執行官都在呼籲監管。他們并不僅僅是在談論自我監管。

确實有一些好人,我認為他們在這些公司的一些政策和倫理團隊中工作,他們有一些好的想法。是以,我們應該傾聽他們的意見,将他們引入對話中。但我剛才已經說過,我們不能完全依賴他們。我認為這是因為在競争和利潤驅動的市場中,公司不會采取行動,尤其是當它涉及到對正在開發或部署這些系統的安全性、可靠性和可接受性提出質疑時。我們真的需要有能力幹預并說出這樣的系統是不安全、不可靠、不可接受的,即使這會嚴重損害利潤。你就是不能這樣做。然而,我目前看到的大部分自我監管和監管都是關于“你可以這樣做,但你必須以這種方式做,或者你必須額外做一些事情”。它們沒有明确規定的界限,說在某一點上,你将不被允許再開發或部署這樣的系統。但這正是我們需要達到的地步。在我看來,當人們讨論監管時,會引發關于過度監管可能性的擔憂。

關于您提到的歐盟是否存在過度監管的問題,通過AI法案,是否可能看到一些大型科技公司決定離開歐盟,甚至在監管較少或在美國設立業務,這确實是一個關注點。是的,我隻是想就大衛所說的一點表達不同意見,我認為監管不應該限制AI的使用或開發。否則,我們将失去全球競争優勢。我認為監管的重點應該是确立基本原則、法律、道德和安全标準等方面。隻要我們以正确的方式進行合作,我認為這是一個非常令人鼓舞的進步。我确實認為,如果我們限制我們的能力和計算能力,我們将在其他國家和地區處于劣勢,這是一個令人擔憂的情況。對我來說,監管的方式是幫助數千家公司更有效地運作。

目前已經存在很多自我監管和行業内部監管。如果我們做任何不道德的事情、任何違法的事情,我們就不會有客戶。多年來一直存在的自我監管仍然存在,并且我們歡迎政府介入,為這項工作提供更多堅實支援。我知道我們時間不多了,但我們已經讨論了關于這個問題的許多複雜性,以及制定監管和立法架構的複雜性。我想問你,你是如何努力在進步和威脅之間取得平衡的?這是一個非常好的問題。我隻想說,我不認為有人期望我或其他人能給出簡單的答案。但我認為有一件非常重要的事情需要強調,那就是我希望各國政府不僅僅聽取大公司CEO對監管的談論,而是願意真正發展自己對CEO們對監管工作方式的想法的了解。

《人工智能法案》草案如果政府監管人工智能,他們會扼殺創新嗎?

您知道,不幸的說法是,一些來自不同政府的人對技術一無所知,而大公司的CEO和其他人則了解技術。我不認為這是一個二進制對立的情況。有像我這樣的人,有像大衛這樣的人。還有很多其他在這個領域工作的人,他們多年來一直從事關于道德人工智能和負責任人工智能的工作,他們對技術有一定了解,并了解有關監管和政策的曆史和社會複雜性。他們需要在這個領域發出響亮的聲音。

繼續閱讀