天天看點

OpenAI CEO談AI技術革命、監管和隐私保護|聽證會2萬字實錄

作者:AI自智體

中國企業家俱樂部

以下文章來源于Web3天空之城 ,作者天空之城城主

美東時間5月16日,OpenAI CEO Sam Altman 在美國參議院司法委員會隐私、技術和法律小組委員會會議上作證,會議的主題是「AI 監管:人工智能規則(Oversight of AI: Rules for Artificial Intelligence)」

來源 | Web3天空之城

劃重點:

1.Sam Altman 認為與所有的技術革命一樣,AI會對就業産生重大影響。但GPT-4是一個工具,而不是一種生物,它更擅長完成任務,而不是工作。是以它将建立我們認為更好的新工作。

2. 對于AI大規模部署,Sam Altman認為在暗地裡建構一個超強大的人工智能系統,然後一下子把它投放到世界上這不會奏效。OpenAI的戰略是當這些系統仍然相不完美時,找到方法讓人們對它們有經驗,與現實接觸,通過回報找出使其變得更安全和更好的方法。

3. Sam Altman對監管的幾點建議:1)成立一個新的機構,對超過一定規模的功能進行許可,并可以收回許可證,確定遵守安全标準。2)制定一套安全标準,重點關注危險能力評估。我們以前用過的一個例子是檢檢視模型是否可以自我複制和自行滲透到外部。3)要求獨立審計,而不僅僅是公司或機構自我審查,還要有廣泛外部專家的評價意見。

4. 在隐私保護層面:使用者能夠選擇退出,不讓類似我們公司或社交媒體公司這樣的公司使用他們的資料,而且易于删除自己的資料。如果使用者不希望自己的資料用于訓練這些系統,他有權這樣做。

OpenAI CEO談AI技術革命、監管和隐私保護|聽證會2萬字實錄

國會聽證會主席:

現在讓我介紹一下證人。我們非常感謝你們能來這裡。

Sam Altman是OpenAI的聯合創始人兼首席執行官,OpenAI是負責ChatGPT和DALL·E等人工智能研究和應用的公司。Altman先生曾擔任Y Combinator創業加速器的總裁,從2014年到2019年。OpenAI成立于2015年。

Christina Montgomery是IBM的副總裁兼首席隐私和信任官,負責公司的全球隐私計劃、政策合規和戰略。她還擔任IBM人工智能倫理委員會和多樣性團隊的主席,負責人工智能和新興技術的治理。Christina在IBM擔任多種職務,包括公司董事會的公司秘書。她是人工智能倫理和政府方面的全球上司者,同時還是美國商會人工智能委員會和美國國家人工智能咨詢委員會的成員,該委員會于2022年成立,為總統和國家人工智能倡議辦公室提供有關人工智能相關議題的建議。

Gary Marcus是人工智能領域的主要聲音,他是一位科學家、暢銷書作者和企業家,是Robust AI和Geometric AI的創始人(如果我沒記錯的話,它被Uber收購),他還是紐約大學心理學和神經科學的名譽教授。Marcus先生以對當代人工智能的挑戰而聞名,他在幾十年前就預見到了許多目前的局限,并在人類語言發展和認知神經科學方面進行了研究。

感謝你們的出席。正如你們所知,我們司法委員會的習慣是在證人作證之前對他們進行宣誓。請你們都站起來,舉起右手。你們發誓你們即将作證的内容是真實的、全部的,沒有任何虛假,對此表示同意嗎?謝謝。

Altman先生,如果可以的話,我們将從您開始。

Sam:

謝謝。謝謝主席達赫爾、霍利排名委員會成員。非常感謝能有機會在這裡向大家講話,談論大型神經網絡。對我來說,能在此刻出席比我預期的還要光榮。我叫Sam Altman,我是OpenAI的首席執行官。

OpenAI的成立是基于這樣的信念,人工智能有潛力改善我們生活的方方面面,但同時也會帶來嚴重的風險,我們必須共同努力來管理這些風險。我們在這裡是因為人們熱愛這項技術,我們認為它可能是印刷機的時刻,我們必須共同努力使其成為現實。

OpenAI是一家非同尋常的公司,我們設立它就是因為人工智能是一項非同尋常的技術。我們受非營利組織的管理,我們的活動由我們的使命和章程驅動,我們緻力于確定人工智能的利益廣泛分布,并最大限度地提高人工智能系統的安全性。我們正在努力開發一種工具,将來可以幫助我們發現新知識,解決人類面臨的最大挑戰,如氣候變化和治愈癌症。

我們現有的系統還不具備這些能力,但看到全球許多人已經從這些系統中獲得了如此多的價值,這是非常令人滿意的。我們喜歡看到人們使用我們的工具來創造、學習、提高生産力,我們非常樂觀地認為未來會有很多好的工作,現有的工作也能變得更好。我們也看到開發人員為改善生活所做的努力,例如,Be My Eyes利用我們GPT-4中的新型多模态技術,幫助視障人士在環境中導航。

我們相信迄今部署的工具的好處遠遠超過風險,但確定它們的安全對我們的工作至關重要,我們會付出巨大努力,在所有層面上確定安全内置于我們的系統中。在釋出任何新系統之前,OpenAI都會進行廣泛的測試,與外部專家進行詳細審查和獨立稽核,改進模型的行為,并實施強大的安全和監測系統。在釋出我們最新的模型GPT-4之前,我們花了六個多月進行廣泛的評估、外部紅隊測試和危險能力測試。我們為我們取得的進展感到自豪,GPT-4比其他功能相似的廣泛部署模型更有可能作出有益和真實的回應,拒絕有害的請求。

然而,我們認為政府的監管幹預将是至關重要的,例如,美國政府可以考慮對開發和釋出超過一定能力門檻的人工智能模型實施許可和測試要求。在我的書面證詞中,我還提到了其他幾個領域,在這些領域,我相信像我們這樣的公司可以與政府合作,包括確定最強大的人工智能模型遵守一套安全要求,促進制定和更新安全措施的過程,探索全球協作的機會。

正如你們提到的,我認為公司在這方面也有責任,無論國會做什麼,這是一個非凡的時刻,從事人工智能工作。但随着這項技術的發展,我們了解到人們對它可能改變我們生活方式的擔憂,我們也有同樣的擔憂。但我們相信我們可以并且必須共同努力,識别和管理潛在的負面影響,以便我們都能享受巨大的好處。確定強大的人工智能以民主的價值觀為基礎的發展至關重要,這意味着美國的上司地位至關重要。我相信我們能夠應對眼前的風險,并真正利用這項技術的潛力,推動美國和全世界的經濟增長。我期待着與大家共同應對這個時刻,并回答你們的問題。

主席:

謝謝Altman先生。

我們将進行7分鐘的提問環節,我将首先提問。首先,我們今天在這裡是因為我們确實面臨完美風暴。我們中的一些人可能更傾向于将其比作瓷器店中的炸彈,而不是公牛。正如霍利參議員所指出的,這裡有先例,不僅是原子武器時代,還有基因組項目和遺傳學研究,這導緻了國際合作。我們想避免在社交媒體上犯下的過去錯誤,正如我在開場白中所指出的。

ChatGPT和所有的AI都會出錯,它可以成為令人信服的騙子,人們稱之為幻覺。這可能是司法委員會聽證會開場時無害的問題,在這種情況下,我的聲音被模仿,或不存在的研究論文被引用。但是,ChatGPT和Bard願意回答有關生死大事的問題,例如藥物互相作用,這種錯誤可能造成深遠的損害。

我對如何獲得關于這些模型的準确性和可信度的可靠資訊,以及如何建立獎勵更高準确性的競争和消費者披露感興趣。美國國家标準與技術研究院實際上已經有了AI準确性測試——面部識别供應商測試。它沒有解決面部識别的所有問題,但評分卡确實提供了關于這些系統的功能和缺陷的有用資訊。是以,有關確定準确性和完整性的模型的工作(是必要的)。

我的問題,Altman先生,我們應該考慮獨立測試實驗室為評分卡和類似營養标簽或等價的營養标簽的包裝表明人們是否可以信任該内容,它的成分是什麼,輸入的垃圾可能是什麼,因為它可能導緻輸出的垃圾?

Sam:

是的,我認為這是一個很好的主意。我認為公司應該在釋出模型之前公布自己的測試結果,包括模型的弱點和優勢。此外,獨立審計對此也非常重要。這些模型随着時間的推移變得更加準确。正如我們聲稱的那樣,這項技術還處于早期階段,它确實仍然會出錯。

我們發現使用者相當有思考,了解模型可能出現的錯誤,需要對模型的說法負責,他們去查證它。我擔心随着模型變得越來越好,使用者可以逐漸減少自己對它的判斷思維過程。但是,我認為在這種對話中,使用者的能力往往比我們給予他們的信用更強。

大量披露對模型的不準确性很重要,如果你使用過ChatGPT,你會發現這一點。我期待一個公司公布有關模型行為和不準确之處的資訊的世界,獨立機構或公司也提供這些資訊。我認為這是一個很好的主意。

主席:

在我的開場白中,我暗示了就業問題和對就業的經濟影響。

事實上,我要引用一下,你說過:“超級人工智能的發展可能是人類持續存在的最大威脅。”你可能考慮到了對就業的影響,這實際上是我長期以來最大的噩夢。

讓我問你,你最大的噩夢是什麼,你是否也有這種擔憂?

Sam:

與所有的技術革命一樣,我預期會對就業産生重大影響,但具體影響如何很難預測。如果我們回顧前一段技術革命的另一面,談論存在于另一面上的工作,你可以去讀當時人們的書,這很難。我相信在這之後會有更多的工作,今天的工作會變得更好。

首先,我認為重要的是要了解和思考GPT-4是一個工具,而不是一種生物,這很容易混淆。這是人們有很大控制權的工具,以及如何使用它。其次,GPT-4和其他類似的系統擅長完成任務,而不是工作。是以,你已經看到有人使用GPT-4以更高效的方式完成工作,這是通過幫助他們完成任務實作的。

GPT-4将完全自動化一些工作,它将建立我們認為更好的新工作。這是一再發生的事情。

我對技術曆史的了解就是一場長期的技術革命,而不是許多不同的技術革命聚集在一起。這一直在繼續發生。随着我們的生活品質提高,和我們創造的機器和工具可以幫助我們過上更美好的生活,我們所做的工作的标準也在提高;我們的人類能力和我們花時間追求的事情,也在追求更雄心勃勃和更滿意的項目。

是以,這将對就業産生影響,我們試圖非常清楚地表達這一點。我認為這需要行業和政府的合作,但主要是政府采取行動來弄清楚我們如何減輕這種影響。但是,我對未來工作的前景非常樂觀。謝謝。

Marcus教授:

剛才說到了就業,但是我覺得就業可能不是Sam最擔心的事兒,他最擔心的事情還沒說。

主席:

謝謝。Altman先生,您是否想對此作出回應?

Sam:

是的,我們盡量明确表示這裡的風險大小。

我認為工作和就業以及我們将如何利用我們的時間真的很重要。

我同意當我們擁有非常強大的系統時,格局将發生變化。我認為我隻是更樂觀地認為我們極其有創造力,我們會找到利用更好的工具做新事情的方法。這種情況會持續發生。

我最擔心的是我們會造成重大傷害,我們這個領域,這項技術,這個行業會對世界造成重大傷害。

我認為這可能以很多不同的方式發生。這就是我們創立公司的原因。這是我今天來這裡的主要原因以及我們過去來這裡的原因。我們能花些時間與你在一起。

我認為如果這項技術出錯,它會出錯得相當厲害。我們想明确表達這一點。我們想與政府合作防止這種情況發生。但我們盡量實事求是地看待負面情景以及我們必須做的工作來緩解這種情況。

謝謝。

主席:

我們的希望是行業餘下部分會遵循你和IBM蒙哥馬利女士今天來的榜樣。像你私下做的那樣與我們見面并幫助指導我們将要做的事情。

這樣我們可以瞄準危害并避免意外後果的好處。謝謝。

Hawley議員。

Hawley:

再次感謝主席。感謝證人出席。

Altman先生,我認為你在聖路易斯長大,如果我沒記錯的話。很高興看到這裡有一個偉大的密蘇裡人,謝謝。

我特别要在記錄中強調這一點。密蘇裡是一個偉大的地方。這是今天聽證會的重點。也許我們這就可以停了,主席先生。

讓我問一下你,Altman先生,我會從你開始,我隻是想說,我在這裡的問題是為了更好地了解,并請你們所有人幫助我們更好地了解這種生成式AI,特别是大型語言模型的能力以及其意義。我正在看一篇名為《基于媒體食譜訓練的大型語言模型可以預測公衆輿論》的論文,這是大約一個月前釋出的,作者是Chew Andreas、Anselaberry和Roy,

他們的結論是,大型語言模型确實可以預測公衆輿論,他們對此進行了模組化和解釋。他們最終得出結論,AI系統可以通過适應預訓練的語言模型對亞群體特定的媒體飲食進行預測,這意味着您可以向模型輸入特定的媒體資訊,它可以以非常準确的方式預測人們的觀點。

我想将其放在選舉的背景下考慮。

如果這些大型語言模型甚至現在就可以基于我們輸入的資訊相當準确地預測公衆輿論,在你甚至還沒有向公衆提問這些問題,會發生什麼情況?當公司實體、政府實體、競選活動或外國行動者利用這些調查資訊、對公衆輿論的預測進行精确的調整政策,以引發特定的行為反應時,我是指我們在大約3年前的這個委員會上的證詞,關于谷歌搜尋對選民在選舉中的影響,尤其是對未決選民在選舉最後幾天可能從谷歌搜尋擷取資訊的影響,以及谷歌搜尋的排名和傳回的文章對未決選民産生的巨大影響,這當然是數量級更大、意義更大、指向性更強的情況。

Altman先生,也許你可以幫助我了解一下這其中的一些意義,我們是否應該擔心能夠預測調查意見的大型語言模型,然後幫助組織和實體調整政策以引發選民的行為反應對于我們的選舉的影響,我們應該擔心這個問題嗎?

Sam:

謝謝霍利議員的問題,這是我最關注的一個領域。

這種模型的更普遍的能力,即操縱、說服、提供一對一的互動式虛假資訊,我認為這是你所說的更廣泛的問題。但考慮到明年我們将面臨選舉,而這些模型正在變得越來越好,我認為這還是一個令人擔憂的重要領域。

我認為有很多公司可以自願采用的政策,我很願意讨論一下我們在這方面的做法。我認為在這個問題上進行一些監管是相當明智的。

有人之前提到了一個我們非常贊同的事情,人們需要知道他們是否在與AI交談,他們正在檢視的内容是否可能是由AI生成的,我認為這是一個很好的做法,可以明确這一點。

我認為我們還需要關于公司提供模型時所期望的披露内容的規則和指南,這些模型可能具有您所談到的這種能力。是以我對此感到緊張,但我認為人們能夠相當快速地适應。

當很久以前出現Photoshop時,人們在一段時間内确實被Photoshop的圖像所愚弄,然後很快就發展出了認識到圖像可能是經過Photoshop處理的意識,這将是一個加強版的情況,而且互動性能夠非常強,能夠真正地模拟和預測人類,就像你所提到的那樣。

我認為這将需要企業的正确做法,監管和公衆教育的結合。

Hawley:

關于訓練使用個人資料的人工智能系統,您擔心什麼......這種資料,例如,社交媒體公司的主要平台,谷歌、Meta等公司定期收集的所有資料?

我們委員會已經讨論了這一點一年了。但是,公司擁有每個人海量的個人資料。

一個使用那些個人資料訓練的人工智能系統,它比我們自己更了解我們每個人,也知道關于人類行為、人類語言互動的數十億資料點。

難道我們不會認為一個人工智能系統極其擅長确定什麼會吸引人類的注意力,什麼會保持個人的注意力嗎?

目前,所有這些平台上都在進行注意力之争,點選之争,是以他們可以賺錢。

我想象這些人工智能模型會加強這場注意力之争,我們現在有的技術将允許前所未有的個人目标定位。

人工智能将準确地知道Sam Altman會感興趣的内容,準确地知道Josh Holly會感興趣的内容,将能夠引起我們的注意力,然後引發我們的反應,這是我們以前無法想象的。

我們應該擔心這對其商業應用、貨币應用以及Altman先生可能産生的操縱有什麼影響嗎?

Sam:

是的,我們應該擔心這一點。

清楚地說,OpenAI不會。我們不是,你知道,我們的商業模式不是......是以我們沒有試圖建立使用者配置檔案,我們沒有試圖讓他們使用更多。實際上,如果他們使用得更少,我們會很高興,因為我們沒有足夠的GPU。

但我認為其他公司已經開始并且未來肯定會使用人工智能模型來建立定制廣告,根據使用者喜歡預測。我認為這在許多方面已經在發生。

Duben:

這是曆史性的聽證會,我無法回憶起我們曾邀請代表大公司或私營部門實體的人來到我們面前,并懇請我們對他們進行監管。事實上,參議院的許多人将使經濟繁榮的職業生涯建立在相反的基礎上,如果政府遠離,經濟将蓬勃發展。

而我今天聽到的消息卻是“在我再次創新之前阻止我”。我隻是好奇我們如何實作這一點。

如我在開場白中提到的,我們在230條(美國于1996年頒布的法律,第 230 條保護提供商和個人免于因他人線上釋出的非法内容而承擔重大法律責任。)中學到了一些東西。我們決定通過230條基本上會免除這個行業一段時間的責任,讓它成長。

Altman先生,今年早些時候在播客中,您同意主持人的說法,認為230條不适用于生成性人工智能,開發者像OpenAI不應該有權對其産品造成的損害免于全部責任。那麼,我們從230條中學到了什麼适用于您在人工智能方面的情況?

Sam:

謝謝參議員的提問。我還不确定這裡的正确答案是什麼。我很樂意與您合作來解決這個問題。我确實認為對一項全新的技術,我們需要一個新的架構。

像我們這樣的公司肯定要為我們釋出在世界上的工具承擔很大責任,但工具使用者也要如此,以及那些将建立在他們和最終消費者之間的企業。我們如何建立一項責任架構至關重要。我們很樂意一起工作。

Duben:

我要強調的一點是這樣的,當涉及到線上平台時,政府的傾向是遠離。這是一個新的行業,不要過度監管,事實上給予他們一些呼吸空間,看看會發生什麼。我不确定我對線上平台的結果感到滿意,以及它們造成的危害和我們在這個委員會中看到的問題,如兒童剝削、網絡欺淩、線上藥品銷售等。我不想再重複相同的錯誤。

而我聽到的來自私營部門的相反建議是,進入這個領域,建立一些責任标準和精确的監管。

對IBM這樣的大公司來說,向政府委員會表示,“請對我們進行監管”,這似乎是前所未有的。

您能解釋一下過去和現在的思維差異嗎?(先問了IBM的同學)

Sam:

我想簡短地回答參議員的問題。我支援Marcus先生的說法,認為美國應該在這裡發揮上司作用并率先采取行動。但要起作用,我們确實需要一些全球性的東西,正如您提到的,這可以在任何地方發生。

這樣聽起來天真地呼籲是有先例的,我們之前通過《資訊技術協定》做到過,我們讨論過為其他技術做同樣的事情。鑒于制造這些模型所需的晶片供應鍊、有限數量的競争GPU和美國對這些公司的影響力,我認為有方法可以使美國設定一些國際标準,其他國家需要與之合作和參與,這些标準實際上是可行的。盡管表面上看起來像一個不切實際的想法,我認為這将有益于世界。

Duben:

謝謝主席。

主席:

謝謝德比參議員。事實上,我認為我們将聽到更多關于歐洲正在做什麼的消息。歐洲議會已經在采取人工智能法案行動。在社交媒體方面,歐洲領先于我們。我認為,您的觀點非常中肯。

讓我轉向Blackburn參議員。

Blackburn:

謝謝主席,謝謝各位今天來到這裡。

我在chatGPT帳戶中輸入了“國會應該監管人工智能chatGPT嗎?”,它給我列出了4個正面因素,4個消極因素,并說最後的決定取決于國會,值得慎重考慮。

是以,在這方面,它是一個非常平衡的回答。

我最近通路了我代表田納西州的納什維爾技術理事會。當然,那裡有來自醫療保健、金融服務、物流和教育機構的人。他們擔心人工智能正在發生的事情,以及它對他們公司的利用。Montgomery女士,與您類似,他們有醫療保健人員正在研究疾病分析,他們正在研究預測診斷,這如何改善患者的結果。

物流行業正在研究如何節省時間和金錢,提高效率。

金融服務業表示,這如何與量子計算機、區塊鍊搭配使用,我們如何使用這些技術。

但主席先生,我們與他們讨論時,一直出現的一個問題是,正如Marcus教授所說,歐盟和其他實體在這方面領先于我們,但我們從未建立聯邦層面的資料隐私或資料安全性的先例。這是我們需要解決的問題。

這将要求商業委員會和司法委員會決定如何向前發展,以便人們擁有自己的虛拟資訊。

Altman先生,我很高興上周看到OpenAI模型不會使用消費者資料進行訓練。我認為這一點很重要。如果我們進行第二輪辯論,我有一系列關于資料安全和隐私的問題要問您。

我認為,讓人們控制自己在這些環境中的虛拟資訊和資訊至關重要。

我想問您關于音樂和内容創作的問題,因為我們有許多作曲家和藝術家,我認為我們擁有全球最優秀的創意團隊。在田納西州,他們應該有權決定是否使用其受版權保護的歌曲和圖像來訓練這些模型。

我擔心OpenAI的Jukebox,它提供一些加思·布魯克斯風格的重新演繹,這表明OpenAI使用加思·布魯克斯的歌曲進行了訓練。

這個周末,我說“給我寫一首聽起來像加思·布魯克斯的歌”,它給了我一首不同版本的《Simple Man》。有趣的是,它會這樣做。但是,您使用了這些受版權保護的歌曲、MIDI檔案和聲音技術進行訓練。

那麼,在您做這些事情的過程中,誰擁有由人工智能生成的材料的權利?使用您的技術,我能否重做一首歌,插入我喜歡的藝術家的内容,然後擁有那首歌的創作權?

Sam:

謝謝參議員。這是一個我們非常感興趣的領域。首先,我要說的是,我們認為創作者應該對他們的創作如何被使用有控制權。其次,我認為,随着這項新技術的出現,我們需要找到新的方法,創作者可以成功,活躍,我樂觀地認為這會帶來新的機遇。

Blackburn:

那麼,讓我問你,你如何補償藝術家?

Sam:

這正是我要說的。

Blackburn:

好的。

Sam:

我們現在正與藝術家合作,視覺藝術家,音樂家,以确定人們需要什麼。不幸的是,有很多不同的意見。到時候,我們會......

Blackburn:

讓我問你,你是否會模仿Sound Exchange,它在電台領域發揮了作用。

Sam:

我不太熟悉Sound Exchange,我很抱歉。

Blackburn:

好的,你後面有團隊 待會回到我這裡(說這個),這是一個第三方實體。

Sam:

好的。

Blackburn:

讓我們讨論一下,讓我轉移話題。你可以承諾,就像您對消費者資料所做的那樣,不要使用藝術家和作曲家的受版權保護作品或在首先獲得他們同意之前使用他們的聲音和肖像來訓練聊天機器人、OpenAI的Jukebox或其他人工智能模型嗎?

Sam:

首先,Jukebox不是我們提供的産品。那是一項研究釋出,但它不是像聊天機器人或Dolly一樣。

Blackburn:

是的,但我們經曆過Nasper。

Sam:

是的。

Blackburn:

在數字分發時代,那真的讓許多藝術家損失了很多金錢。

Sam:

哦,我了解,當然。我不知道Jukebox的具體數字,作為一項研究釋出,我可以跟進您的辦公室,但Jukebox并不是得到很多關注或使用的東西。它是為了顯示某些可能性而釋出的。

Blackburn:

好的。

達賓參議員剛才說過,您知道,我認為這是一個公平的警告,如果我們不從一開始就參與進來,而您已經走了很長一段路,但如果我們不采取行動,這将超出您的控制範圍。

那麼,您是否正在與版權辦公室合作?您是否正在考慮在生成人工智能中保護内容生成者和創作者的權益?

Sam:

是的,我們絕對正在與之配合。再次重申我之前的觀點,我們認為内容創作者和内容所有者需要從這項技術中獲益。确切的經濟模式是什麼,我們還在與藝術家和内容所有者讨論,以确定他們需要什麼。

我認為有很多種方式可以實作這一點,但不管法律是什麼,正确的做法是確定人們從這項新技術中獲得重大的益處。我們相信它真的會帶來這些好處,但内容所有者、形象和個人完全應該有權控制它們的使用方式,并從中獲益。

Blackburn:

好的,關于隐私問題,你們計劃如何考慮通過你們的AI應用收集聲音和其他使用者特定資料的問題,比如那些受版權保護的東西。如果我可以輸入“寫一首聽起來像加思·布魯克斯的歌”,然後它采用了現有歌曲的部分,那麼藝術家就必須得到相應的補償,因為如果是在廣播中播放,那麼就會有相應的補償;如果是在流媒體平台上播放,也會有相應的補償。

是以,如果你們要這樣做,你們的政策是什麼,以確定你們考慮到了這一點,保護個人的隐私權和他們對資料和創作作品的安全性。

Sam:

關于這個問題,我有幾點想法。首先,我們認為人們應該能夠說:“我不想讓我的個人資料用于訓練。”

BlackBurn:

我認為這是正确的。這需要制定一個全國性的隐私法律,我們這裡的一些人正在努力達成一項我們可以使用的協定。

Sam:

是的,我認為強有力的隐私法律是對的。

Blackburn:

我的時間到了,謝謝。

Klobuchar:

謝謝布萊克本議員的回應。謝謝大家,感謝主席先生。謝謝你們的到來。謝謝大家,布萊克本議員。謝謝大家,克洛沃議員。非常感謝,主席先生。布萊克本議員,我非常喜歡納什維爾,喜歡田納西州,喜歡你們的音樂。但是我要說,我使用過ChatGPT,并詢問過有史以來最偉大的創作歌手是誰,其中前三名中有兩位來自明尼蘇達州。是以那會是普林斯和鮑勃·迪倫。

好吧,好的,讓我們繼續。(其他人:AI不會改變這一點,笑),你在這裡看到了。

好,說正經的。我和我的團隊,在我作為規則委員會主席的角色中,在上司許多選舉法案方面,我們剛剛提出了一項由紐約的伊芙·克拉克代表在衆議院提出的法案,我、布克和貝内特也參與了其中,關于政治廣告的事情。但這隻是冰山一角,你們了解這一點,你們和霍利參議員等人讨論過這個問題,關于圖像的問題,以及我對于第230條的看法是,我們不能讓人們編造虛假資訊,然後毫無後果地消失。

但我要重點關注我在規則委員會上的一項工作,那就是選舉虛假資訊。我剛剛讓GPT在推特上釋出了一條關于明尼蘇達州布魯明頓市的投票地點的推文,說那個投票地點排隊人數衆多,那是阿頓信義教堂,或者我們現在應該去哪裡。盡管現在沒有選舉,但是草案的答複是完全虛假的“去123号埃爾姆街吧”。

是以你可以想象我在這方面的擔憂,選舉即将到來,初選也即将到來,我們将會出現各種各樣的虛假資訊,我隻是想知道你們計劃采取什麼措施。我知道我們不得不很快采取一些行動,不僅僅針對候選人的形象,還有關于實際選舉地點和選舉規則的虛假資訊。

Sam:

謝謝參議員。

我們在選舉方面的影響非常關注。我認為這是一個希望整個行業和政府能夠快速合作的領域。有很多方法可以解決這個問題,我将談談我們正在做的一些事情。但在此之前,我認為用社交媒體的架構來思考是很誘人的,但這不是社交媒體,這是不同的。是以我們需要的應對措施也是不同的。你知道這是一個使用者用來幫助生成比以前更高效的内容的工具,他們可以改變它,他們可以測試它的準确性,如果他們不喜歡,他們可以得到另一個版本,但它仍然會通過社交媒體或其他方式傳播。或者像ChatGPT一樣,是一個單人體驗,你隻是在使用它,是以我認為在思考該做什麼時,這一點很重要。

有很多事情我們可以做,也正在做,我們有一些拒絕生成的原則,我們也有一些重要的政策,而且我們還有重要的監測機制,可以檢測到某人在生成大量這樣的推文,即使生成一個推文是可以的。

Klobuchar:

當然,還會有其他平台,如果他們都散布假的選舉資訊,我就覺得以前與俄羅斯幹預等所發生的事情隻是冰山一角,其中一些假應用程式。這是第一點。

第二點是對知識産權的影響。Blackburn參議員在歌曲權利方面提出了一些意見,我對此也深表關切。但新聞内容方面,Kennedy參議員和我提出了一項真的相當簡單的法案,該法案簡單地允許新聞討論區織豁免,能夠與Google和Facebook等進行磋商。微軟支援該法案,但基本上與他們磋商以獲得更好的價格,能夠不具有一定的杠杆作用。其他國家正在這樣做,像澳洲等。

是以我的問題是,當我們已經有西北大學的一項研究預測,在未來25年内,美國報紙的三分之一左右将消失,除非開始補償從電影到書籍,當然也包括新聞内容,否則我們将失去任何現實的内容生産者。是以我希望聽到您對此的看法。當然,版權有豁免的規定第230條,但我認為要求小報社一直起訴實在不是答案,他們無法跟上。

Sam:

我希望像我們正在建立的這樣的工具可以幫助新聞討論區織做得更好。我認為擁有充滿活力的全國媒體至關重要。讓我們稱之為網際網路的第一輪(資訊源)并不誇張。

Klobuchar:

我們這裡讨論的就是當地報道,你的高中,市政廳的醜聞,那種事情。當然他們就是實際上狀況最糟的小電台和廣播。但您是否了解如果他們得不到補償,這可能會在當地新聞内容方面成指數級惡化,因為他們需要的就是為他們的内容獲得補償,而不是被竊取。

Sam:

是的,再一次,我們的模型,您知道,GPT 4的目前版本在2021年結束了訓練,這不是找到最新新聞的好方法,我不認為這是一個能夠很好連結出去的服務,盡管可能通過我們的插件是可能的。

如果有我們能做的事情來幫助當地新聞,我們當然願意。再提一次,我認為這至關重要。

Graham:

Altman先生,謝謝您的到來。您的公司沒有聲稱第230條适用于您建立的工具。

Sam:

是的,我們聲稱我的意思是我們需要共同努力找到一個全新的方法。我不認為第230條甚至是正确的架構。

Graham:

那麼,根據現有的法律,如果我受到您建立的此工具的傷害,我可以起訴您嗎?

Sam:

這超出了我的法律知識範圍。

Graham:

您曾經被起訴過嗎?

Sam:

不是因為這個,不。

Graham:

你沒有被起訴過, 那您公司整體上曾被起訴過嗎?

Sam:

是的,我們以前被起訴過。

Graham:

好的,為什麼?

Sam:

我們以前确實受到過起訴,像任何公司一樣,多半是一些毫無根據的事情。

Graham:

但是我的同僚提到的那些人工智能的例子,它們可能真的會毀掉我們的生活,我們是否可以找到創造這個工具的公司,起訴他們?

Sam:

是的,我認為公司應該負起明确的責任。

Graham:

但你沒有聲稱任何法律保護,比如230條款适用于你的行業,對嗎?

Sam:

不,我不這麼認為。我們沒有說任何事情。

Graham:

對于消費者來說,有三種經過時間考驗的保護消費者的方式,對任何産品都适用,即法定計劃(這裡不存在),法律制度(可能适用,但不适用于社交媒體),以及機構。回到Holly參議員的問題,核彈籠罩在人類頭頂,但核電可能是應對氣候變化的解決方案之一。是以我要確定的就是你不能随随便便建一個核電站,“嘿,鮑勃,你今天想做什麼?我們去建一個核電站吧。”你有一個核監管委員會來監管如何建立電站和許可。

Altman先生,您同意這些您建立的工具應該獲得許可證嗎?

Sam:

是的,我們一直在呼籲這一點,獲得許可證是最簡單的方式。

Graham:

您同意我認為最簡單和最有效的方法是設立一個機構來監督您的工作,這個機構應該比國會更靈活和更精明,這應該很容易建立,對嗎?

Sam:

是的,我們對此非常支援。

Graham:

對我來說非常啟發。Altman先生,您為什麼如此願意設立一個機構?

Sam:

參議員,我們已經明确表達了我們認為的優點。我認為從使用者的角度可以看出他們對此有多麼享受和獲得了多大價值。但我們也明确了缺點,這就是為什麼我們認為我們需要一個機構。

Graham:

這是生活中使用的一項重要工具。

Sam:

這是一種重大的新技術。

Graham:

如果我們建立了這項重要的新技術。如果你做了一條梯子,梯子不起作用,你可以找到制作梯子的人,但總得有一些制作梯子的标準。

Sam:

是以這就是為什麼我們同意你的觀點的原因。

Graham:

沒錯。我認為您正朝着正确的方向前進。是以,這裡是我作為委員會成員2%的價值,我們需要授權一個機構對AI公司發出許可證并可以收回。如果您實際上可以被停業,這還是對成為做正确事情的激勵嗎?很明顯,這應該是機構可以做的部分内容。您還同意中國正在進行人工智能研究,對嗎?

Sam:

是的。

Graham:

這個世界性組織目前還不存在,也許會出現。但如果您不解決與中國相關的部分,您永遠不會完全解決這個問題,您同意嗎?

Sam:

嗯,這就是為什麼我認為不一定需要一個世界性組織,但必須有某種标準,這裡有很多選擇,必須有某種控制标準産生全球影響。

Graham:

因為其他人确實在快速進行軍事應用。人工智能如何改變戰争?您有1分鐘。

Sam:

好吧,這是一個1分鐘内難以回答的問題。這遠超出我的專業知識範圍。

Graham:

但我舉個例子,無人機可以讓您程式設計,将其連接配接到無人機的核心部件,它可以飛出去,飛過這個目标,将飛彈投射在路上行駛的汽車上,有人在觀察這個過程。人工智能是否可以創造一種情況,無人機自己可以選擇目标?

Sam:

我認為我們不應該允許這種情況發生。

Graham:

好吧,它能做到嗎?

Sam:

當然,這是可以做到的。

Graham:

謝謝。

Coons:

謝謝。謝謝格雷厄姆參議員。格雷厄姆參議員,謝謝馬克•朗,克裡斯 •墨菲感謝您召開這次聽證會,密切配合來推出這一令人信服的證人小組,對這一革命性技術開始一系列聽證會。

我們認識到生成AI技術的巨大潛力和較大風險。我們知道這些模型可以使我們更有效率,幫助我們學習新技能,開創全新的創造力領域。但我們也知道,生成AI可以權威地提供極不正确的資訊,它可以産生幻覺,這通常被描述為模拟親人,它可以鼓勵自我破壞行為,它可以影響公衆意見和選舉結果。

到目前為止,國會在負責任地頒布對社交媒體公司有意義的監管方面失敗得很慘。由此産生的嚴重傷害我們并不完全了解。克洛維沙參議員在質詢中提到的兩黨法案将打開社交媒體平台的基礎算法,我們甚至難以做到這一點,去了解底層技術,然後轉向負責任的監管。

我們不能像對社交媒體那樣遲來負責任監管生成AI,因為積極和消極後果将超過社交媒體數量級。

是以,讓我提出幾個問題,旨在了解我們如何評估風險,國際監管的作用以及這如何影響人工智能。

Altman先生,我很欣賞您在證詞中提出OpenAI如何通過疊代部署過程評估模型的安全性。然而,這一過程中隐含的基本問題是您如何決定模型是否足夠安全以部署,是否足夠安全以建立并随後釋放到社會上。

我了解防止生成AI模型提供有害内容的一種方式是讓人類識别該内容,然後訓練算法避免它。另一種方法稱為憲法AI,它為模型提供一組價值觀或原則來指導其決策。

将這些規則賦予模型而不是試圖要求或迫使模型在所有可能的有害内容上進行訓練,這會更有效嗎?

Sam:

謝謝參議員,這是一個很好的問題。我喜歡用談論為什麼我們要部署來表達它。

顯然,原因是因為它有許多好處,人們正在使用它進行各種美好的事情并獲得很大價值,這讓我們很高興。但是,我們這樣做的一個很大原因是我們相信疊代部署和給我們的機構以及你們時間來了解這項技術,找到其局限性和好處,我們需要圍繞它的法規,使其安全所需的内容,這真的很重要。

在暗地裡建構一個超強大的人工智能系統,然後一下子把它投放到世界上,我認為這不會奏效。我們戰略的一大部分是,當這些系統仍然相對較弱和深深不完美時,找到方法讓人們對它們有經驗,與現實接觸,并且找出我們需要做什麼才能使其變得更安全和更好。

這是我在新技術和産品的曆史上看到的唯一方法,以達到一個非常好的結果。是以,與世界的這種互動是非常重要的。

當然,在我們推出某樣東西之前,它需要達到1個安全标準,再次,我們在GPT-4訓練完成後花了超過6個月的時間對各種不同的事情進行檢查,并決定在推出之前要達到的标準。試圖找到我們知道的危害并如何解決這些危害。令我們欣慰的是,即使我們最大的批評者也檢查了GPT-4并說,OpenAI在這方面取得了巨大進步。

Coons:

能否簡要談談憲法模型是否值得?

Sam

我正要談這個問題。

Coons:

抱歉。

Sam:

沒關系。是的,我認為預先給模型賦予價值觀是非常重要的一步。RLHF是做同樣事情的另一種方法。不管是通過合成資料還是人工生成的資料,您都在說這些是價值觀,這就是我希望您反映的,或者這就是社會将允許的一切範圍。然後在其中,您作為使用者選擇這裡的價值系統或那裡的價值系統。我們認為這非常重要。有多種技術方法,但我們需要為政策制定者和世界各地提供工具,說明這些價值觀并實施它們。

Kennedy:

謝謝你們都來了。允許我與你們分享3個假設,希望你們暫時假定這些假設是真實的。

假設1:國會的許多成員不了解人工智能。

假設2:缺乏了解可能不會阻止國會全情投入,試圖以可能損害這項技術的方式監管這項技術。

假設3:我希望你們假定,人工智能界可能存在一些瘋狂的人,無意中或故意使用人工智能來殺死我們所有人,并在我們死亡的過程中傷害我們。

假設所有這些都是真實的,請用簡明的英語告訴我2-3項改革或監管措施(如果有的話),如果您是國王或女王,您會實施哪些措施。

我會聽取Altman先生的意見。Altman先生,這是您的機會。

Sam:

謝謝參議員。

首先,我會成立一個新的機構,對超過一定規模的功能進行許可,并可以收回許可證,確定遵守安全标準。

其次,我會制定一套安全标準,重點關注您在第三個假設中提出的危險能力評估。我們以前用過的一個例子是檢檢視模型是否可以自我複制和自行滲透到外部。我們可以向您的辦公室提供其他我們認為重要的長清單。但是,模型部署到世界之前必須通過的具體測試。

第三,我會要求獨立審計,而不僅僅是公司或機構,還有能夠說模型是否符合這些已聲明的安全門檻值和這些問題的百分比的專家的表現。X或Y。

Kennedy:

您能否将這些資訊發送給我?

Sam:

我們會的。

Kennedy:

如果我們頒布這些規則來管理這些規則,您是否願意參與?

Sam:

我喜歡我現在的工作。

Kennedy:

很好,是否還有人願意?

Sam:

我們很樂意向您推薦那些人。

Kennedy:

好的。

你掙很多錢,是嗎?

Sam:

我沒有。我的薪資夠我支付醫療保險。我在OpenAI沒有股權。

Kennedy:

真的嗎?你需要一名律師。

Sam:

我需要什麼?

Kennedy:

你需要一名律師或代理人。

Sam:

我正在做這件事僅僅是因為我喜歡它。

Kennedy:

謝謝主席。

主席:

謝謝肯尼迪參議員。下一位參議員赫羅諾。

Hrono:

謝謝主席。很明顯,人工智能确實改變了遊戲規則,我們需要正确規定這種工具。

因為我的員工可能使用GPT 4,也可能使用其他實體,要求創作我最喜歡的樂隊BTS最喜歡的歌曲,一首他們會唱的歌或其他人的歌曲,但兩位藝術家都沒有參與創作,聽起來像一首真正的歌曲,是以AI可以做很多事。

我們也問AI是否可以創作一段演講,談論最高法院的判決和Dobbs案及其造成的混亂,使用我的聲音,我那種聲音,創作一篇非常棒的演講稿。

這幾乎讓我想,我需要我的員工做什麼。

是以......别擔心(回頭看從業人員)

Sam:

别擔心您後面緊張的笑聲。

Hirono:

他們的工作很安全,但可以做的事情太多了。

您提到的讓我感興趣的一件事是您說GPT 4可以拒絕有害的請求,是以您一定在思考,如果我可以這麼說的話,您的系統如何拒絕有害的請求。您認為什麼是有害的請求?您可以簡短地說一下,好嗎?

Sam:

我會舉幾個例子,一個是暴力内容,另一個是鼓勵自我傷害的内容,還有成人内容。我們不認為成人内容本質上有害,但有的内容我們無法足夠可靠地區分,是以我們拒絕全部。

Hirono:

是以這些是一些更加明顯的有害資訊種類。但是在選舉背景下,例如,我看到一張前總統特朗普被我們的APD逮捕的照片,這走得很遠,我不知道這算不算有害内容。我看到過我們任何一個人都有各種各樣的聲明可以被放出來,可能不會達到您說的有害内容的程度,但事實如此。

是以,您兩位中有兩位說我們應該有許可證計劃。我現在無法想象我們能夠創造什麼樣的許可證計劃,來基本上規範這個改變遊戲規則的工具的廣闊性。

那麼你們是否在考慮類似于聯邦貿易委員會(FTC)或聯邦通信委員會(FCC)這樣的制度,你們兩位對于潛在的許可制度設想有何看法,以提供我們所需要的保障,以保護我們的國家免受有害内容的侵害?

Sam:

談到您說的第一部分,除了“這些内容是否應該生成”之外,我認為其他重要的事情也很重要。

您提到的那張圖檔是生成的。我認為一個很好的政策是說生成的圖像需要在所有上下文中明确說明它們是生成的, 然後我們還會有那張圖檔,但至少需要人們說這是一張生成的圖檔。

Hirono:

好吧,您不需要整個許可證計劃就能做到這一點。

Sam:

我認為許可證計劃的意義不在于針對這些模型今天能夠做的事情,您不需要新設立的許可機構來做這件事。但随着我們前進,您知道這可能需要很長時間,我不确定,随着我們向人工通用智能前進,以及它将産生的影響, 還有這項技術的力量,我認為我們需要像對待其他非常強大的技術一樣嚴肅對待它,這是我個人認為我們需要這樣的計劃的原因。

Hirono:

我同意,這很有意義。

Padilla:

我一直在人工智能使用政府委員會和國家安全委員會之間來回工作,目前後者正在舉行人工智能在政府中的使用聽證會。是以今天是人工智能日,或者至少看起來像是。

現在,對于在家觀看的人來說,如果您直到最近才了解生成AI工具的出現,這一領域的發展可能會突然感覺像發生了。但事實是,主席先生,事實并非如此。人工智能并不新鮮,不管是對政府、企業、公衆還是一般公衆來說。事實上,公衆經常使用人工智能。僅舉一個例子,任何擁有智能手機的人,您的裝置上的許多功能都利用人工智能,包括發短信時的建議回複,甚至電子郵件中的自動更正功能,包括但不限于電子郵件和文本應用中的拼寫。

坦率地說,我很興奮地探讨如何促進有利于社會的積極人工智能創新,同時解決目前工具開發和使用中已知的一些危害和偏見。

随着語言模型變得越來越普遍,我想確定專注于確定不同人口統計群體獲得公平的待遇。

我了解,在評估和減輕公平性危害方面進行的大多數研究都集中在英語語言上,而非英語語言獲得的關注和投資相對較少。我們以前見過這個問題。我會告訴您為什麼提出這個問題。

例如,社交媒體公司沒有充分投資于他們的非英語内容稽核工具和資源,無論是英語空間使用者還是非英語空間使用者。我提出這個問題不僅出于對非美國空間使用者的關注,也出于如此多的美國使用者在交流中更喜歡使用英語以外的語言。是以,我深切擔心人工智能工具和應用程式會重蹈社交媒體在多語言方面的失敗。

問題:Altman先生和Montgomery女士,OpenAI和IBM如何確定他們的大語言模型具有語言和文化包容性?

Sam:

我們認為這真的很重要。一個例子是,我們與冰島政府合作,冰島語言的使用者人數少于許多在網際網路上代表性很高的語言,以確定他們的語言被納入我們的模型。我們進行了許多類似的讨論,我期待與資源較少的語言建立許多類似的合作夥伴關系,以将它們納入我們的模型。

GPT 4與我們以前的模型不同,以前的模型在英語很好但在其他語言不太好,現在在大量語言中表現得非常好。您可以相當遠的使用排名靠後的語言,依據講者人數,仍然能獲得很好的性能。但對于這些非常小的語言,我們對定制合作夥伴關系感到興奮,以将該語言納入我們的模型運作。

您提出的關于價值觀和確定文化被納入的問題部分,我們同樣專注于此,我們很高興與擁有特定資料集的人合作,努力收集來自世界各地的代表性價值觀,為系統可以做什麼畫出寬廣的界限。

Padilla:

我也了解您關于這些系統的好處的說法,希望確定盡可能多的人群獲得這些好處。我認為,這些系統将對許多人産生積極影響,特别是曆史上和技術中的欠代表群體,世界各地技術資源較少的人。這項技術似乎可以很大地提高這些人的生活水準。雖然我的問題具體涉及語言包容性,但很高興達成更廣泛的多樣性和包容性承諾的共識。

我會再給出幾個原因來說明為什麼這一點如此重要。最大的參與者在這個領域可以負擔大量的資料、計算能力以及開發複雜人工智能系統所需的财務資源。但在這個領域,從工作力量的角度來看,我們沒有看到與美國人口統計相稱的種族和性别多樣性。如果我們沒有深思熟慮,我們會面臨繼續加深社會中已有的偏見和不平等的風險。在這方面還有很多工作要做。

Ossoff:

一如既往,明智和英俊。感謝小組成員加入我們。感謝小組委員會上司開放給所有委員會成員。如果我們要考慮監管架構,我們必須定義要監管的内容。是以,Altman先生,任何此類法律都必須包含一節來定義監管活動、技術、工具和産品的範圍。能就此發表看法嗎?

Sam:

是的,謝謝詢問參議員。我認為這點非常重要。我認為這裡有非常不同的層次,我認為任何新的方法或新法律都不應阻止發生在較小公司、開源模型和從事較小規模工作的研究人員的創新。

嗯,這是美國科技生态系統的美妙部分,我們不希望減緩其發展。在那裡可能仍然需要一些規則,但我認為我們可以在需要進行非常嚴格許可的系統上劃定一條線。

最簡單的方法是,我不确定是否是最佳方法,但最簡單的方法是根據所需計算量來劃定。是以,我們可以定義一個計算量的門檻值,它可能需要不斷改變,可能會随着我們發現更高效的算法而增加或減少。這個門檻值可以定義為超過某個計算量的系統位于許可制度的範疇内。我更喜歡的方法(雖然難以實作,但更準确)是定義一些能力的門檻,并表示能夠執行X、Y和Z等操作的模型現在處于許可制度之下,但能力較弱的模型則可以根據不同架構繼續使用。我們不希望阻止我們的開源社群、個人研究人員和新創企業的發展。

Ossoff:

請盡可能簡潔地陳述您建議我們在這個定義目的上考慮哪些能力。

Sam:

我希望通過進一步與您的辦公室溝通來提出一個更加深入的觀點,

Ossoff:

這樣比較穩妥。

Sam:

哦,或許提出一些建議。

Ossoff:

了解您隻是回應問題,而不是制定法律。

Sam:

在此精神的基礎上,我認為能夠說服、操縱和影響人們的行為或信念的模型将是一個很好的門檻。我認為能夠幫助建立新型生物制劑的模型也将是一個很好的門檻,諸如此類。

Ossoff:

接下來,我想談談技術的預測能力,我們将不得不考慮與此相關的許多非常複雜的憲法問題。在擁有龐大資料集的情況下,這種技術能以多大的準确性預測未來的人類行為,尤其是在個人層面上,是正确的。

Sam:

我認為我們無法确定這個問題的确切答案。

Ossoff:

但我們可以假設它至少會在某種程度上對個人産生一定的影響。那麼,我們可能會遇到這樣的情況,例如執法機構部署這種技術,尋求法官的同意來執行。警察可能會提出一份令狀給法官,以擷取授權。請告訴我您對這個問題的思考方式。

Sam:

是的,我認為非常重要的一點是我們繼續認識到這些都是人類使用的工具,用于做出人類判斷,我們不要剝奪人類判斷的權力。例如,我不認為人們應該基于AI系統的輸出進行起訴。

Ossoff:

我們目前還沒有全國性的隐私法,而歐洲已經出台了一項法律,效果不一。您認為我們需要這樣的法律嗎?

Sam:

我認為這将是很好的。

Ossoff:

那麼,您認為這樣的法律應具備什麼樣的特點或目的,您認為最有意義?

Sam:

基于我的經驗,再次強調這超出了我的專業領域,我認為有很多很多的隐私專家可以就法律的需求發表意見。

我仍然希望(至少)使用者能夠選擇退出,不讓類似我們公司或社交媒體公司這樣的公司使用他們的資料,而且删除自己的資料應該很容易,這些都是我認為最重要的。從我作為AI公司負責人的角度來看,如果您不希望您的資料用于訓練這些系統,您有權這樣做。

Ossoff:

是以,讓我們思考如何實際實作這一點。

我了解您的工具和類似的工具的輸入之一将是從公共網絡上“抓取”資料,這是一種低成本的收集資訊的方式,而且我們的資訊已經存在于公共網絡上。那麼,對通路、使用或分析此類資料的限制如何在實際中實施?

Sam:

我在談論一些略有不同的東西,即使用者自己生成的資料,他們提出的問題,他們輸入的内容等等。我們以此進行訓練,即使我們不訓練于此,模型仍然可以連結到公共網絡上的資料。是以我提到的并不是我所指的内容。我認為您知道有很多方式可以從公共網絡上删除您的資料,但當然,具備網絡浏覽功能的模型将能夠搜尋網絡并連結到其中。

Ossoff:

當您考慮實施安全或監管制度來限制此類軟體并減少風險時,您認為聯邦政府會制定法律,以禁止某些功能本身在潛在情況下執行代碼?還是僅在實際執行時,執行某些功能呢?

Sam:

我認為兩者都有。我相信以防禦為主。我認為對部署模型的能力應該有限制,然後在實際執行時再對其進行限制。

Ossoff:

關于孩子們如何使用您的産品,您是如何考慮的呢?

Sam:

必須是青少年或者獲得父母許可的13歲及以上使用者才能使用産品。

但我們知道人們總是會繞過這些保護措施,是以我們盡量設計一個安全的産品。如果隻有成年人使用,我們可以允許某些決策,但我們不會在産品中允許這些,因為我們知道孩子們會使用。對于教育領域這類廣泛應用的系統,我們希望能意識到這一點。

Ossoff:

我認為Blumenthal參議員(主席)對這個問題進行了廣泛調查,我們多次看到,這個領域的公司的收入依賴于使用量和螢幕時間的強度,它們為了最大程度地提高使用者的參與度,包括孩子們的參與度,而設計這些系統,結果卻産生了許多不良後果。

我謙虛地建議您盡早解決您産品對兒童的安全性問題。

否則,我認為Blumenthal參議員、Hawley參議員和其他小組委員會的成員可能會對侵害兒童的技術部署持非常嚴厲的态度。

Sam:

我們完全同意,我認為兒童的安全性非常重要。不過,時間有限,如果我可以回應一下的話,主席同意的話。

(請講。)

首先,我認為我們試圖設計的系統并不是為了最大化參與度。事實上,我們非常缺乏GPU,使用者使用我們的産品越少越好。我們不是以廣告為基礎的模型,我們不是試圖讓使用者越來越多地使用。我認為這與廣告支援的社交媒體的模型不同。

其次,這些系統确實具備影響的能力,無論是明顯的還是微妙的。我認為這對于兒童的安全性尤為重要,但它也會影響到我們所有人。我們将采取一些措施來確定這一點,不論是否有監管,但我認為監管方法将對此有所幫助,包括對這些系統的價值觀進行限制,并要求這些系統對可能産生影響的問題進行回應。是以我們很願意與您合作,對此的重要性我們非常認可。

Ossoff:

謝謝您。主席先生。

Booker:

我想說明的是,喬治亞州的參議員也非常英俊和聰明。

感謝兩位,這是本次聽證會中最好的一次,這真是你們兩位的能力和機遇的展示,是以非常感謝你們。我想首先從宏觀的角度開始,然後再逐漸具體化。

Sam,你說得很對,科技一直在快速發展,很多人都在談論監管的問題,我拿汽車作為例子。汽車是一項非常了不起的技術,當時紐約市不知道如何處理馬車,出現了危機,然後汽車出現解決了這個問題。

但與此同時,我們每天都有成千上萬的人在公路上喪生,我們還面臨着排放危機等問題,是以成立了多個聯邦機構專門負責汽車監管。是以,如果國會什麼都不做,這顯然是不可接受的。

我非常感謝Walden先生和你進行了一些交流,你們提出了一項旨在監管這一領域的法案,而社交媒體方面我們沒有這樣做,我認為這是非常破壞性的,也允許了許多會造成傷害的事情發生。是以問題是,你們都提到了很多我的同僚們所關心的監管問題,

我想問問你們,你們認為監管應該是什麼樣的形式,你們提到了高風險使用方式的定義,我們并不完全了解所有這些,我們無法預見未來的發展。

你們呼籲不設立一個機構,因為你們不想減慢事情的發展,而是希望在現有的基礎上繼續發展,但你們可以想象我們最終可以通過兩種方式來實作,就像我們在汽車領域有環保署、國家高速公路交通安全管理局等多個聯邦機構來進行監管一樣。

你可以想象某種具體的東西,正如馬庫斯先生指出的那樣,一個靈活的機構可以進行監測和其他事情,你可以想象需要這種機構。當然毫無疑問。

剩下的時間裡,我隻是向你提出一個很快的問題。首先,你(的公司)有點獨角獸, 你能解釋為什麼是非營利組織嗎?換句話說,你不是在尋找必需品,你甚至限制了風險投資。

隻是讓大家很快了解(這個事情)。

Sam:

我們最初是非營利組織。真正緻力于這項技術如何建設。當時,像人工智能這樣的東西還遠在公衆了解的範圍之外,現在這已經發生了很大變化。

我們當時并不知道規模有多重要,但我們确實知道我們想要建設這項技術,以人類的最大利益為出發點。我們相信這項技術如果發展的方式我們想要的話,如果我們能做馬庫斯教授提到的一些事情,可以真正深刻地改變世界,我們想成為實作積極改變的最大力量。

Booker:

我打斷你,我認為這些都很好,我希望更多的記錄可以公開。我的問題的第二部分也是如此。我發現這非常迷人。

但是你是否會為投資者的回報尋求收入模式,或者你是否會做廣告或類似的東西?

Sam:

我不會說永遠不會。我不這樣認為,我認為可能會有人想要我們提供服務,而且沒有其他收入模式可以行得通。但我真的喜歡訂閱制的模式,我們讓API開發者付費,我們有人工智能 chatbot......

Booker:

我可以跳躍一下嗎?

Sam:

當然

Booker:

很快。我對這個領域最大的擔憂之一是,我已經看到的web 2到web 3的大規模企業集中現象。看到現在僅有的幾家公司控制和影響着我們很多人的生活,真的令人恐懼。

這些公司越來越大和強大。我看到OpenAI背後是微軟, Anthropic背後是谷歌,谷歌還有自己的内部産品,你知道的,Bard。

是以我真的很擔心這個問題,我想知道如果Sam你可以給我一個快速的确認,你是否擔心這個領域的企業集中度以及它可能産生的影響和相關風險,可能與人工智能和市場集中度相關的風險,你也可以回答這個問題。

Sam:

我認為會有許多人開發模型,開源社群所發生的事情令人驚訝,但隻會有少數提供商能夠制造真正威脅的模型。

嗯,我認為這是有利和危險并存的,就像我們正在讨論AI的所有危險一樣,我們真正需要密切關注的人數是絕對要保持謹慎的,以便掌握絕對的能力的最前沿。

這方面有一些好處,但同時也需要足夠的監管。

我想補充一點,我認為非常重要的一點是,這些系統對齊到什麼樣的價值觀、界限由整個社會,由政府來設定,是以建立這個資料集,對齊這個資料集可能是一個AI憲法,無論是什麼形式,這必須來自社會的廣泛參與。

Booker:

非常感謝,主席先生,我的時間用完了。

Welch:

這是一次非常重要的聽證會,參議員都以注意力不集中而聞名,但我參加了整個聽證會,并且每一分鐘都非常享受。您在美國擁有較長的注意力時間,這是您的巨大功勞。證人和這個議題的興趣都是如此之大。

有一些問題我們還沒有讨論到,但是有一個結論,也是我認為最重要的問題,國會将不得不回答這個問題。

首先,你們在這裡是因為AI是一種非常了不起的新技術,每個人都說它可以發揮變革的作用,就像印刷術一樣。其次,我們真的不知道将會發生什麼,但你們都表達了擔心,如果沒有規則的話,壞人會做什麼和将會做什麼。第三,作為在衆議院任職的成員,現在在參議院,我得出結論,國會無法跟上技術的速度。社交媒體和AI方面都表達了一些關注,這涉及到基本的隐私權、偏見問題、知識産權、資訊的傳播等問題,對我來說,這是最大的威脅,因為這關系到我們的自治能力的核心。

還有經濟變革,可能是深遠的,還有安全方面的擔憂。我認為我們絕對需要一個機構,機構的參與範圍需要我們來确定;但我認為,除非我們有一個能夠應對社交媒體和AI等問題的機構,否則我們就沒有太多的防禦措施來對抗不好的東西,而壞的東西将會出現。

去年,我在衆議院和貝内特參議員發起了數字委員會法案,今年我們将重新提出這個法案。

我想問的兩個問題中的一個,你們中的三個人(指出席聽證會的三個AI方面的代表)中有兩個人說你們認為我們确實需要一個獨立的委員會,你們中的三個人中有兩個人說你們認為我們确實需要一個獨立的機構,你們認為一個機構可能存在的一些危險是什麼,我們需要謹慎對待,以確定隐私、偏見、知識産權、虛假資訊等方面的目标能夠得到實作?

Sam:

第一,我認為美國必須繼續上司,這在美國發生了,我為此感到非常自豪。

Welch:

對的,這就是為什麼我更有信心,如果我們有一個機構參與國際讨論,最終我們希望有适合我們的規則,這可能是一個更有效的方法。

Sam:

我個人認為兩者都可以兼顧,我認為在這個問題上有一個全球視角非常重要。因為這種技術将影響到美國和我們所有的人,無論它在哪裡開發。但我認為我們希望美國上司,我們希望我們能夠,我認為你們對此也提到了,就是你們不希望減慢美國産業的速度,以至于中國或其他國家取得更快的進展。

另一個風險是,我認為應該對我們施加監管壓力,對谷歌等公司施加監管壓力,對其他少數幾家公司施加監管壓力,我們不希望阻礙小型初創企業,我們不希望阻礙開源社群,我們仍然需要他們遵守一些規定,他們仍然可以使用較小的模型造成巨大的傷害。但在這個領域留出空間,為新的想法和新的公司,以及獨立的研究人員去做他們的工作,而不是給像我們這樣的公司帶來監管負擔。我們可以,但一個較小的公司卻無法承擔(這種負擔)。我認為這是另一個風險,這顯然是監管發展的一個方向。

主席(Blumenthal):

還有一些問題我們還沒有完全讨論到,其中之一是壟斷化的危險,市場的主導地位排除了新的競争,并抑制或阻止創新和發明,我們在社交媒體和一些舊行業中都看到了這種情況,航空公司、汽車等,整合限制了競争,是以,我認為我們需要關注反壟斷的一個老領域,已經有一個多世紀的曆史,但現在仍然無法應對我們目前的挑戰,當然,我們需要意識到規則可能會讓大公司變得更大,排除創新和競争,像你們現在所代表的這個行業那樣,我們還沒有涉及到國家安全的問題,這對國家安全有巨大的影響,我作為國防委員會的成員,在這個問題上受到過多次的機密簡報,我們的對手對這個國家構成的威脅很現實也很緊迫,我們今天不會讨論這些問題,但我們确實需要處理這些問題,而且我希望我們在這個委員會上能夠處理這些問題,

關于新機構的問題,你知道我已經做了一段時間的這項工作,我在康涅狄格州擔任20年的總檢察長,我是一名聯邦檢察官,我大部分職業生涯都是執法工作,我會告訴你一件事,你可以創造出10個新機構,但如果你不給他們資源,我不隻是說金錢,我說的是科學專家,你們這些人會把他們圍繞在指尖,不僅僅是模型或生成式AI可以圍繞着他們打轉,而是你們公司裡的科學家。

對于每一個成功案例,你可以想到五個失敗案例,這對于FDA來說是對的,對于國際能源機構來說是對的,對于證券交易委員會來說是對的,對于整個字母表中的政府機構來說都是對的,我希望我們在這裡的經驗會不同,但是潘多拉的盒子需要的不僅僅是言辭或概念,我們需要進行一些真正困難的決策,就像蒙哥馬利(IBM代表)女士所暗示的那樣,我們要制定适應風險的規則,首先要避免傷害,使其有效,使其可執行,使其真實,我認為我們需要應對這裡的一些艱難問題,這個初步的聽證會提出了非常成功的問題,但沒有回答,我要感謝參與并提出這些非常有創意的建議的同僚們,我對執法非常感興趣。

15年前,我認為廢除第230條是非常不切實際的,但現在,人們正在談論廢除第230條,那時候它被認為是完全不現實的,但執法确實非常重要,我想問一下Altman先生,因為隐私問題,您提到您對保護可能提供給您或可用的資料的隐私很感興趣,您采取了哪些具體措施來保護隐私?

Sam:

首先,我們不會對我們的API送出的任何資料進行訓練,是以如果你是我們的商業客戶,并送出資料,我們不會對它進行訓練,我們确實會保留它30天,僅用于信任和安全執法的目的,但這與訓練不同。如果你使用ChatGPT,你可以選擇不讓我們訓練你的資料,你也可以删除你的對話曆史記錄或整個賬戶。

主席:

在我的開幕緻辭裡提到了三個我目前關切的原則,透明性,可追責性和對使用的限制。你們認為這是否是個好的起點?

Sam:

我非常贊同這些是重要的觀點,我要補充一點,Marcus教授也提到了這一點,當我們在讨論目前的風險時,我們大部分時間都花在了這個問題上。我認為這是适當的,我非常高興我們已經這樣做了。

随着系統變得越來越有能力,我不确定離那還有多遠,但也許不是很遠,我認為我們也需要花時間讨論我們将如何應對這些挑戰。

主席:

了解您私下裡的一些對此的關心,我知道我有多麼關心,我同意,您深入而強烈的關切風險增加的可能性,即使是在目前的形式下,威脅也可能比許多人意識到的更近。

Hawley:

生成的AI的潛在副作用或危害,讓我們簡單地總結一下,失去工作,這在預料之中,我認為IBM宣布由于AI可能裁員7800人,這相當于你們非面向消費者的員工的三分之一,失去了工作;侵犯個人隐私的規模前所未見;操縱個人行為;操縱個人觀點;可能導緻美國自由選舉的退化,我有所遺漏嗎?

我的意思是,這是一個相當長的清單。

我注意到大約有1000名科技和人工智能領域的權威人士,從安德魯·楊(Andrew Yang)到埃隆·馬斯克(Elon Musk),最近呼籲暫停進一步的人工智能發展,或者他們寫信表示支援這樣做。

您是否贊同暫停6個月或更長時間的進一步發展?

(另一位參會的教授)您的描述不完全正确,我實際上簽署了那封信。

Altman先生,您同意這個建議嗎?您是否會暫停進一步的發展6個月或更長時間?

Sam:

首先,我們在完成GPT-4的訓練後等了6個多月才部署它。我們目前并沒有訓練将要用于GPT-5的計劃,未來6個月内也沒有計劃。

但我認為信中的架構是錯誤的。重要的是審計、紅隊測試和安全标準,模型在訓練之前必須通過這些标準。如果我們暫停6個月,那麼我不确定接下來我們會做什麼。我們是否再暫停6個月,是否制定一些規則。

我們已經制定并在GPT-4部署中使用的标準,我們希望在此基礎上進行改進,但我們認為這是正确的方向,而不是根據月曆來暫停。可能會有時候,我相信會有時候,我們會遇到我們不了解的情況,我們确實需要暫停,但我們還沒有看到那種情況。先不談所有的好處。

Hawley:

您還沒有看到什麼呢?您對目前現有技術的潛在影響是否感到滿意?

Sam:

對不起,我們還沒有看到任何阻止我們訓練下一個模型的理由。我們擔心的部署,在哪裡會有很多危險的操作以及限制,我們需要在某些時候後退一步。

Hawley:

好的,關于可行性的問題讓我想到了另一個方面。我對這個機構的讨論很感興趣,也許這種方式行得通,盡管我看到政府中的機構是如何運作的,它們通常被它們所監管的利益所控制,它們通常受到應該監管的人的控制,這在過去的100年裡一直是我們的曆史,也許這個機構會有所不同。

我有一個稍微不同的想法,為什麼我們不讓人們起訴您呢?為什麼我們不讓您在法庭上承擔責任呢?

我們可以做到這一點,我們知道如何做到這一點,我們可以通過立法來建立一項聯邦訴訟權,允許個人将受到這種技術傷害的人進入法庭,并提供證據,可以是任何人,我是說你想說衆包,我們隻需打開法院大門,我們将定義廣泛的訴訟權,私人訴訟權,私人公民可以采取集體訴訟的形式,我們隻需打開大門,允許人們進入法院,允許他們提出證據,他們說自己受到了醫療錯誤資訊的傷害,他們被提供了選舉錯誤資訊,等等,為什麼不這樣做,Altman先生?

Sam:

對不起,請原諒我的無知,人們難道不能起訴我們嗎?

Hawley:

你沒有被第230條保護。但目前還沒有我認為沒有聯邦訴訟權,私人訴訟權說,如果你受到生成式AI技術的傷害,我們将保證你有能力進入法庭。

Sam:

哦,我認為像許多其他法律一樣,如果你知道技術會傷害你,那麼就有标準,我們可以被起訴。

除非我真的誤解了事物的運作方式,如果問題是,更清晰的法律關于這項技術的具體内容和消費者保護是否是一件好事,我會說絕對是的。

Booker:

不會有暫停,沒有執行機構可以強制暫停。這簡直不可能發生。呼籲它很好,無論是出于任何理由,請原諒我的疑問,沒有人會暫停。這件事很簡單。

Altman先生,我有一個問題,你沒有擔心嗎?你畢業于斯坦福大學。我知道矽谷中的許多玩家,從風險投資者到許多公司的創始人,我們都知道。你對少數玩家是否有些擔憂嗎?擁有超凡的資源和影響華盛頓的權力。

我的意思是,我喜歡,我相信自由市場,但原因是我走進便利店,玉米片比蘋果便宜,快餐比沙拉桶便宜,是因為政府傾斜天平選擇赢家和輸家。

是以,當有大企業有影響力時,自由市場并不是它應有的樣子,可以影響這裡的遊戲。在這場技術創新時代,你對此是否有些擔憂?

Sam:

是的,這也是我們創立OpenAI的很大原因。我們對此非常擔憂。我認為重要的是民主化這些系統的輸入,我們要配置設定的價值觀。我也認為重要的是給予人們廣泛使用這些工具的機會。當我們啟動API戰略時,這在很大程度上是我們讓任何人使用我們系統的方式。人們對此存在很大懷疑,這确實帶來挑戰,可以肯定。

但我們認為把這件事放在很多人手中,而不是幾家公司手中,這真的非常重要。我們看到由此産生的創新繁榮。但确實,能訓練真正前沿模型的公司數目将是少數。隻是因為所需資源非常大。是以,我認為我們及競争對手需要受到巨大監督。

我認為有一系列興奮創新的研究和新創業公司,不僅使用我們的模型,還創造自己的模型。我認為重要的是確定任何監管措施發生,任何新機構是否成立,我們要保留那些火苗,因為那是關鍵的。

Booker:

我堅信技術的民主化潛力,但我看到那個承諾一次又一次失敗。人們說,哦,這會産生很大的民主化力量。我的團隊緻力于通過算法加強偏見而導緻在某些郵編(地區中)沒有提供機會的問題。

我在web 3中聽到這些會分布式,(資源和權力)分布式這些事情會發生。

但這一次,似乎甚至不提供那個承諾,因為設計這些技術的人需要如此巨大的權力、能源和資源。你認為,這項技術的民主化夢想和更多機會在少數已經控制了這麼多的幾家公司之中是可能的嗎?

Sam:

關于使用模型和建立在其基礎上的要點,這真的是一種新的平台。談論誰會建立模型顯然很重要。我也想這麼做。我也認為決定我們要對齊這些模型的價值觀真的很重要。

但在使用模型方面,建構OpenAI API的人做了不可思議的事情。人們經常評論說,我簡直不敢相信你用這麼少的錢得到這麼多技術。

是以,人們正在建構的公司,無處不在使用我們的API,這确實使我們能夠采取安全措施,我認為這相當興奮。這就是它現在已經被民主化的方式,而不是它将如何被民主化。

現在,有全新的産業革命,許多不同公司在這些模型之上産生新業務、新産品和新服務。

Booker:

主席,在結束時,我還有幾句話。

大多數行業甚至無法合理監管,從安全帶法律到我們最近一直在談論的鐵路安全,唯一的方式是我們能夠看到價值觀的民主化。我認為雖然有高尚的公司,但是我們是不是應該制定道路規則,以實施某些安全措施,就像我們在其他技術中所看到的那樣,謝謝。

主席:

Booker和我非常認同的是,在消費者保護方面,我一直在做這件事,行業的參與是非常重要的,不僅僅是在言辭上,而是在實際行動上。因為我們有許多行業來到我們面前,說哦,我們都支援規則,但不是那些規則,那些規則我們不喜歡。實際上是每個規則他們都不喜歡。

我感覺這裡的意願是真誠和真實的。

我考慮過要求ChatGPT做新版本時不要停止思考未來,因為這是我們需要做的。

參議員霍利指出,國會的進展并不總是緊跟技術的步伐,這可能是我們需要新的機構的原因,但我們也需要認識到世界其他地方也在發展。

你在關注我們和闡明這些問題方面提供了巨大幫助這些問題,今天在這裡表現出色。

是以謝謝聽證會的每位證人。我會在一周内保持記錄開放,以防任何人想送出任何東西。我鼓勵你們任何人,無論是要出版的手稿還是公司的公開報告,都請向我們送出。我們期待下次聽證會。這個聽證會宣布結束。

繼續閱讀