天天看點

劉學強|ChatGPT賦能數字法治政府建設中的風險及法律規制

作者:上海市法學會
劉學強|ChatGPT賦能數字法治政府建設中的風險及法律規制
劉學強|ChatGPT賦能數字法治政府建設中的風險及法律規制
劉學強|ChatGPT賦能數字法治政府建設中的風險及法律規制

随着生成式人工智能的興起與發展,将ChatGPT嵌入數字法治政府,促進依法行政,實作政府治理的法治化和資訊化具有了諸多可能。ChatGPT能夠以其先進的技術、理念與模式不斷賦能數字法治政府建設,提高政府決策的科學性、推動政府治理降本增效、創新政府治理模式,但與此同時也産生了諸如國家主權安全風險、行政權力失信風險、資料合法合規風險等現實問題,雖然新生的技術應用能夠解決政府數字化建設中的諸多“近憂”,但亦必須對新技術相伴而生的各種風險給予足夠的“遠慮”,是以,從部門立法到中央立法逐漸建構起以風險防控和法律規制為導向的生成式人工智能應用機制,實作生成式人工智能的可知、可控、可用、可靠,是ChatGPT嵌入數字法治政府建設的當務之急。

劉學強|ChatGPT賦能數字法治政府建設中的風險及法律規制

引言

近年來,大陸數字法治政府建設取得了令人矚目的成就,一系列數字基礎設施和政務網絡平台不斷湧現、資料共享和開發利用取得積極進展,一體化政務服務與監管效能大幅提升。作為一種以數字化資訊技術為基礎的全新的政府治理模式,如何緊跟網絡技術潮流,利用新技術不斷賦能政務服務智能化水準,如何提高行政履職科技化含量,是新時代建構服務型政府,實作國家治理體系和治理能力現代化的重要内容。同時,網際網路新技術和數字法治政府建設相伴相生、相輔相成,政府部門具有服務使用者多、覆寫領域廣、場景多元、資料海量、穩定性強等特征,是建構和試驗人工智能通用大模型的理想場域,更高效的公共行政模式探索和更高品質的公共服務需求也推動着政府部門擁抱新興技術,毫無疑問,政府與技術的結合是時代的需要,也是曆史的必然。

以ChatGPT為代表的生成式人工智能的橫空出世,憑借其強大的資料處理能力、深入的人機互動能力、深刻的語言了解能力,給數字法治政府的建設帶來了全新的契機和無限的可能,但新技術衍生到行政領域,在塑造新的政務服務模式的同時也必然帶來了新的問題,尤其是ChatGPT在數字法治政府建設中,既有獨特的自身優勢,又兼具公共服務的基本屬性,是以微小的問題也會造成政府公共産品、公共服務和公信力的缺失,造成社會的混亂和個人權利的侵害。是以,正确審視以ChatGPT為代表的生成式人工智能在數字法治政府建設應用中可能誘發的各種風險,研究風險的生成機理并探究其應對之策,是推動大陸數字治理由被動走向主動的重要舉措,也是開辟數字法治政府建設新領域的題中應有之義。

一、ChatGPT與數字法治政府的邏輯聯系

(一)ChatGPT與數字政府

首先,ChatGPT與數字政府技術基礎相似。ChatGPT是一種以海量資料持續學習為基礎,以算力算法深度挖掘為支撐,以神經網絡廣泛搭建為架構的具有強大語言了解和文本生成功能的新型人工智能,ChatGPT既繼承了原始網際網路的數字基因,又實作了新興技術領域的更新疊代,是網際網路數字技術的再突破、再發展;而數字政府則是以資訊網絡技術為基礎、以政務資料為核心、以政務公共服務為重點的旨在利用數字技術創造公共價值,提升各個領域履職能力的新型政府管理形态,它是政府治理的再優化、再更新。兩者都根植于網際網路擁有相同的技術基因,都對資訊資料需求量大,對算力算法要求高、兩者的語言文字了解力和文本生成能力強,都是web3.0時代技術飛速發展的科技産物。

其次,ChatGPT與數字政府技術目的相同。ChatGPT将“手工作坊”式的資訊資料處理模式發展為“機器大生産”式的流水線,真正實作了網際網路生産力的大發展,而生産力的大發展也必然帶來生産關系的變革,進而直接推動經濟社會的發展。而數字政府建設同樣是堅持運用大資料、人工智能等技術手段促進依法行政,實作政府治理資訊化和法治化深度融合,優化革新政府治理流程和方式,最終借助數字技術通過政府的“良治”“善治”推動經濟社會的發展。在推動社會發展這一問題上,ChatGPT與數字政府雖然路徑不同,但是有着相同的價值理念和共通的社會目的。

(二)ChatGPT與法治政府

首先,用ChatGPT推動法治政府建設。法治政府建設的一個重點和難點就是如何避免現代政府組織模式帶來的治理掣肘和違法行政,而ChatGPT能夠根據公衆指令完成一系列的行政行為,最大限度地避免人的不正當幹預和非理性決策,進而在公共事務中消除一切情緒化、人格化、不正當目的、非合理考慮的不良影響,實作了對政府運作全流程的“遠端監督”,對建構全過程的人民民主和全方位的法治政府提供了強有力的技術工具。

其次,法治政府保障ChatGPT的有序發展。以往出現的諸多新技術和新理念由于被濫用而最終發展的不盡人意。比如利用區塊鍊技術進行非法集資、傳銷甚至詐騙等違法犯罪活動;利用元宇宙概念進行虛假宣傳、大肆炒作,進而引發了許多倫理道德風險、資訊洩露事件以及個人資産流失事故等;又比如,巨頭企業為了攫取不正當利益而利用大資料算法技術和行業支配能力進行“殺熟”,肆無忌憚地侵犯消費者的合法權益。法治政府一個重要的使命就是為新技術的發展保駕護航,毫不動搖地打擊技術濫用者和不法服務提供者。同時在進行技術監管時也要把握好一個“度”,既要防止“不管就亂”,也要避免“一管就死”的現象發生,真正做到對新興技術的“嚴管厚愛。”

二、ChatGPT賦能數字法治政府的實作路徑

(一)技術賦能,助力數字政府科學決策

傳統型政府在進行決策時首先要廣泛收集資訊資料、資料圖表,進行調查走訪、咨詢聽證,其次對所收集的資訊進行加工處理、分類整合,然後運用特定的方法和系統對資訊進行分析研判,最終得出結論進行決策。在這個過程中,資訊的收集不能完全保證充分詳實,資訊的加工處理也無法做到面面俱到,尤其是資訊的分析主觀性較強,加之此項工作需要大量的人力、物力、财力的支援,使得政府面對複雜多樣的社會情況進行決策時難免存在諸多的不确定性和不合理性。而ChatGPT的應用能夠很好地解決這個問題,因為ChatGPT海量文本資料的深度學習使得它在資訊收集上擁有得天獨厚的優勢;它強大的算力算法使其對資訊的加工處理更得心應手;它無主觀意識和個體情感的特點使其在分析資料時能最大限度地避免非理性因素的幹擾,為政府決策提供全面客觀、真實有效的資訊,助力數字政府科學決策。

(二)理念賦能,推動數字政府降本增效

降低資訊處理成本,增強數處理效率是ChatGPT的核心技術理念,傳統政府治理過程中,普遍存在着治理成本高、效率低、群衆滿意度差等特點,而ChatGPT的應用或許能夠給目前的現狀帶來改變。第一,對于公衆而言,ChatGPT的人機互動和語言了解能力可以很好地實作人與機器的友好對話,引導群衆完成諸如行政許可、行政登記、行政審批等一系列公共服務活動,既可以簡化公衆辦事流程,又可以提高公衆滿意度。第二,對公務人員來說,ChatGPT的文字寫作功能可以讓公職人員從繁瑣的文稿工作中解放出來,節省時間精力,提高品質效率。比如日本神奈川縣政府就率先在行政工作中使用ChatGPT進行會議記錄、公文撰寫、政策制定。新加坡政府正在研發一套類似ChatGPT的系統,以協助公職人員完成除涉密敏感資訊以外的諸如總結參考資料、搜尋相關觀點、提升寫作能力等工作。第三、從政府本身而言,ChatGPT能夠改變科層制政府組織模式的固有局限性,憑借其強大的資源整合能力精簡行政程式、優化治理流程、改善治了解構、打破組織壁壘,實作跨部門、跨層級的協同治理,進而實作治理成本的降低和行政效率的提高。

(三)模式賦能,創新數字政府治理模式

ChatGPT的運作模式表現為:運作前的預先訓練和深度學習—運作中的深刻了解和人機互動—運作後的問題回應和文本生成。該模式具備自動感覺、自動識别、自動回應的功能特點,尤其是在以大樣本資料收集與分析來建設數字化政府中,這種自動化、智能化的運作模式将會有效歸納施政經驗、研判公衆需求頻段、預測行為後果效力和法律效果格次,確定ChatGPT協助作出的行政行為裁量基準在輸送上的客觀性和參照結果上的預見性,進而打造一個以使用者為中心、以問題為牽引、以資料為基礎、以行動為導向的數字政府基本模式。與此同時,ChatGPT能夠促使數字政府超越憲政主義和管理主義的政務供給範式,建構一種以智能技術為支撐,自動協作整合、自主業務內建,虛實共生、人機互動的新型治理模式,在進行政務服務革命的同時,消解政務服務中的指令性話語和官僚主義作風,實作從ChatGPT到GovGPT的治理跨越。

三、ChatGPT賦能數字法治政府的風險歸納

(一)國家資料主權安全風險

在大資料時代,資料作為政府從事智能化管理的重要戰略資源,不僅關乎數字政府的運作狀态、發展潛力,同時還涉及國家資料主權安全問題。ChatGPT賦能數字法治政府建設中必須要堅定不移地貫徹總體國家安全觀,始終繃緊資料安全這根弦,加快建構數字政府全方位保障體系,防範資料霸權主義滋生,化解政務資料侵害風險。

資料霸權主義滋生。ChatGPT是由美國OpenAI技術公司研發的,技術架構來自域外,語料庫以英語為主。雖然大陸的相關技術公司也相繼推出了一系列類ChatGPT産品,但是在技術理念、運作模式、實用性、可靠性等方面與ChatGPT還存在着較大的差距,技術差距會加劇廣大技術弱勢國家對少數技術強勢國家的依賴,個别國家還會利用技術優勢的支配和掌控權進行技術剝削與壓迫,進而造成技術壟斷,形成技術霸權。政務資料侵害風險。政務資料既是社會大衆個人資料的總和還包括政治安全資料、經濟發展資訊、軍事武裝情報、文化建設情況、社會運作資料等方面,可謂是包羅萬象且隐私敏感。面對如此大規模且敏感的資訊,ChatGPT可以“大展拳腳”的同時也帶來了許多技術風險和隐患,比如資料污染、資料洩露、資料竊取、資料攻擊、惡意篡改和過度采集。具體而言,首先,資料侵害變得更為頻繁、隐蔽、容易。ChatGPT在使用過程中不僅可以對語料庫中的資訊進行學習訓練,對于使用者輸入的資訊ChatGPT同樣可以進行吸收消化,并納入到自己的語料庫中,如果其他使用者采用誘導式發問,ChatGPT很有可能将敏感資料和盤托出,甚至背景技術從業人員可以繞過安全程式從語庫中直接提取相關政務資料資訊。其次,資料侵害的主體更加多元化。以往的資料竊取多以個人、黑客、不法團體為主,而ChatGPT應用于數字法治政府建設中,外國情報部門有了一個全新的、更加便捷的竊取他國資料的工具,資料安全面臨以國家為支撐黑客的巨大挑戰。最後,法律規制落後導緻資料保護薄弱。ChatGPT應用于數字法治政府建設不同于個人資訊的保護,目的限制和知情同意原則的适用有了較大變化,必須考慮到公共部門的獨特之處加以法律規制,否則政府資料将時刻處于“裸奔”狀态。

(二)行政權力失信風險

政府公信力是政府權威和治理能力的展現,它存在的制度基礎是群眾對政府地位合法性的認同,對政府權力行使的認可,對政府所代表利益的認定。樹立公信很難,但是毀壞卻異常簡單,是以ChatGPT在數字法治政府的應用中,稍有不慎就會引發行政權力的失信,具體而言包括兩個方面:

技術不完備導緻政府失信。雖然ChatGPT發展速度很快,但是仍然有很多的技術瓶頸和漏洞,尤其是在行政公共服務這種比較專業的領域,群衆利用數字技術解決問題時可能會發生ChatGPT答非所問、文不對題的尴尬局面。政務服務中的ChatGPT根據公衆指令做出的行政行為由于有智能加持和行政公權力的背書會深得公衆信任,一旦所作出的行政行為不符合相關規定被撤銷或者認定為無效,都會浪費群衆時間、消耗群衆精力,損害群衆權益,引發信賴利益的損害,如果再爆出天價的技術購買費用和糟糕的使用體驗,無疑會讓公衆質疑采購的合法合規性,技術可靠性問題進而演變為有無貪腐問題。同時資訊時代的數字鴻溝讓不會使用網絡的中老年人在面對智能化數字系統時束手無策、寸步難行,上述的這些問題如果沒有被及時介入和高效處理最終都會轉化為群衆情緒對立問題。

行政倫理崩塌導緻政府失信。首先,當資本控制下的人工智能逐漸具有“自我”特征,人類自我、機器自我和公權力自我間就會出現認知紊亂、身份焦慮、角色錯位和行政倫理的崩塌,加之技術、市場、資本的逐利本質,ChatGPT背後的技術資本很可能擁有比公權力機關更強大的影響力、控制力和支配力,政府大權旁落,公共利益被抛諸腦後,公衆被迫浸淫在資本控制下的人工智能所營造的“資訊繭房”裡,将“政府—相對人”的行政法律關系和平演變為“ChatGPT—公民”的支配性法律關系。其次,如果ChatGPT在政務服務中出現了帶有種族歧視、侮辱攻擊、色情暴力、違法違規的資訊将會讓政府蒙羞。同時,價值衡量和利益取舍是複雜且敏感的,預設的程式無法完全做到對弱者的保護救濟而極容易發生維權事件,這些政務醜聞會極大地沖擊行政倫理。最後,一旦ChatGPT的應用造成政務醜聞出現,政府很可能會以ChatGPT運作有誤為由推卸責任,導緻追責鍊條的斷裂。

(三)資料合法合規風險

目前大陸的資料合規是建立在以網際網路安全法為代表的網絡安全體系,以資料安全法為核心的資料安全體系,以個人資訊保護法為基礎的個人資訊保護體系之上,三者共同建構了大陸的資料合規法律體系。ChatGPT資料來源的合法性、知識産權的合規性尚不明确,其應用在數字法治政府建設中的法律後果也不得而知,将其應用在政府行政立法中所産生的法律漏洞如何處理也沒有明确的方法。論證抑或是創制ChatGPT資料的合法合規性無疑是其适用于數字法治政府建設中的理論基礎和前提。

首先,資料合法合規性存疑。以現在的理論基礎和技術手段的發展來看,政務資料的利用和合規機制之間所存在的鴻溝暫時還無法消弭。ChatGPT的預先學習訓練原理會使其接受億萬量級别的資訊資料投喂,大量非公開、涉密涉私、受版權保護甚至非法的内容都有可能成為ChatGPT的學習對象,将他人的資料資訊、視訊圖檔、程式設計代碼、通過所謂的“訓練學習”複制粘貼到自己的語料庫中,并在此基礎上進行拼接、修改,其本質上是一種“高科技剽竊”,毫無疑問侵犯了他人的複制權、署名權、作品完整權。本應以依法行政為标杆的政府卻借助了違法技術或違法資訊作出相應的行政行為,必然使行政行為的合法性存在很大的疑問。

其次,ChatGPT在法律制定和法律适用過程中也極易引發法律漏洞風險。根據指令完成相應的文字編輯工作是ChatGPT的強項,是以ChatGPT在行政立法工作中大有可為,既可以輸入特定資訊用ChatGPT直接生成法律條文,又可以讓其幫助進行資料資料搜集、效果分析研判、文字語句優化,但同時法律的制定也是一個嚴肅嚴謹的工作,如果根據ChatGPT制定的行政法規、部門規章、地方政府規章或者其他規範性法律檔案有隐形的漏洞或者有隐藏的缺陷,那麼将給社會的運轉帶來不可估量的巨大損失,一方面不法分子會利用法律漏洞“合法”地完成不法行為,另一方面頻繁修法也必然“傷害”法的穩定性和安定性,影響法的權威。

四、法律規制

(一)專門立法的必要性及立法層級選擇

對以ChatGPT為代表的生成式人工智能進行法律規制是學界的共識,尤其是在政府治理過程中,它所具有的敏感性、風險性更是對法律規範和法律原則有着迫切的需求,但是提供何種層級的規範保障,保障限制力度如何,保障内容的廣度和深度如何都是尚待讨論的問題。

有學者認為生成式人工智能可能導緻的風險複雜多樣,目前規範由于适用場景的局限或者相關規範散見于各種法律檔案當中由此導緻了對于生成式人工智能的治理目标、治理機制、治理尺度的難以統一,且歐盟制定了歐盟人工智能法案,美國制定了《人工智能權利法案藍圖》,為了不落後于世界潮流,是以對生成式人工智能進行風險源頭治理并形成綜合立法很有必要;而另一些學者認為,ChatGPT背後的諸多法律風險與目前社會現存的風險本質上并無差異,有些風險屬于惡意利用,對現有的法律條款進行解釋就能解決,而有些屬于技術漏洞,通過技術修補以及加強監管就能避免,是以對于數字政府中ChatGPT法律風險的回應沒有必要采用全國人大及其常委會進行專門立法的模式,否則規制不當很有可能會将新技術扼殺在搖籃之中。

筆者認為,在當下新技術發展路徑不清、晦暗不明、尚處于萌芽狀态的情形下,應該審慎立法。法律的級别更高、剛性更強、穩定性也更強,在新技術理念尚不成熟的背景之下,貿然立法,其一,很可能使立法者所認為的對人工智能的保障實際上是一種限制,造成阻礙技術進步的後果;其二,技術突飛猛進,變化日新月異,法律很有可能落後遲滞需要修改,頻繁的修訂不利于法的權威性、安定性和穩定性;其三,對現有規範進行法律解釋或延伸适用完全可以解決當下所面臨的問題,目前規制仍應以部門法規制為主。但不可否認的是加強各個法律部門的單獨立法,待到技術成熟穩定後适時由全國人大及其常委會進行專項立法是生成式人工智能發展的必經之路。

(二)行政法律規制

1.政府政策層面的風險防控

政府應該對ChatGPT在數字法治政府應用中所發生的各種風險采取有效措施、承擔行政責任。首先,在ChatGPT引入數字法治政府的事前階段,政府應該做到審慎審查的義務,對于所選擇的合作企業的資質信譽進行考察,對其技術儲備進行檢查,對其管理服務進行摸底排查,不斷進行風險評估、妥善簽訂技術協定、做好各種風險出現後的應急預案,并加強政府從業人員的技術教學和教育訓練工作。其次,ChatGPT在數字法治政府運作的過程中,政府應該做好風險防控義務,做到風險的及時發現甄别、及時介入幹預、及時化解處理。同時還要強化風險交流和協同機制,消除部門與部門之間的資訊隔閡,做到一個部門發現風險,其他部門有效提前預防。甚至可以鼓勵公衆參與,對辦理業務時發現ChatGPT技術風險并及時上報的群衆給予獎勵。最後,在應用ChatGPT作出行政行為後對其結果進行合法性和合理性的複核也是整個鍊條的重要一環,不同于半人工智能在交通違法領域的抓拍技術需要執法人員進行人工稽核,利用ChatGPT作出的行政行為是否立即成立并生效、如何保證稽核複核和辦事效率之間的價值平衡相關部門也必須作出制度性的安排。

2.政府規章層面的風險規制

2022年3月實施的《網際網路資訊服務算法推薦管理規定》和2023年4月國家網信辦釋出的《生成式人工智能服務管理辦法(征求意見稿)》規定:服務提供者違反本規定由網信部門和電信、公安、市場監管等有關部門依據職責給予警告、通報批評,責令限期改正,拒不改正或者情節嚴重的,責令暫停資訊更新,責令暫停或者終止其利用生成式人工智能提供服務,并處一萬元以上十萬元以下罰款。構成違反治安管理行為的,依法給予治安管理處罰。2023年1月實施的《網際網路資訊服務深度合成管理規定》規定:深度合成服務提供者和技術支援者違反本規定造成嚴重後果的,依法從重處罰,構成違反治安管理行為的,由公安機關依法給予治安管理處罰。這些規範性法律檔案構成了目前大陸人工智能發展的基本法律架構,對相關主體的法律責任和處罰權的歸屬進行了明确的規定。但筆者認為網絡數字行業盈利規模大,利潤高,上限僅十萬元的罰款無法真正起到威懾作用,難以發揮其應有的功能,有必要提高罰款的限額。其次,在處罰方式上有必要采取事前警告、梯次加重的規制方法,否則無法展現行政處罰法處罰和教育相結合的原則。

(三)刑事法律規制

1.行為主體資格的區分

犯罪分子利用“半人工智能”進行違法犯罪活動,由于“半人工智能”僅提供輔助作用,其本質上是犯罪分子的作案工具。而現階段的生成式人工智能雖然自主化、智能化程度大幅提高,但也不具備自我控制和辨識能力,仍然需要人給它下達指令,是以其既不具備刑事責任的主體資格,也不具備教唆犯、幫助犯的主體資格,大陸的《網際網路資訊服務算法推薦管理規定》《網際網路資訊服務深度合成管理規定》《生成式人工智能服務管理辦法(征求意見稿)》等諸多相關法律規範都在法律責任一章明确規定,相關主體構成犯罪的,依法追究刑事責任。但此處的刑事責任是針對服務提供者和技術濫用者的刑事責任,而不包括生成式人工智能本體的刑事責任,以現行的理論基礎也無法對人工智能這一“虛拟人物”進行刑事審判和刑罰的執行。

2.刑法的限制力度

ChatGPT應用于數字法治政府建設中,刑法一方面對技術服務提供者應保持謙抑性,如果單純因為技術漏洞、技術風險而對公司法人、法定代表人、技術人員苛以刑責,無疑會使技術人員和公司面臨很大的壓力。刑法一味強行介入與嚴格的苛責并不是對技術監管的唯一方式和最佳手段,浪費國家司法資源的同時又限制了技術的進步與發展。另一方面,對于故意利用技術進行諸如網絡詐騙、敲詐勒索、侵犯公民個人資訊和國家資訊犯罪活動的技術服務提供者和第三人,此時刑法應表現出其剛毅性,給予這些不法分子以嚴厲打擊,因為利用政務服務中的ChatGPT技術進行犯罪破壞力大、影響範圍廣,當行政處罰無法進行有效規制的時候,刑法必須及時且強有力地介入,打擊犯罪的同時,有效保護萌芽狀态技術的進一步發展。

(四)民事責任

1.責任歸屬方式的界定

公民利用ChatGPT技術進行民事活動是公民—技術公司兩方主體,民事責任清晰且易于劃分。ChatGPT應用于數字法治政府中對公衆産生的諸如:資訊洩露、行政歧視、人格侮辱、行政行為違法而造成的損失、行政資訊失真而導緻的被騙,這些問題出現時的賠償補償問題是政府——技術公司——公民三方法律主體。這些損失要麼由政府或技術企業獨自承擔,要麼由政府先行承擔再向技術服務提供公司進行追償,抑或是公民可以要求公司或者政府先行賠償補償,至于最後的責任歸屬再由政府與企業進行協商。筆者認為,公民應該直接向政府進行索賠,政府也應該先行賠償,至于是否向技術企業追償應該看技術服務提供者有無故意或重大過失導緻的技術缺陷存在,如果沒有故意或重大過失,原則上不能追償,即使追償鍊條也不宜太長。第一,企業ChatGPT技術内化為行政服務的同時,技術則随之轉化為政府的“觸手”,即民事活動轉化為行政行為,這種轉化使其具有了更多的内涵但也無形之中轉移了企業自身的責任,這種責任屬于公共責任,實際上企業無力獨自承擔這種責任,唯有政府才可以、也必須肩負起這種責任。第二,政府承擔起ChatGPT在政務服務中的風險是政府作為和擔當的表現,毫無疑問會提高政府公信力,提升政府權威。

2.責任承擔方式

基于侵權法一般原理,生成式人工智能服務提供者對生成的侵權内容承擔過錯責任,即對侵權内容生成的過錯和對侵權内容移除的過錯承擔責任。但ChatGPT應用于數字法治政府,如果行政機關是以實作行政管理或者公共服務為目标,才與技術企業協商訂立的具有行政法上權利義務為的内容協定,那麼該協定具備行政協定的一般屬性,不能簡單地以民事合同的責任承擔方式進行規制,此時行政機關可以憑借在行政合同中所享有的較相對人優先的權利即行政優益權,依法單方面變更和解除合同,依法履行對合同的指揮權、監督權和制裁權。如果雙方簽訂的是平等主體之間的民事合同,對故意或者有重大過失的技術企業,在責任承擔方式上,政府有權依照技術服務協定或委托開發合同讓企業承擔排除技術妨礙、消除技術危險、恢複技術原狀的要求;有權要求技術企業賠償公衆損失、消除惡劣影響、向公衆賠禮道歉的請求;政府也可以選擇繼續履行合同或者基于對方的重大過錯而單方解除合同,以此達到保護公衆權益、懲戒技術濫用的目的。

結語

數字化科技浪潮正以前所未有的廣度、深度和高度席卷整個世界,政府治理領域毫無疑問也不可避免,ChatGPT應用于數字法治政府到底是潘多拉魔盒還是豐饒之角尚未可知,但如果僅因其應用可能會引發風險就進行立法限制不僅會遏制新技術帶來的新發展,還會陷入出現一種新興技術則對應一部法律規範的立法沼澤之中。我們必須充分發揮大陸強大的科技實力、深厚的曆史文化底蘊、統一的組織統籌保障能力,提前謀劃、提前布局、提前預防,牢牢把握數字政府治理領域人工智能建設主動權。我們必須要在防範和化解政務數字化風險中堅持和加強黨的全面上司,在促進和實作資料合法合規中推進全面依法治國,在建立和營造智能化生态政務服務系統中實作依法行政,在保證人的主體地位和社會發展的終極目的中建構和諧社會,努力打造一個符合中國實際、适應中國國情、具有中國特色的智能化政府治理體系、政務服務體系。

劉學強|ChatGPT賦能數字法治政府建設中的風險及法律規制

繼續閱讀