天天看點

人形機器人服務的消費者保護機制——以“信任控制”風險為視角

作者:上海市法學會
人形機器人服務的消費者保護機制——以“信任控制”風險為視角
人形機器人服務的消費者保護機制——以“信任控制”風險為視角
人形機器人服務的消費者保護機制——以“信任控制”風險為視角

人形機器人在智能水準、靜态與動态實體特征方面高度拟人化,其在軟硬體互信、腦體協同基礎上構造的虛拟人際關系,可提供展現親密感的增強型信任。但人形機器人服務的增強型信任未在總體上改善消費者的弱勢地位,反而還強化了消費者的信任比對失當、隐性信任定向化、信任扭曲等信任控制風險。傳統消費者保護法中的經營者告知義務、基于風險分級的人工智能靈活治理、産品責任的發展風險抗辯均難以充分保護消費者。為應對信任控制風險,應以強調“賣者盡責、買者自負”的消費者适當性為核心,基于倫理安全建構人形機器人服務與消費者的分級準入,并在分級準入的基礎上要求經營者對消費者履行适當性比對與事中事後的監測調整義務。此外,應通過終止保障義務完善人形機器人服務侵權責任的發展風險抗辯事由,其應以消費者與人形機器人在服務過程中的各方自主性程度為主要依據。

人形機器人服務的消費者保護機制——以“信任控制”風險為視角

現代機器人産業是高端制造業的代表,如何使機器人的外表形象或内在智能水準變得“越來越像人”,進而将其廣泛應用于工業生産、社會服務、金融商業等領域,已成為目前機器人産業發展的重點。其中,人形機器人或仿人機器人(humanoid robot)是最符合人類早期想象的機器人類型,其泛指具有與人類相似的靜态(例如外形)與動态(例如運動)實體實體特征以及一定的感覺、認知、決策、執行等智能水準,并能按照使用者的指令執行特定任務的智能機器産品。自2018年波士頓動力公司釋出以“Atlas”為名的人形機器人以來,特斯拉、優必選公司相繼推出具有競争力的機器人産品,人形機器人産業迎來高速發展期。習近平總書記強調:“發展新質生産力是推動高品質發展的内在要求和重要着力點。”人形機器人作為新質生産力中“新勞動工具”的重要組成部分,有助于推動大陸社會經濟的高品質發展。人形機器人與智能機器人、服務機器人等特殊的機器人類型聯系緊密,國務院于2017年釋出的《新一代人工智能發展規劃》将智能服務機器人納入大力發展的新興産業範疇,并要求加快推進金融、商務、養老等服務行業的智能化更新。工信部于2023年釋出的《人形機器人創新發展指導意見》指出,人形機器人将成為繼計算機、智能手機、新能源汽車之後重構人類生産生活方式的“颠覆性産品”。人形機器人不僅可以應用于工業制造、搶險救災等傳統機器人普及度較高的領域,還可以通過特殊的實體實體和人機互動功能,在服務業充分發揮其優勢,由此産生由消費者購買或租賃人形機器人之後接受相應服務的需求。

然而,與元宇宙注重虛實跨界的空間效果不同,人形機器人服務更注重微觀層面的行為活動,因而不僅會帶來隐私侵犯、網絡攻擊、勞動力替代等科技治理的傳統難題,還會面臨以“恐惑谷”(Uncanny Valley)效應為代表的消費者權益受損風險,甚至引發更嚴重的倫理危機,是以亟須針對性的消費者保護措施。對此,大陸以消費者權益保護法為代表的消費者保護制度主要遵循工業經濟下的規制邏輯,難以有效規範人形機器人等因數字經濟而生的新興科技産品或服務。盡管人形機器人服務尚未深入、相關風險未充分暴露或仍處在可接受的範圍内,但事先預判風險、基于成本效益衡量建構治理架構更有利于該行業的持續發展。是以,探讨如何保護消費者在接受人形機器人服務過程中的合法權益,便具有較強的現實必要性。進一步看,人形機器人的高度拟人化特征在增強消費者信任的同時,其技術複雜性又存在對消費者的信任實施不當控制的可能,此種悖反效應背景下的“信任控制”便可作為探讨人形機器人消費者保護的基本視角。

由于(人形)機器人與人工智能存在諸多技術相似性,與機器人相關的個人資訊保護、法律人格确認、著作權歸屬等既有研究,主要适用人工智能的治理邏輯,并未嚴格區分二者之間的差異,更未進一步關注微觀服務層面的消費者保護。基于此,下文先梳理人形機器人服務的商業邏輯與消費者風險,據此分析既有法律在人形機器人“信任控制”方面的保護不足,并以适當性義務為核心提出相應的法律完善建議。

一、人形機器人服務的商業邏輯與消費者風險

人形機器人的運作現狀決定了消費者面臨的風險及權益保護方式,下文将梳理人形機器人的技術發展、服務業應用表現以及相應服務的“增強型信任”邏輯,并據此分析相應的“信任控制”風險。

(一)人形機器人的技術發展與服務業應用表現

人形機器人源于早期科幻作品的概念想象,目前是國内外受關注度最高、産業發展最迅速的機器人類型。在20世紀70年代,日本早稻田大學加藤一郎教授研發名為“WABOT-1”的機器人可視為最早的人形機器人模型,但囿于當時的技術能力,該模型隻能進行簡單的肢體活動和人機對話。一般而言,開發一款拟人化程度較強的人形機器人,需要具備以下技術條件:其一,接近于人類的智能水準,特别是感覺、決策以及執行能力;其二,與人類高度相似的靜态外貌特征,特别是以身高、體重、五官等呈現的身體結構;其三,與人類相當的動态外貌特征,特别是由運動、循環消化、神經系統支撐的靈活“肢體”。其中,與靜态外貌特征不同,拟人化智能水準和動态外貌特征的實作分别需要強大的計算機技術(例如高性能算法)和生物科技(例如肢體克隆技術)作為支撐,這導緻人形機器人難以迅速獲得技術突破。在此情況下,局部拟人化的“工業機器人”成為優先發展的機器人類型,其作為自動控制、可重複程式設計的機械肢體,可按照預先設定的計算機指令開展特定的制造或物流任務。同時,具有一定拟人性、可滿足日常生活需求的“服務機器人”也逐漸應用于餐飲、住宿、醫療等行業。近年來,随着人工智能等諸多技術的突破性發展,設計者可通過大語言模型訓練優化機器人的智能水準,并推動機器人開展更為複雜的肢體活動(例如跳躍或翻滾),進而提升了人形機器人應用于生産生活的技術可行性。

除了工業生産、特種救援等領域外,作為一項消費者購買的服務,人形機器人已在諸多服務行業開展應用實踐。目前,包括人形機器人在内,北京、上海等多地已将發展特種機器人、醫療健康機器人等作為重點鼓勵發展的機器人類型,而開發智能護理機器人等智能産品也成為發展銀發經濟的重要手段。事實上,人形機器人作為一種雙足機器人,已囊括工業機器人、(個人/家用/公共)服務機器人、特種機器人等類型的既有應用場景,大緻可分為生産性和非生産性兩類。其中,非生産性的消費場景直接面向大衆消費者,包括醫療康複、養老監護、保潔家政等方面(側重于個人或家用)替代人類功能的場景,以及在金融、教育、娛樂等行業(側重于公共服務)補充人類功能的場景。前者可以改善人際溝通、增進情感互動、滿足情感需求,後者則可作為人類助手,提升使用者服務體驗并增強風險預警和防控能力。人形機器人作為“産品”的使用價值主要由設計者、生産者基于機器人衍生提供“服務”而實作,從消費者視角看,人形機器人的商業應用本質上是由人形機器人提供的一種服務。此外,“機器人即服務”(RaaS)是通過租賃等方式、無需購買産品便可以較低成本使用機器人的創新商業模式,進一步凸顯了人形機器人的服務屬性。

受到技術水準與生産成本的限制,目前人形機器人在動态外貌特征上仍有較大的改善空間,特别是機器人對肢體的自主要制程度仍然較低,無法達到一個正常成年人行走或開展其他運動時所表現的靈活度。是以,人形機器人主要應用于商業演出、會展等非生活必需品或服務,其在日常必需服務(例如家庭清掃)中的重要性仍有待被充分挖掘。此外,既有機器學習技術僅支援人形機器人達到“互動型”(L3)階段的智能水準,即在人類預設程式的前提下具備基本的感覺識别和回報行動能力,其與暫時脫離人類幹預後仍可靈活應變的“自主型”(L4)乃至更高水準的“自治型”(L5)階段尚存一定距離,這也限制了人形機器人的決策自主性。盡管如此,人形機器人潛藏的消費者風險已經顯現,是以仍需要進一步分析相應服務的本質邏輯。

(二)人形機器人服務的“增強型信任”邏輯

人形機器人補充或替代人類的服務功能凸顯了機器人的商業應用價值,而其相較于人工智能、其他類型機器人的核心商業邏輯即市場競争優勢仍需進一步厘定,據此為分析消費者風險提供精準的現象基礎。信任的本質是基于過往認知而所作出的風險決策行為,消費者在購買與接受服務過程中的權益是否受到侵害,基于資訊不對稱展現的信任水準是主要判定因素。“人形”在事實上創造了一種新的信任機制,進而增強了信任決策的冒險動機,是以信任應成為人形機器人服務的關注焦點。由于人形機器人的關鍵技術——“腦”與“肢體”——分别代表了縱向的智能化發展與橫向的機器人産品特殊性,下文将從橫向與縱向角度探究人形機器人服務的“增強型信任”商業邏輯。

從智能化發展水準的縱向角度看,人形機器人服務是軟硬體互信、腦體協同的信任化活動。功能性替代的社會需求是智能化産品發展的重要原生動力,創造人形機器人的初衷,是通過機器人提供的知識為消費者帶來效益,其中包括“知識”的表示、擷取與運用階段,以及“效益”的賦予階段。與此相對應,人形機器人技術由智能水準與外貌特征相關的技術組成,即以支撐以軟體形态存在的大腦與硬體形态的肢體。受限于應用場景和技術研發難度,支撐大腦運作的人工智能獲得了相對快速的發展,目前正經曆自主性由弱到強的技術變革過程,其最終目标是從“像人類一樣思考”轉變為以“與人相同的方式思考”。但與此同時,人工智能創造的知識還應通過合理方式提供給消費者、為消費者帶來效益,這一目标的實作需要消費者對人工智能的行為方式産生較高程度的信任,而産生信任的重要方式便包括人形機器人展現的拟人“具身化”(embodiment)。這種信任不僅僅由人形機器人的高度拟人外貌特征所實作,而且需要依賴于“大腦”軟體與“身體”硬體之間的協同配合,即機器大腦發出的指令可以被機器肢體及時、正确地執行,實作“對周圍實體環境資訊的擷取與後續行動的内在一緻性”,進而讓消費者信任人形機器人所提供服務的可靠性。須注意的是,此種“外觀信任”與“協同信任”的組合,不同于通過區塊鍊等新型網際網路技術實作的去中心化信任機制,後者更多是在客觀上對資料存儲與傳輸的信賴,其對應的是中心化主體對確定資料真實全面的單方承諾。

從不同機器人類型的橫向角度看,人形機器人服務是在虛拟人際關系下展現親密感的增強信任化活動。一方面,人形機器人不僅能從事固定、重複的工作,更能根據消費者的指令從事兼具個性化(定制化)和通用性的活動,是以,可通過應用範圍的擴張增強信任。針對大陸目前人口負增長的實際狀況以及進入老齡化社會的現狀,服務機器人已對人力予以部分補充或替代,在一定程度上改善了勞動者的工作環境,并可滿足公衆的情感消費需求。與傳統服務機器人相比,人形機器人的全身拟人化程度更高,其可通過更強的“多自由度”發揮機械臂難以觸及的精細化領域,并解決傳統的四足或輪式形體翻越障礙物的困難,同時可在大語言模型支援下展現自主性更強的智能水準。此外,與提供智能服務的可穿戴裝置或展現動物形态的非拟人仿生機器人相比,人形機器人的運動範圍和種類更貼近于消費者生活,其拟人化的外貌特征有助于代為使用人類發明的生活工具,進而适應人類的生活空間。是以,在各類生活服務場景中的通用性和普惠性更強。另一方面,基于人形機器人拟人化的靜态與動态外貌特征,消費者能與其産生近距離的親密感、形成虛拟的“人際”關系,可通過情感沉浸的擴張增強信任。在消費者與人形機器人建立虛拟人際關系之後,人形機器人可按照消費者的指令單獨完成或與消費者、其他機器人協作完成特定任務。人形機器人高度拟人化帶來的親密感本質上是一種“人情味”,加上相對較低的養護成本,可在一定程度上緩釋消費者對自動化機器人的不安抗拒心理。這一親密感還展現在當人形機器人遭受損害時,消費者産生的同情心或憐憫心,與人體在正常情況下不可被輕易分解并重組不同,機器人實體可以被拆解、嫁接到其他機器人的身體之中。此外,為機器人分發“獎賞”作為回報亦成為許多人形機器人的必備功能,該功能的實作亦依賴于消費者對人形機器人的親密感,以及由此産生的社交關系中的“橫向比較”。從經營者角度看,人形機器人的親密感還有助于降低提供服務的人力成本,例如金融機構可利用人形機器人為消費者提供到家實名開戶服務。

(三)“增強型信任”誘發的“信任控制”消費者風險

在理想狀态下,人形機器人基于高度拟人化的“增強型信任”有助于減少消費者與經營者等主體之間的資訊不對稱,讓消費者獲得兼具個性化與通用性的服務。盡管機器人的創造過程追求現實與想象相協調,但現實通常遠遠沒有想象中那樣“無辜與仁慈”。與早先存在的數字經濟活動相似,基于經營者或生産者在資金、人力、資訊等方面的優勢地位,消費者不僅仍面臨不公平交易、個人隐私洩露等傳統權益受損風險,還會基于智能活動的更高認知門檻産生算法歧視、資訊繭房等“悖反效應”。從信任角度看,這一悖反效應展現在人形機器人服務不僅未能從總體上改善消費者的弱勢地位,還強化了消費者的信任被他人或機器人不當控制的風險。下文從消費者購買并接受服務的前端、中端、後端具體分析信用控制風險。

在獲得人形機器人服務的“前端”,消費者會面臨信任比對失當的控制風險。由于人形機器人在部分領域提供的服務(例如消防排爆、園藝種植)亦能被營運成本更低的其他機器人(或無人化)産品所替代,其更适合應用于養老、教育等身心依賴性與拟人化需求較強的領域。如果經營者基于錯誤、非法擷取的個人資訊或肖像,或在未明确心理承受能力的情況下為消費者提供不适宜的人形機器人服務,便可能會給消費者帶來長期潛在的身心健康或人格尊嚴損害。此外,人形機器人還可作為一種事後懲戒或便于監控的手段,嵌入既有人形機器人服務之中,進而會在未充分評估消費者身心健康等情況的前提下,間接損害消費者自主選擇的權利。在智能支付領域,這類似于域外部分中央銀行主張要審慎對待在法定數字貨币中嵌入智能合約,其原因便是政府可能會利用智能合約不當限制甚至禁止群眾在特定範圍内開展支付交易。

在接受人形機器人服務的“中端”,消費者會面臨隐性信任定向化和信任扭曲的控制風險。一方面,技術無法絕對中性,人形機器人的生産者或經營者不僅可以将自身的倫理價值觀嵌于機器人内部,并且可能在提供基礎服務的同時,隐性定向化地開展額外的廣告營銷等活動,由此造成消費者對此類活動的信任認知偏差。其中,基于情感沉浸的擴張,消費者在接受人形機器人服務過程中會産生敏感程度更高的個人資訊,但人形機器人的通用性要求個人資訊的交叉處理,因而在隐形定向化過程中還會給消費者敏感資訊的保護帶來更大威脅。如果允許人形機器人與其他機器人或智能裝置進行資訊互動協作,消費者敏感資訊保護的風險将被進一步放大。另一方面,人形機器人為消費者創造虛拟人際關系以及機器人難以“反抗”下的控制感,同時也會造成消費者對現實世界虛拟化的過分“幻想”,導緻信任扭曲。在此情況下,消費者會對人形機器人展現更強的情感投入,不僅會在一定程度上弱化自身的權利保護意識,還可能突破倫理限制、放大不法私欲,甚至利用已接受智能訓練的人形機器人從事違法犯罪活動。由此可見,除了可能會對機器人産生厭惡、歧視等心理效應之外,此種信任控制還會給消費者帶來權利濫用的不利法律後果,而限制消費者個體的權利濫用最終也是為了保護消費者群體在接受人形機器人服務中的信任權益。

在終止人形機器人服務“後端”,消費者會面臨信任轉移或銷毀失序的控制風險。“恐惑谷”是與人形機器人直接相關的心理學效應,其指機器人越拟人化,人類對機器人的親和力就越強,但在特定時間點到達後,人類就會對機器人感到厭倦甚至恐懼。在此效應影響下,消費者勢必面臨繼續保留或終止接受人形機器人服務的抉擇。其中,海量的資料庫是人形機器人“大腦”擷取與運用知識、實作商業落地的基礎,基于資料訓練自主性的差異,人形機器人自身可能因為智能進化、情感培養而産生了對消費者的“反信任”,甚至産生對其獨立性、個體價值認同的追求,導緻消費者混淆現實與虛拟情感,并受到此種機器人信任的精神控制。例如,電影《人工智能》描述了一款個性化定制的護理機器人——大衛(David)作為主人的“再生小孩”遭到丢棄,但該機器人已經産生了對主人的情感依賴,并試圖逃避機器屠宰場的追捕。這種“反信任”如何轉移或者銷毀,以及在機器人遺失、被盜搶時如何應對,本質上涉及對消費者人格尊嚴的保護。此外,由于人形機器人的增強型信任依賴于硬體軟體之間的互動協同,如果在終止服務之後,部分肢體硬體被随意嫁接複制到其他人形機器人實體中,由此産生的錯誤資料和情感依賴轉換亦可能另行引發消費者的人格尊嚴損害。

二、人形機器人服務“信任控制”的消費者保護不足

消費者在獲得、接受與終止人形機器人服務過程中面臨的不同信用控制風險,亟待相應法律機制予以應對。下文将按照人形機器人服務前、中、後端的不同風險特點,從消費者保護法出發分析既有法律應對人形機器人服務信任控制風險的現狀與困境。

(一)前端保護:傳統消費者保護法中經營者告知義務的不足

獲得人形機器人服務的前端存在的“信任比對”控制風險,損害了消費者對該服務内容、品質等方面的知情權,并間接損害了消費者自主選擇的權利,與之直接相關的法律限制為以消費者保護法為代表的經營者告知義務。在私法确立誠實信用原則、要求當事人告知與訂立合同有關的重要事實基礎上,消費者保護法建構了以傾斜保護為導向的經營者告知義務:經營者應當真實、全面告知商品或服務的資訊,并真實、明确地答複消費者的提問,不得作引人誤解或虛假的宣傳。其中,針對格式條款,經營者應當以顯著方式提醒消費者與其存在重大利害關系的内容,并按照消費者要求予以說明。針對瑕疵商品或服務,除了消費者事先知曉瑕疵的存在,經營者應當保證商品或服務具有相應的品質、性能、用途和有效期限。基于人形機器人服務的增強型信任特點,既有法律中的經營者告知義務難以應對相應的信任控制風險:

首先,告知義務所指向的“商品或服務資訊”未能覆寫人形機器人服務的個性化定制内容。與批量生産、供應的标準化商品或服務不同,人形機器人服務是針對消費者自身在情感陪伴、生活工作輔助等方面的需求而個性化定制的活動,這種活動既包括機器人産品本身的個性化定制(例如按照個人意願将特定自然人的人形複刻成機器人),又包括根據既定的機器人産品為消費者提供個性化服務(例如金融機構的人形投顧機器人所提供的投資服務)。盡管人形機器人本身需要按照一定技術标準進行設計和生産,但從服務自身看,不同消費者的個體性差異較大,經營者需要全面、精準了解消費者的服務需求以及與之相關的個人資訊。在此情況下,既有法律将告知的内容限定于“商品或服務資訊”并不充分。雖然“重大利害關系”能較好滿足限制信任控制風險的需求,但這一義務要求僅限于格式條款,尚未擴大至所有服務合同。與此同時,人形機器人服務根據設計者、生産者或經營者創造的特定算法運作,如果經營者未以通俗易懂的語言向消費者披露算法的運作機制以及算法瑕疵風險,消費者的知情權便可能面臨更大損害。

其次,告知義務所指向的“既定資訊”對人形機器人服務自主性的差異化限制存在局限。由于人形機器人擺脫了通過遙控裝置或預設程式指令傳統機器人完成某類動作的過分束縛,軟硬體之間的協同程度主要由機器人本身的自主性——自主擷取環境資訊并獨立于外在控制或影響作出決策——所決定,因而自主性程度也成為消費者知情與信任比對的重要内容。按照消費者的需求偏好差異,人形機器人服務可以提供與人工智能相似的不同程度的自主性。在此前提下,消費者需要擷取與自主性有關的資訊,便于其明确哪些活動可以由人形機器人完成,哪些活動隻能由消費者本人完成,以及人形機器人的自主性是否可經過消費者的訓練而強化。在實踐中,為了降低研發成本,生産者或經營者可能會有意誇大人形機器人服務的自主性水準,這也凸顯了誠實披露自主性的現實必要。但是,消費者保護法中的告知義務隻要求經營者告知商品或服務“既定存在”的資訊,不要求其告知人形機器人在自主性發生變化後可能産生的不利影響,因而難以做到“可解釋”又“可信”。此外,不同自主性水準的人形機器人帶來的風險具有差異性,經營者告知義務隻要求經營者全面披露風險,但未要求對消費者實施風險評估或風險比對,以降低機器人自主性差異帶來的權益損害。即便《生成式人工智能服務管理暫行辦法》進一步要求服務提供者公開服務的适用人群、場合、用途,但該條文的限制範圍較小,難以限制所有的人形機器人服務。

最後,告知義務的限制對象為經營者,因而難以直接限制消費者或涉及公共性質的人形機器人服務提供者。一方面,告知義務以及與之相關的禁止強制交易義務,隻能限制商業活動中的人形機器人服務提供者。如果對政府可能發生的直接或間接強迫消費者接受特定的人形機器人服務進行限制,則需要其他與行政強制、行政處罰直接相關的公法規範或公法原則予以介入。另一方面,告知義務無法限制消費者的不适當購買行為。即便經營者結合消費者的個人需求,全面、準确披露了人形機器人服務的各類風險,并針對消費者進行風險評估,但消費者仍可能基于獵奇、冒險等心理,選擇購買與其風險承受能力不比對的人形機器人服務。此外,告知義務作為一種消費者在獲得人形機器人服務時的法定義務,其并未要求經營者面對消費者在接受服務過程中遇到自主性強化等風險時,強制消費者退出該服務。這也可以看出,人形機器人服務展現的信任控制風險,強化了經營者與消費者“雙限制”而非經營者“單限制”的規制必要性。如上文所言,消費者不僅可以獲得定制化的人形機器人、接受機器人所提供的個性化服務,而且還可以指令其從事原先消費者承擔的拟人化任務或工作,消費者本人的自主性與機器人的自主性均有所強化,二者之間的自主性呈現出此消彼長的狀态。這也說明告知義務作為一種減少資訊不對稱的資訊型規制工具,還需要其他非資訊型規制工具的配合、建立人形機器人與消費者之間“可追溯的聯系”,才能有效應對人形機器人服務的信任控制風險。

(二)中端保護:基于風險分級的人工智能靈活治理局限

消費者在接受人形機器人服務的中端面臨信任定向與信任扭曲的控制風險,與之直接相關的法律限制為消費者保護法上的經營者安全保障義務。就人工智能而言,安全保障義務的内容在網絡安全、資料安全與算法安全基礎上,進一步展現為可靠可控,即不僅要實作可驗證、可稽核、可監督、可追溯、可預測、可信賴,而且要實作韌性、自适應性以及抗幹擾性。由于不同人工智能産品的安全風險存在較大差異,基于風險分級的“靈活治理”模式被提出,以期及時發現和解決潛在風險、推動治理原則貫穿人工智能産品和服務的全生命周期。例如,《上海市促進人工智能産業發展條例》規定對高風險的人工智能産品和服務實行清單式管理和合規審查,同時對中低風險的人工智能産品和服務實施事前披露和事後控制。但是,基于風險分級的靈活治理仍難以有效應對事中階段人形機器人服務的信任控制風險:

首先,靈活治理強調的“自我規制”不足以調适經營者提供人形機器人服務過程中的利益沖突。針對經營者基于消費者個人敏感資訊實施的定向信任控制,法律應針對人形機器人服務的個性化特點,要求經營者履行個人資訊保護義務和算法解釋義務。結合歐盟人工智能法,靈活治理針對人工智能使用過程中的限制重點是跟蹤監測義務,包括活動追溯、上市後持續的市場監督、共享故障資訊等,其類似于民法典、消費者保護法中的産品跟蹤觀察制度。但此種跟蹤監測義務更加強調人形機器人的生産者或經營者的自我規制,如法律允許經營者自我評估其信任定向化的風險,便會帶來其“既是裁判員又是運動員”的可能。正因為如此,部分學者批評歐盟人工智能法過分依賴企業的自治,過分缺乏政府機構的外部監管。在此情況下,信任定向化風險的限制,還需要其他風險規制方式的配合,例如技術規制以及傳統的政府規制。

其次,基于靈活治理的風險分級标準未充分考量人形機器人服務的強倫理特點。根據歐盟人工智能法,不可接受的風險、高風險、有限風險、最小風險的劃分标準結合了人權與人工智能的自主性,例如對群眾的生命健康、教育、勞動等基本權利的限制越強,或人工智能獨立開展活動的能力越強,則人工智能的風險越高。基于人形機器人的個性化定制與增強型信任帶來的信任扭曲風險,消費者在接受服務過程中主要受到損害的是身心健康利益,是以按照人工智能的分級标準,人形機器人服務事實上均可視為高風險或不可接受風險的活動,這也使得以針對輕微違法行為等制定依法不予行政處罰清單為代表的包容審慎監管措施難以施行,因而削弱了開展靈活治理的現實基礎。與此同時,人形機器人服務的“人形”使得倫理安全風險更為突出,拟人化程度較高的虛拟人際關系及其風險衍生于消費者所産生的情感基礎之上。《人形機器人創新發展指導意見》亦強調包括功能安全、網絡安全、算法安全以及倫理安全在内的安全治理,因而相較于人形機器人服務的風險分級,人形機器人倫理的風險分級更有必要。

最後,靈活治理以網絡安全為重點的“全過程規制”,難以精準應對人形機器人的腦體協同特點。如上文所言,人形機器人服務的正常開展,需要計算機(大腦)軟體與肢體硬體的協同配合。在人機協作的場景下,此項活動還需要人腦與人體的協作。不論是信任定向還是信任扭曲風險,本質上都須通過機器人大腦對肢體的資訊傳輸而呈現出來。是以,人形機器人服務的靈活治理還應當強調“機器安全”,即人形機器人肢體以及大腦與肢體傳輸過程中的安全。然而,既有的人工智能靈活治理方式更強調“網絡安全”,包括要求網絡服務提供者發現違法行為後及時處置與報告、監測與記錄網絡安全狀态等,未能考量離線斷網、腦體協同訓練等特殊場景下人形機器人服務的安全風險。

(三)後端保護:作為侵權責任例外的“發展風險抗辯”疏漏

在消費者終止人形機器人服務的後端産生、與信任轉移或銷毀失序相關的控制風險,會間接損害消費者的人格尊嚴。盡管人形機器人的商業應用本質上是“服務”,但此種服務帶來的人格尊嚴損害仍由生産者制造、經營者提供的“産品”造成,因而可以适用産品責任法中規定的生産者或銷售者的無過錯賠償責任。與此同時,基于新興科技的疊代更新與認知深化特性,産品責任法為生産者提供了承擔賠償責任的專門例外情形——發展風險抗辯,即在産品投入流通時的科技水準尚不能發現缺陷存在的,生産者不承擔賠償責任。結合人形機器人的特點,現行法中的發展風險抗辯仍難以規避或減少終止服務時造成的信用控制風險。

一方面,适用于人形機器人服務的發展風險抗辯的具體情形有進一步限縮的必要。将科技發展風險作為生産者免于承擔賠償責任的抗辯事由,一來是根據生産者的注意義務程度實施合理的風險配置設定,二來是實作消費者權益保護與科技創新發展的利益平衡。但為了避免生産者的避法套利動機,按照立法者的解釋,判斷是否能以投入流通時的科技水準發現産品缺陷,應采用當時社會整體所具有的科技水準而非生産者自身所掌握的科技水準。對人形機器人服務的信用控制風險而言,僅從科技水準認定标準這一角度限制發展風險抗辯的适用仍存在局限。這不僅僅是因為涉及生命健康(例如藥品)、倫理道德(例如人體部位)的産品缺陷能否适用發展風險抗辯存在較大争議,對具有高度拟人化特征的人形機器人而言更是如此。更重要在于,消費者因信任控制風險受到的人格尊嚴損害,有别于因傳統産品缺陷受到的人身損害。傳統情形下産品的制造、設計或警示缺陷,更強調産品存在危及人身或财産安全的不合理危險,或不符合由行業專家認可的技術标準,即在産品生産階段便存在此種缺陷。而消費者因信任轉移或銷毀面臨的控制風險發生在其終止人形機器人服務之後,其更難以為生産者所實作控制,進而更加有利于生産者主張發展風險抗辯。此外,因人形機器人的腦體重組而産生的信任控制風險,事實上還涉及人形機器人再組裝的二級市場,因而對此類風險的規制還需要對二級市場的有效監管,例如市場準入。

另一方面,發展風險抗辯的适用主體難以有效應對人形機器人的經營者、消費者以及人形機器人自身的自主性均得到強化的現實。其一,消費者面臨信任轉移或銷毀中的信任控制風險,是由人形機器人“服務”直接造成的。而經營者作為人形機器人服務的主要提供者,可以針對消費者的個性化需求設定相應服務的算法、輸入相關資料,進而可能會對産品的使用造成“事後”的缺陷,因而應當承擔産品責任。但是,産品品質法雖規定經營者因過錯使産品存在缺陷應承擔賠償責任,但卻未對其設定類似于科技發展風險的抗辯事由。其二,信任轉移或銷毀中的信任控制風險是由人形機器人的“反信任”造成的,而這一反信任是人形機器人的自主性和消費者自身的訓練、相處等行為共同影響的結果。消費者自陷風險所帶來的責任分擔方式自不待言,但人形機器人在現行法上不具有法律人格或法律主體地位,便給合理的責任分擔造成了困境。以人工智能為代表的新興科技法律均強調人類是最終責任主體的理念,大陸《新一代人工智能倫理規範》要求“在人工智能全生命周期各環節自省自律,建立人工智能問責機制,不回避責任審查,不逃避應負責任”。而由阿西莫夫提出的“機器人基本法則”——機器人不許傷害人類、必須聽從人類指令、在人類優先前提下保護自我生存,均以人類為重心。在此情況下,機器人隻能作為一種工具或物品而存在,這也與機器人一詞的捷克語出處——robota(意為“勞動”)相符,即按照人類的指令為人類謀福利。盡管學界提出了虛拟人格、電子人格或有限人格等學說以試圖解決人工智能的侵權責任分擔問題,但在商業視角下,擴大法律人格牽一發而動全身。例如,目前銀行賬戶隻劃分了對私和對公賬戶兩類,對公賬戶管理更為嚴格,如在未明确配套制度的情況下(例如賠償基金或保險)徑行認定人形機器人具有法人人格,那便會在賬戶管理标準特别是身份鑒别問題上出現混亂局面。

三、人形機器人服務的消費者保護完善機制——以消費者适當性為核心

既有法律難以應對人形機器人服務信任控制風險和保護消費者的窘境,凸顯通過其他制度規制風險、保護消費者合法權益的必要。下文将以原适用于金融領域的消費者适當性為核心,讨論如何完善人形機器人服務的消費者保護。

(一)消費者适當性應對“信任控制”風險的法理基礎

消費者适當性原屬于金融領域應對資訊不對稱的法律機制,其指金融機構等經營者應當對金融産品或服務的專業複雜程度、風險進行評估與分級動态管理,并在了解金融消費者風險偏好、風險認知和風險承受能力的前提下,将合适的金融産品和服務提供給适當的金融消費者,其本質在于“賣者盡責、買者自負”。消費者适當性的生成邏輯在于,随着金融産品的内在運作結構日趨複雜,金融服務提供者與金融消費者對金融産品的資訊認知程度存在巨大差異,這便給前者實施不法行為、損害消費者合法權益創造了極大空間。與此同時,金融市場具有較強的風險傳導與擴散特征,這使得消費者的個體風險很容易演變為系統性的金融風險。對此,除了通過實施強制資訊披露緩解資訊不對稱、實施反市場操縱等反欺詐制度增加違法成本之外,為進一步避免消費者無法有效作出消費決策,适當性作為非資訊型規制工具,可以基于“賣者盡責”的補充保護消費者與社會整體的信賴,有助于進一步緩解資訊不對稱。結合《全國法院民商事審判工作會議紀要》《證券期貨投資者适當性管理辦法》等規定,消費者适當性以經營者義務為基礎,主要由以下内容構成:其一,了解産品或服務,根據結構複雜性、相關主體信用情況等因素評估産品或服務的風險等級;其二,了解消費者,根據消費者的購買經曆、風險能力等因素進行消費者分類管理;其三,适當性比對,根據消費者的分類對其适合購買的産品或接受的服務作出判斷,進而使消費者能在充分了解産品或服務性質與風險的基礎上作出自主決策、獨立承擔風險。

在法理上,消費者适當性基于前述優勢具有擴充至所有消費領域的可行性,而在人形機器人服務領域,相較于其他消費者保護機制,消費者适當性更能有效應對消費者面臨的信任控制風險。首先,基于人形機器人服務所依托高端制造、人工智能、新材料等技術的複雜性,消費者與經營者、生産者之間仍然存在嚴重的資訊不對稱。雖然消費者可通過數字裝置了解更多關于人形機器人的資訊、對人形機器人訓練或相處具有一定自主性,但其就生産者或經營者而言仍面臨巨大的資訊鴻溝,因而符合消費者适當性的生成邏輯。其次,與金融領域個體風險擴散至群體風險進而損害公共利益相似,人形機器人服務的個體信任控制風險會引發涉衆型極強的倫理安全危機。有學者指出,對人類智能的探索必然會損害人腦的神經元,給人類身體帶來永久不可逆的影響,是以人工智能完全拟人化會面臨嚴重的倫理問題。是以,消費者應接受适當的人形機器人服務,而通過有助于應對外部性危機的适當性機制便能有助于基大學技倫理的實作。當然,基于此種邏輯,消費者适當性亦能适用于其他信用控制風險較大、外部性較強的科技服務領域。最後,與經營者告知義務、基于風險分級的靈活治理以及發展風險抗辯等既有制度相比,消費者适當性基于消費者作出絕對理性的決策不符合實際,力求通過風險比對讓消費者作出“足夠好”的決策,而不是讓消費者費力地計算最優決策或放任其作出任何決策,是以更有助于應對信任控制風險。更重要的是,消費者适當性強調事前評估比對、事中監測調整與事後公平擔責相結合,與消費者在人形機器人服務在前端、中端與後端所面臨的信任控制風險階段相對應,契合新型科技動态性規制或全過程治理的基本原則,比分别單獨完善經營者告知義務、靈活治理手段更具體系化優勢。

(二)針對倫理安全建構人形機器人服務與消費者的雙重分級準入

對人形機器人服務與消費者進行分級,是建構消費者适當性機制的前提與基礎。基于人形機器人服務的強倫理特點,應主要基于倫理安全實施分以及準入。盡管如上文所言,人工智能靈活治理的風險分級存在局限,且金融産品适當性的風險分級亦無法直接适用于人形機器人服務,但在“基于風險”的科技治理架構下,相關分級對經營者管理水準、消費者風險識别或承受能力、科技産品自主性的判斷标準仍具有一定借鑒意義。

首先,以身心健康為核心對人形機器人服務進行分級。尊重生命權利是科技倫理的重要内容,心理健康造成傷害或潛在威脅”,是以人形機器人服務的倫理安全分級應重點考量消費者的生理與心理健康是否會受到威脅。由于人形機器人的内在運作結構同樣較為複雜,且其能否安全運作會受到不同主體的影響,是以人形機器人服務可以在身心健康的基礎上,結合金融産品與人工智能分級的标準先确定為三個等級:其一,低身心健康風險,人形機器人的人機互動程度較低,主要基于事前算法預置,消費者對相關服務資訊的了解與控制程度較高;其二,中身心健康風險,人形機器人服務需要消費者一定程度的情感訓練,消費者對部分服務資訊的了解與應用需要依賴經營者等第三方主體;其三,高身心健康風險,人形機器人的人機互動主要基于消費者的長期情感訓練形成,消費者對大多數服務資訊的了解與應用需要依賴經營者等第三方主體。人形機器人的生産者或經營者在提供相關服務前,應根據前述三個等級在不同應用場景、結合服務涉衆程度等因素進一步細化分級标準,并按照《科技倫理審查辦法(試行)》交由依法設立的科技倫理委員會進行審查。

其次,基于倫理安全帶來的信任控制程度對消費者進行分級。如上文所言,消費者在購買人形機器人服務的前端主要面臨信任知情的控制風險,因而應主要根據消費者的信任知情水準進行分級。盡管在金融領域,由于消費者購買金融産品是為了滿足日常生活需求,其主要覆寫普通投資者而不包括在投資實力、投資知識與經曆等水準較高的專業投資者,進而在資訊告知、風險警示等方面享有特别保護。但由于特定人形機器人服務的信任控制程度與消費者的身心承受能力不一定比對,消費者的分級仍有必要。具體的分級方式應與人形機器人服務的分級相對應,即強身心健康承受能力、中等身心健康承受能力、弱身心健康承受能力。此外,為了事前防範消費者信任扭曲所緻風險,人形機器人的經營者在提供相關服務前,還應結合消費者接受該服務的使用目的與期限:前者主要是為了便于經營者判斷消費者購買人形機器人服務進行善意使用、誤用濫用還是違規惡用的可能性,後者則依據消費者是否會對人形機器形成長期的信任依賴,幫助經營者判斷消費者适合何種服務(例如購買還是租賃、一次性還是長期性)。

最後,在分級基礎上确立人形機器人服務與消費者的準入制度。一方面,為了平衡人形機器人的産業創新發展與風險防範,對人形機器人服務采取審準許入并不可取。在人形機器人産業發展初期,更合适的方式是在負面清單基礎上,對特定的人形機器人和服務進行登記,以確定信任控制風險出現時,監管者基于登記的可追溯性及時介入。例如,歐盟人工智能法規定不得使用人工智能進行“社會評分”“實時遠端生物鑒别”“評估自然人的信用分數”,除非相關領域具有更重要的公共利益。《歐洲機器人技術民事法律規則》亦規定,針對智能機器人的登記系統及登記簿應當在全歐盟範圍内建立,以便實作機器人的可追蹤性。另一方面,經營者應根據人形機器人服務的不同風險等級建立相應的消費者準入即“合格消費者”要求。消費者隻能按照其風險承受能力購買相應風險級别的人形機器人服務,而經營者亦不得向消費者提供與其風險承受能力不比對的人形機器人服務。為了發揮最佳的風險防範效果、避免消費者的監管套利行為,消費者适當性機制還應實名制為主體識别基礎,由此還可實作與人形機器人及服務登記制的銜接。

(三)基于分級準入實施人形機器人服務的适當性比對與監測調整

在人形機器人服務與消費者分級準入的基礎上,應實施消費者的适當性比對與動态調整,以應對信任定向、信任扭曲等信任控制風險。

一方面,經營者應當按照風險對應的原則向消費者銷售适當的人形機器人服務。特别是在沙特阿拉伯率先賦予人形機器人“索菲亞”國籍之後,人形機器人成為衆多市場機構的炒作話題,經營者存在誇大宣傳、誤導消費者的動機,進而造成消費者容易忽視人形機器人的潛在信任控制風險。雖然金融領域的經營者可以在出具書面風險警示的前提下允許消費者購買風險等級高于其承受能力的産品,但人形機器人服務的倫理性與社會性更強,如果允許消費者購買不适當的服務,消費者将承受比财産損失更為嚴重的身心健康損害,而經惡意訓練的人形機器人還會對社會安全帶來額外風險。須注意的是,即便經營者按照政府機構的要求強制為消費者提供人形機器人服務,适當性比對的義務仍不可缺位,這亦符合行政法上的比例原則特别是最小侵害原則。與此同時,在适當性比對前提下,除了就處理敏感個人資訊履行更嚴格的個人資訊保護義務之外,經營者仍應履行與消費者風險承受能力相對應的告知義務。與傳統消費者保護法下經營者的告知義務受限于既定商品或服務資訊,以及金融領域告知義務受限于與本金損失有關的事項不同,人形機器人服務的經營者應當以通俗易懂的語言重點告知人形機器人的自主性程度以及相關算法的運作機制和風險。當然,賣者盡責不等于“賣者全責”,經營者隻需讓消費者達到一般群眾對人形機器人服務能夠認知了解的程度即可。

另一方面,經營者應當在提供人形機器人服務過程中,履行監測調整義務。為了适應人形機器人自主性的變化導緻的分級調整,同時應對利益沖突,适當性動态調整、内外部治理相結合的監測調整義務不可或缺,其可視為歐盟人工智能法所規定跟蹤監測義務的強化。具體而言:其一,線上監測與現場核查相結合。經營者在依法履行網絡安全義務與個人資訊保護義務的前提下,不僅應基于線上收集的人形機器人服務資料确定人形機器人的自主性及風險程度變化,預估是否要采取技術性的糾正或預防措施,同時,還應根據對消費者的現場訪談與核查,确定人形機器人的腦體協作情況、評估倫理安全與機器安全程度。其二,适當性重新比對與替代方案應對。在監測核查基礎上,經營者應判斷消費者自身或其接受的人形機器人服務風險等級是否需要調整,并重新進行适當性比對。如消費者調整後的分級與人形機器人服務不比對,經營者應停止原有服務、降低人形機器人的自主性(例如限制機器人與其他機器人的協同互動)或通過合理方式收回機器人實體,并按照消費者的意願為其提供其他同樣能夠實作原先服務目标(例如陪護)的替代産品或服務的建議。這也符合《新一代人工智能倫理規範》提出的“在提供人工智能産品和服務時,應充分尊重和幫助弱勢群體、特殊群體,并根據需要提供相應替代方案。”其三,接受外部監督限制。《新一代人工智能發展規劃》提出要施行“設計問責和應用監督并重的雙層監管結構”,由于人形機器人服務面臨經營者不當處理個人資訊所引發信任定向化的利益沖突,外部限制可以進一步提升問責監督的實效,強化經營者提供服務的公共性。基于人形機器人服務的強倫理性,經營者應在倫理審查委員會的基礎上組建同行專家的技術複核小組,對經營者提供的人形機器人服務實施定期審查或特定消費者服務的抽查,并為政府監管機構在經營者無力幹預時的事後及時介入提供技術接口。

(四)通過“終止保障義務”完善侵權責任的發展風險抗辯事由

人形機器人服務的消費者适當性,不僅要通過強制性的分級準入使消費者接受适當服務、終止不适當服務,更要確定消費者主動“退出”服務的權利,由此可為經營者在産品品質賠償責任中主張發展風險抗辯提供更合理的事由。《新一代人工智能倫理規範》“為使用者選擇使用或退出人工智能模式提供簡便易懂的解決方案”,保障消費者自願終止人形機器人服務的義務還成為人形機器人倫理安全的重要組成部分。終止保障義務的充分實作,意味着消費者在決定終止人形機器人服務時,經營者必須按照消費者的要求通過技術手段完全消除人形機器人基于過往記憶而産生的反信任,并在實施人形機器人循環利用時,避免機器人肢體及相關資料被不當移植到其他機器人産品之中。

進一步看,終止保障義務在多大程度上能作為産品責任中的發展風險抗辯事由,應當以消費者與人形機器人在服務過程中的各方自主性為主要依據。人形機器人的自主性是機器人本身的自主意識水準或在擺脫人類控制時發揮自身主觀能動作用的可能性,而消費者的自主性本質上是人類對機器人自主意識的控制能力。如果消費者在人形機器人服務中的自主性較強,那麼其便可更容易預估和管理人形機器人的反信任程度,以及終止服務後因人形機器人不當移植帶來的人格尊嚴損害,是以消費者“自我退出”的能力較強,進而有更利于經營者主張發展風險抗辯事由。需注意的是,如果消費者在未經經營者允許的前提下自行改裝人形機器人,不論改裝之後各方自主性如何發生變化,消費者均要承擔由此帶來的不利風險後果。對于人形機器人的強自主性情形(特别是腦體協作水準較高、離線運作的穩定性與魯棒性較強),如果經營者在事中事後的介入程度較為有限(例如無法完全消除人形機器人服務相關的所有個人資訊),且消費者在事前的适當性比對階段已經接受了此種強自主性的潛在風險、展現了足夠的審慎注意,那麼經營者同樣可以主張發展風險抗辯事由。此處事實上确認了人形機器人在終止服務階段的賠償責任情形可視為法律主體、享有法律人格,但這不意味着其獲得了類似于自然人的法律主體資格。因為後者涉及對權利主體的分析,而分析權利主體本質上是一個“人如何定義人”的問題。同時,這更不意味着在整體性的生态系統中,人形機器人具有了可以與人類展開同一生态位競争的資格,因為此種競争的後果便是兩類競争者大機率無法共存。這也與一些學者主張應采用“行為對稱性”标準判斷機器人能否具有基本權利相似,即如果智能機器人如果在行為上與至少某個人類無法區分,并且沒有任何進一步的要求,則應該被授予基本權利。此外,為了避免經營者濫用發展風險抗辯的道德風險,可建構類似于法人人格否認的穿透制度,如經營者不就終止服務時的信任控制風險進行事前告知或事後及時制止,放任消費者采取更大程度的自主要制,那麼發展風險抗辯應不予适用。

除了終止保障義務之外,經營者采取消減資訊不對稱的其他措施,也可以作為認定發展風險抗辯的事由。例如,經營者建立了在消費者選擇終止服務後主動進行人形機器人回收或銷毀的良好機制,防止不當留存消費者個人資訊的機器人(肢體)進入二級市場,則可以認定其在事後盡到風險防範義務。又如,經營者主動将人形機器人服務納入政府機構組織的監管沙盒測試中,以提前獲知人形機器人服務在事中事後的風險狀況,特别是消費者終止服務後的信任控制風險,則可以視為已盡到的風險識别與防範義務。

人形機器人服務的消費者保護機制——以“信任控制”風險為視角

繼續閱讀