天天看點

東方法學特稿|甯園:論人形機器人使用者的注意義務

作者:中視聯播

作者:甯園,武漢大學法學院特聘副研究員、法學博士。

自2022年,特斯拉釋出人形機器人擎天柱以來,人形機器人産業迅速成為熱門競争領域。在大陸,人形機器人開發已成為國家新質生産力發展的重要舉措,運動控制、環境感覺、人機互動等人形機器人核心技術疊代加速。工信部于2023年印發《人形機器人創新發展指導意見》,提出到2025年初步建立人形機器人創新體系,實作人形機器人量産;到2027年形成安全可靠的人形機器人産業鍊、供應鍊體系。可以預見,人工智能發展正在向進階形态躍進,“具身智能”時代即将到來。然而,人形機器人的普及與應用,也有可能沖擊已有的社會交往安全與秩序,産生新的權益侵害風險。作為人形機器人的直接管控者,使用者是風險配置設定中的關鍵角色之一,是否以及如何為使用者設定侵權責任,尤其是是否以及如何為其設定注意義務,将對人形機器人的使用秩序與風險配置設定格局産生形塑作用,為此,有必要就人形機器人使用者注意義務展開研究。

一、問題的提出

人形機器人是具有類人外形結構特征、運動控制能力、綜合感覺能力的智能通用機器人。相比傳統機器人而言,人形機器人由通用大模型賦能,具備語義了解、多模态感覺、自主決策能力,其以盡可能複刻人類外形和行為,實作應用場景從專業向通用的更新為發展目标。從仿照動物再到仿照人類自身,人形機器人具備複刻甚至突破個人部分自然能力的潛能,未來可替代人類完成重複性、高危性和勞動密集型工作,走進制造、醫療、教育、陪護等廣泛行業,極大提高經濟效率和社會整體福利水準。

人工智能技術疊代更新引發社會變革的同時,也會引發結構性失業、社會關系異化、數字鴻溝等新的問題。具體到私法的治理視角,人形機器人等強人工智能引發的侵權風險無疑将是未來的重要課題。一種妥當的風險配置設定思路是,為人工智能提供者、智能裝置制造者等施加更重的侵權責任,這也是既有研究在人工智能緻害責任認定規則設計中呈現出的基本共識。相比之下,另一條風險配置設定路徑——完善人工智能使用者注意義務規則,明确使用者侵權責任認定,則受關注不多,有待深入分析。本文所述使用者,是使用人形機器人從事特定社會活動的終端使用者。相比人形機器人制造者和人工智能提供者而言,使用者是人形機器人的直接支配者,當使用者使用人形機器人造成他人損害時,使用者是否應負注意義務以及應負何種注意義務,直接關系到使用者侵權責任的成立與否、受害人損害如何救濟等問題。是以,明确使用者的注意義務,是未來人形機器人緻害責任認定必須解決的問題。

學界針對智能機器人緻害責任議題已有一定讨論。不少學者指出,智能機器人的高度智能化特征,對使用者過錯責任、産品責任規則适用提出挑戰。使用者責任方面,可能面臨使用者過錯認定規則不明、對使用者過于嚴苛等問題;産品責任方面,則面臨産品缺陷認定困難、因果關系不明等問題。為此,應對建議主要包括,确立智能機器人主體地位以使其參與責任配置設定,進一步強化人工智能裝置制造者、人工智能設計開發者責任,完善相關保險制度和賠償基金制度等。相較之下,如何回應使用者過錯責任适用的難題,從注意義務角度出發重構使用者過錯責任的正當性及其認定規則,則尚無專門探讨。

再從使用者注意義務視角切入。學界就某些特定類型的人工智能使用者之注意義務有一定探讨。如自動駕駛汽車發生事故緻害時,駕駛者的接管義務研究;診療機器人緻害時,醫療機構的合理診療義務。上述研究主要關注特定領域使用者的特殊注意義務(主要是作為義務)。然而,與已應用的人工智能不同的是,人形機器人具有通用于全場景的發展潛能,其将在廣泛範圍内引發社會交往關系的變革。是以,建構人形機器人使用者注意義務還需跳出特定場景、特定的利益博弈關系,探尋一般性規則。本文即以此為研究目标,試圖探讨使用者使用人形機器人時應當承擔何種注意義務,并從人形機器人使用者注意義務的正當性、注意義務内容和成立要件三個方面搭建使用者注意義務規則體系的一般架構,以期充實人工智能緻害風險配置設定的侵權法工具。

為避免混淆,還需就本文所讨論的侵權情形作出如下限定。本文有關人形機器人使用者注意義務之論述,皆是以使用者指令人形機器人進行活動,緻使他人權益遭受侵害為具體語境。其中,行為人是人形機器人的使用者,其可直接支配人形機器人實施某種目的性活動,受害人則是在人形機器人依指令執行任務過程中遭受損害的主體。對于與使用行為無關的損害,如純粹由人形機器人品質、系統缺陷引發的損害,則不在本文讨論範疇。

二、人形機器人使用者注意義務的正當性證成

使用者對人形機器人的管控,存在支配直接性和有限性的悖論。申言之,使用者是人形機器人的直接占有者,可指令人形機器人活動,是使用危險的直接開啟者和受益者,并對該危險具有一定管控力。然而,相比于普通工具而言,使用者對人形機器人的控制力又具有突出的有限性。一方面,人形機器人及其智能系統運作涉及諸多複雜的技術機理,并存在難以解釋的技術黑箱,使用者無法實作對人形機器人的完全管控;另一方面,在有限的控制範圍内,使用者對人形機器人的支配仍然有賴于人形機器人制造者、人工智能提供者提供必要的輔助。基于這種支配直接性和有限性之間的沖突,使用者負擔注意義務的正當性基礎受到挑戰,有必要予以闡明。

(一)社會功能:保障智能社會的交往安全

人形機器人等具身智能的使用,将會把人類帶入新的生活方式和交往機制中。在這一過程中,社會交往亦将面臨新的風險和挑戰。為此,通過設定使用者注意義務,可以規範人形機器人使用行為,維護智能社會的交往安全。

人類社會交往的形式及效率,極大程度上取決于生産技術水準。技術變革可以塑造新的社會交往工具和手段,使人類克服時間、空間、語言、文化、自然環境等限制,進而形成社會交往關系新形态。人形機器人的應用,将促成人類交往能力的又一次飛升。一方面,由通用大模型賦能的人形機器人,具有遠遠超出人的資訊收集和處理能力、資料分析能力、創作能力,可幫助使用者突破腦力的限制。另一方面,人形機器人是具有類人化身體結構的進階智能機器,其有能力根據使用者的指令,廣泛開展社會交往活動,如開車、購物、陪護、教育等。這種類似使用者“分身”的進階智能體,使人類活動可突破空間、體力甚至主體存在的限制。交往能力的解放,将重塑社會交往關系。于個體而言,人形機器人可增加個人的社會交往場域,豐富社會交往活動。于社會而言,人形機器人以拟人的形式嵌入社會交往,成為社交網絡中新的節點,使社會緊密連接配接于虛實互動、多層次、多領域的普遍交往關系網中。這有助于人類更有效地追求物質利益和精神利益,但同樣也會産生新的社會交往風險。

可以預見的風險涉及以下方面。首先,使用者使用人形機器人實施侵權行為的風險增加。強人工智能既可以是增加個人福利的積極助手,也可以是實施侵權行為的邪惡工具。從目前人工智能應用失範的實踐來看,未來亦會産生使用者濫用人形機器人實施侵權行為的風險,且相比傳統機器人,人形機器人濫用風險有進一步增加之可能,主要原因有兩個方面:一方面,人形機器人具有類人外形,可直接在适于人類活動的環境中運作,無需另外為其搭建專門的工作環境,由此,具有“人形”的機器人相比非類人的機器人而言,普及成本更低、應用場景更廣。另一方面,人形機器人具有類人的視覺、聽覺能力和思維方式,同時具有超出人類個體的資料處理、分析和決策能力,使用者可直接通過自然語言指令機器人,并借助其完成僅憑個人體力、腦力難以實作之目标活動。是以,人形機器人可更廣泛、更深入地服務于人的社會活動,而于消極層面,這客觀上将增加人形機器人濫用風險。其次,相比無人形機器人輔助的一般主體而言,使用者很可能借助人形機器人的資料分析與決策能力,在現實交往中取得對一般主體的支配地位,進而産生歧視、操控等風險。除濫用風險外,人形機器人亦存在失控風險,可能造成他人損害。人形機器人具備自主學習能力,可以成為輔助個人活動的能動工具,但也可能産生難以預料和解釋的決策結果,造成他人權益受損。

設定人形機器人使用者注意義務,是有效應對前述風險的必要法律手段。總體而言,注意義務對使用者提出謹慎行為的要求,具有維護智能社會安全秩序的顯著作用。具體而言,其一,使用者注意義務可以防範人形機器人濫用風險。人形機器人運作以使用者指令為整體指引,使用者是目标行為所涉危險的開啟者和受益者,要求使用者對其發出的指令内容,以及人形機器人執行指令的過程盡必要之注意,可以有效規範使用者的機器人使用行為,防止因指令内容和執行不當侵害他人權益。其二,使用者注意義務亦為防範人形機器人失控風險的必要手段。由于人形機器人處在使用者的直接管控下(包括實體接觸式管控和遠端管控),人形機器人存在失控風險時,使用者仍有采取措施預防風險發生的可能,如關閉系統、暫停運作等。此外,失控原因不具有可解釋性,并不意味着失控本身絕對不可預見、不可避免,在使用者的注意能力範圍内,要求使用者對人形機器人工作過程保持合理警覺并盡必要接管義務,是及時阻斷失控風險的有效手段。其三,人形機器人制造者、人工智能提供者責任,并不能替代使用者責任對使用風險的防範功能。制造者、提供者責任可有效預防人形機器人産品缺陷、算法缺陷引發的侵權風險,但對緣于使用者指令和操作的使用風險,使用者基于直接支配地位在風險控制上具有效率優勢。是以,相比制造者和提供者責任而言,使用者責任是使用風險的首道防線,完全排除使用者責任,使用行為不受限制,則使用風險的事前預防機制将被過分削弱。

(二)倫理功能:維系人的主體性認同和共同體認同

人形機器人應用可能引發主體性危機和共同體危機。人工智能是人類智能的外化,是人進行社會交往的工具和客體。然而,人形機器人普遍地介入社會活動,則可能産生客體主體化傾向。申言之,人類為擷取物質或精神利益,易對人形機器人産生智能依賴,以人形機器人替代自己行為和決策,并受該決策支配。長此以往,人的主體性地位将遭到削弱,一方面,随着人形機器人越來越頻繁地以人的地位介入社會關系,人的主體性将被遮蔽,人的社會交往能力将被弱化;另一方面,個體及其所處社會關系将被人形機器人背後的算法所裹挾,更易遭受算法歧視、算法操縱等技術風險的侵擾,走向社會不平等與單向度。除此之外,人形機器人等強智能技術的普及,還可能造成人與人之間的緊密關聯逐漸淡化為以機器人為節點的間接關聯。由此,現實交往被虛拟交往替代,個體之間逐漸疏離,個人的共同體認同趨于弱化,傳統倫理規範和法律規範的限制力亦會随之減弱,進而增加違法風險。

面對前述交往異化風險,保持個人的主體性地位,并結成互相關照、互相尊重的緊密共同體,才能使智能技術朝着符合人類根本利益的方向發展。在這個意義上,要求使用者承擔注意義務亦具有必要性。一方面,為使用者設定注意義務,可督促個人維系自身主體地位。使用者注意義務可強化人形機器人的工具屬性,督促使用者正視人形機器人的風險,強化使用者與人形機器人的“主體—客體”結構。另一方面,注意義務要求使用者尊重他人利益,可以防止人形機器人遮蔽人與人之間的社會關聯。總而言之,使用者注意義務既強化了使用者的主體性認同,避免其完全委身于機器;也督促個人在使用人形機器人時,關照共同體成員的利益。由此,每個使用者既受到注意義務的限制,也因其他使用者負有注意義務而獲得保護,進而形成共同應對技術風險、重塑安全秩序的合作局面。

(三)規範功能層面:實作利益衡平的彈性機制

使用者侵權責任的認定,涉及使用風險在使用者和受害人之間的配置設定,需要處理好確定人形機器人運作安全,促進人形機器人技術發展與應用兩項目标之間的關系。顯然,二者之間存在張力,使用者責任範疇擴張,則受害人利益及其背後的安全價值可得到更強保護;使用者責任範疇限縮,則更有利于人形機器人普及和應用。使用者責任的設定,需使二者達緻平衡。然而,如何處理安全和發展之間的關系,或者說需要達成何種平衡,則同時受技術發展階段、技術風險程度等多重因素的影響。從縱向層面看,在技術成長期,社會政策往往偏重于支援技術發展;而進入技術發展的成熟期甚至衰退期,技術的法律規制則成為重點。從橫向層面看,技術于不同應用領域将呈現不同的風險水準,風險程度高低與風險控制強弱成正比,風險程度越高,相關技術應用則會受到更嚴格的法律限制。

為回應不同的利益衡量需要,使用者侵權責任需具有充足的制度彈性,而注意義務規則可作為使用者侵權責任範圍的控制器。法律可基于技術發展的不同階段、技術應用的不同風險程度等,調高或調低使用者的注意标準,為使用者設定更高或者更低的注意義務,由此限縮或擴張使用者的侵權責任範疇,以實作不同的利益衡量需求,适時傳導社會政策。顯然,注意标準的動态調整并非依個案進行,而是針對技術發展的不同階段、不同應用領域,确定相應的利益衡量目标,進而設定相應注意标準。例如,在人形機器人技術成長期,成熟的操作經驗和操作規範往往尚未形成,使用者的注意能力應維持在較低标準,使用緻害風險可主要配置設定給人形機器人制造者、人工智能提供者,或通過保險制度等保障機制實作損害的社會化分擔;進入技術應用成熟期,使用者應掌握基本的操作規範,具備較高的操作能力,此時應适用更高的注意能力标準。此外,在風險程度更高的應用領域,使用者客觀上更可能預見損害發生的危險,應具有更高的注意能力,承擔更高的注意義務。

有關正當性的證成,還需回應的一個問題是,人形機器人具有自主學習能力,并在資料處理、分析和決策方面超出使用者的自然能力,這是否會導緻使用者控制人形機器人本身成為僞命題,進而動搖使用者注意義務的實踐基礎。應當認為,人形機器人的進階智能并不會推翻使用者注意義務的正當性。具體而言,人形機器人對使用者的實質意義是,延伸使用者的活動範圍,增強使用者的活動能力。誠然,相比其他工具而言,人形機器人具有更優的輔助作用,但所謂學習與決策的“自主”,是指人形機器人的分析與決策摻雜了一定的“能動性”,其不再完全由人決定,但這也遠未達到完全由其自主決定而無需人介入的程度。人形機器人無論如何智能,都難以具備人的獨立性和自主性,其自主學習與決策仍整體遵從使用者的指令,人形機器人何時開啟、何時停止以及從事何種目的性活動受使用者管控。另外,盡管人形機器人基于自主學習作出的決策可能超出使用者的預見範圍,不具有可解釋性,但這亦不妨礙使用者在其支配能力範圍内承擔注意義務,而對于因人形機器人自主決策引起的、超出使用者預見能力的損害,使用者不負擔注意義務,侵權責任可由人形機器人制造者、人工智能提供者承擔。

綜上,使用者注意義務規則設定可預防人形機器人濫用風險和失控風險,并有利于督促使用者在人形機器人使用中保持自身的主體地位,尊重和保護其他共同體成員的利益,負責任地使用人形機器人。除此之外,使用者注意義務還可作為社會政策的傳導工具,适時調整使用者侵權責任的範疇,以契合技術發展不同階段、不同應用領域的利益衡平目标。

三、人形機器人使用者注意義務規則

抽象意義上,所有使用者在使用人形機器人時都應盡必要之注意。然而,由于使用者對人形機器人的支配能力受限,仍需從注意義務的内容、成立要件和注意義務的免除情形三個方面,就使用者注意義務進行限定,以避免使用者承擔過重的侵權責任。

(一)使用者注意義務的内容

使用者使用人形機器人的行為過程可分解為三個階段,一是使用者作出指令,二是機器人接收指令,三是機器人執行指令、實施目标行為。在整個過程中,使用者的義務可分為合理指令義務、合理操作義務、合理的過程管理義務,具體分述如下。需說明的是,本文是就使用者注意義務所作的初步設想,具體内容還留待人形機器人推廣、人機互動規範和機器人操作規範細化後,進行補充和修正。

1.合理指令義務

指令合理是指,使用者的指令内容應當合法、正當、明确,避免人形機器人依照指令進行的活動可能造成他人權益受到危險或損害。合理指令義務的功能是,限制使用者的指令行為,使其不得指令人形機器人實施可能侵害他人權益的行為,防範人形機器人濫用風險。

人形機器人活動受使用者指令内容的支配,是以,指令合理的核心要素是指令内容合理。具體來看,指令内容既包括對目标的指令,亦即使用者指令人形機器人所欲完成的目标活動之内容;還包括對人形機器人活動過程的指令,亦即使用者就人形機器人實施目标活動的過程規則作出指令,如使用者基于目标活動為人形機器人設定相應參數、選取分析模型、進行價值對齊等。

依指令内容的分類,合理指令義務則涉及確定目标指令合理的義務、確定過程指令合理的義務。目标指令合理是指,使用者的目标指令不應包含侵害他人權益的内容,若指令的目标内容所指向的目标行為通常都會導緻他人受到危險或損害,則使用者應避免作出相應目标指令。過程指令合理是指,使用者對人形機器人運作過程的指令不應導緻人形機器人侵害他人權益,若使用者通過參數設定、模型設定為人形機器人指定的活動規則通常會導緻他人受到危險或損害,則使用者有避免作出相應過程指令,正确設定參數和模型的義務。

從義務來源來看,合理指令義務既包括法定義務,也包括非法定義務。就法定義務而言,由于人形機器人是使用者的活動工具,指令内容即為使用者目标行為的内容,是以法律對使用者施加的行為規範,可直接作為法定的合理指令義務之依據。例如,大陸民法典第1024條規定,任何人不得以侮辱、诽謗方式侵害他人名譽權;相應地,行為人不得指令人形機器人制作并傳播侮辱、诽謗他人的圖檔、文字、視訊等。除此之外,人形機器人運作可能包含深度合成、生成式人工智能等技術應用,大陸立法在深度合成服務、生成式人工智能領域對使用者施加的義務,亦應适用于人形機器人使用者,限制其指令行為。如《網際網路資訊服務深度合成管理規定》規定使用者不得利用深度合成服務制作、複制、釋出、傳播虛假新聞資訊,不得采用技術手段删除、篡改、隐匿深度合成辨別。人形機器人使用者即應盡前述義務,不得發出前述指令。此外,人形機器人具有資訊處理能力,使用者在使用人形機器人時可能處于資訊處理者地位,須遵循個人資訊保護法,確定個人資訊處理取得個人同意或者滿足其他合法事由,并履行安全保障義務以及其他個人資訊處理者應盡之義務。需說明的是,使用者指令人形機器人處理個人資訊時,使用者與人工智能提供者之間并不構成委托關系,實際進行資訊處理操作的人工智能提供者不能主張其為個人資訊處理受托人,僅承擔協助處理義務和較低水準的資訊安全保障義務。原因在于,一方面使用者和人工智能提供者之間并未達成委托合同;另一方面,在處理過程中,使用者僅發出目标指令,影響資訊處理目标,而如何處理個人資訊、處理哪些個人資訊仍由人工智能提供者主導,二者應同為個人資訊處理者,均須承擔處理者義務。

未來,随着人形機器人應用實踐發展,立法還須完善人機互動規範,細化使用者的合理指令義務。此外,除法定義務,使用者在發出指令時還可能負擔非法定注意義務。此類義務并非由法律規範直接施加給使用者,有待法官在案件中依注意義務的成立要件作具體認定。

2.合理操作義務

合理操作義務,是指使用者的操作行為應符合操作規範,避免人形機器人在執行指令過程中發生不合理的實體故障、系統故障、資訊安全故障或者其他可能造成他人損害的故障。與合理指令義務不同,合理操作義務要求使用者謹慎操作機器人,前者關注“用人形機器人做什麼”,後者關注“怎麼用人形機器人”。

人形機器人要成功模拟人類自主活動,需要運動規劃與控制(包括控制位置、姿态、速度、軌迹、力量等)、計算機感覺(包括視覺、聽覺、觸覺以及自身狀态測量)、自主學習和決策(包括語義了解、語音合成等)以及資訊處理、算法分析等技術協同工作。人形機器人安全運作有賴于人形機器人制造者、人工智能提供者執行安全标準、落實安全測試、履行安全保障義務,但使用者的不當操作也可能誘發安全隐患。為此,使用者作為直接操作者,應當承擔合理操作義務。換言之,若實施或者不實施某種操作行為通常會導緻人形機器人故障,進而使他人權益遭受危險或損害,則使用者對應地負有不實施或者實施某種操作的注意義務。

參考大陸現有機器人安全标準,未來人形機器人安全運作至少需確定機械安全、電氣安全、控制系統安全、資訊安全。為此,使用者合理操作義務可從以下四個方面設定:一是,機械安全,主要是確定人形機器人肢體結構的穩定、完整。具體要求包括,使用者不應破壞人形機器人肢體結構(如拆除主體結構),不應破壞人形機器人防護措施(如拆除防護裝置、暴露機器人肢體尖銳部位)。二是,電氣安全,主要是使用者應確定人形機器人運作的電氣環境安全,不應破壞人形機器人的電氣防護裝置。三是,控制系統安全,主要是確定人形機器人運動控制、力控制等的安全。由于控制系統安全通常由機器人肢體品質和支撐性技術的可靠程度決定,是以該領域所涉的安全保障義務應主要由人形機器人制造者承擔。四是,資訊安全,主要涉及個人資訊安全和資料安全。資料處理是人形機器人實作綜合感覺、完成自主學習與決策的必要支撐,在執行指令過程中,人形機器人很可能收集并儲存了大量個人資訊和資料,此時,使用者應履行個人資訊安全與資料安全保護義務,不得洩露個人資訊和存在安全風險的資料。前述義務主要為不作為義務,即使用者不應實施明顯破壞機器人運作安全的操作行為。除此之外,當人形機器人存在危及運作安全的重大缺陷時,使用者還具有停止使用、及時檢修的義務。

3.合理的過程管理義務

合理的過程管理義務是指,使用者在人形機器人執行指令過程中,對人形機器人的運作狀态仍須保持警覺,并在必要時予以接管的義務。合理的過程管理義務是一種持續性義務,且主要為作為義務,其要求使用者在人形機器人運作過程中,維持對人形機器人的基本控制力,以便在必要時采取措施防止損害發生。就過程管理義務的内容而言,具體包括過程監控義務和必要接管義務。過程監控義務要求使用者持續觀察人形機器人運作狀況,監控程度以能夠及時接收警示資訊為最低限度。必要接管義務則是指,使用者在必要時采取緊急措施,使人形機器人停止運作,或者恢複到安全狀态。

由于合理的過程管理義務對使用者提出了更高的注意要求,有必要就其正當性再作補充。首先,合理過程管理義務是應對人形機器人失控風險的重要手段。如前所述,在人形機器人失控情形下,相比人形機器人制造者和人工智能提供者,使用者與風險最為鄰近,在條件具備時可快速實作對人形機器人的控制,避免損害發生。此時,合理的過程管理義務可與制造者、提供者之義務形成規範上的合力,強化侵權責任制度在失控風險防範方面的積極作用。其次,合理的過程管理義務并非要求使用者對人形機器人實作全過程的深度監管,其需滿足義務必要性、損害可預見性和損害可回避性要件,隻有當人形機器人即将或者已經失控,人形機器人發出警示并提供接管手段,不及時接管即可能導緻損害發生時,使用者才承擔合理接管義務,須在支配能力範圍内實施必要措施。誠然,合理的過程管理義務将減損使用者的使用便利,但減損程度并不足以推翻合理管理義務的正當性,人形機器人所帶來的個人便利、社會紅利遠遠大于過程管理義務所生負擔,後者不足以從根本上抑制人形機器人的使用。

(二)使用者注意義務的成立要件

前文僅就使用者注意義務的内容作類型化梳理,尚未涉及注意義務的成立問題。應當認為,并非在任何損害發生情形下,使用者一概承擔注意義務。在侵權責任認定中,前述義務隻有經注意義務的成立要件檢驗,才可能觸發使用者侵權責任。使用者注意義務的成立,則須滿足必要性、可預見性、可避免性三個要件。

必要性是指,使用者所負注意義務必須是可以避免危險或損害發生的手段,即通常意義上,使用者盡到該注意義務可以避免危險或者損害發生。反之,假設使用者即使履行該義務,也不能避免危險或損害發生,則相關義務并不構成使用者的注意義務。必要性要件将不具有損害結果回避功能的義務排除在注意義務範疇之外,防止使用者侵權責任範疇過寬。例如,使用者雖未能定期檢修人形機器人,但人形機器人使用緻害乃黑客攻擊所緻,即使使用者定期檢修亦不能避免損害發生,由于定期檢修義務未能滿足必要性要件,并不構成使用者的注意義務,使用者違反定期檢修義務不具有侵權法上的違法性,亦不能認定使用者有過錯。

可預見性是指,使用者可預見到不履行義務将發生危險或損害。可預見性對于注意義務成立的判定意義表現為,使用者應當履行符合其預見能力的注意義務,但無需履行超出其預見能力的注意義務。該要件的認定需從以下兩個方面進行考慮。

其一,預見能力基準。可預見性的判定并非以某個具體使用者的預見能力為基準,而是以理性使用者的預見能力為客觀基準。從這個意義上說,注意義務是一種應然意義上的預見義務,其要求使用者具備理性使用者所具備的預見能力,并履行與該能力相比對的注意義務;使用者對自身預見能力的不當降低或者喪失負有責任,亦對未能盡相應義務負有責任。其中,理性使用者的預見能力包含三個層面。一是具備一般的知識與經驗,理性使用者首先是一般理性人。二是具備人形機器人操作所需的一般知識與技巧。随着人形機器人技術發展、應用普及、操作規範完善,此一能力标準亦有提高之趨勢。三是具有實施目标行為所要求的知識和能力。若使用者指令人形機器人從事專業活動(如診療活動),使用者亦需具備對應領域所必要的專業知識、經驗和能力。可見,相比日常生活中的一般理性人而言,理性使用者的注意能力标準更高。

其二,預見可能性的考察,即判定使用者“是否可能預見”損害或危險發生,需綜合考量以下因素。一是,機器人活動的風險程度。此一要素是對抽象風險的考察,即對機器人活動(包括機器人自身運作和目标行為)緻害的風險程度進行一般性評估,不涉及對具體危險的預見。抽象風險主要受機器人作業環境、目标行為風險程度的影響。通常,機器人活動的抽象風險程度越高,預見可能性越高,使用者亦須負擔更高程度的注意義務。例如,機器人作業環境複雜(如天氣惡劣、高溫高壓),或目标行為的風險程度較高時(如駕駛汽車、從事診療活動等),則使用者須負注意程度更高的合理操作義務、過程管理義務。二是,損害發生之蓋然性程度。此一要素意在考察具體危險在多大程度上可以轉化為損害。通常而言,危險越具體,損害發生的蓋然性程度越高,使用者越可能預見損害發生。例如,當人形機器人避障功能失靈、發出警示,且即将倒向受害人時,此種危險已經足夠具體,應認定為滿足可預見性标準。

就不作為義務而言,使用者可預見損害或危險發生時,不作為(即停止行為)即可避免損害發生。就作為義務而言,使用者為避免損害發生需要采取積極的預防措施,此時,注意義務的成立還涉及可避免性的考察。可避免性是指避免損害發生的可能性,其關注的是使用者是否有能力實施避免損害發生所需的預防措施。可避免性對于注意義務成立的判定意義表現為,法律要求使用者在避免能力範圍内采取預防措施,但若預防措施超出避免能力,即使使用者可以預見損害,也不負結果回避之注意義務。

可避免性認定涉及避免能力基準和避免可能性的判定。在避免能力基準上,同預見能力基準相似,使用者需具備理性使用者所具有的采取合理預防措施的能力,具體包括從事日常社會交往所需的、使用機器人所需的以及從事目标行為所需的避免損害發生之能力。避免可能性的判定,本質上是考察使用者是否有能力實施合理預防措施,即理性使用者所具有的結果回避能力是否足以預防即将發生的損害,需結合以下因素綜合認定。一是,機器人活動的風險程度。若機器人活動的風險程度更高,則使用者除面臨更高的預見義務外,也需承擔更高的結果回避義務。概言之,機器人活動越危險,使用者注意義務越重。二是,受損利益的重要程度。對于重要利益,法律往往會設定更高的結果回避義務。是以,若人形機器人可能損害他人的重要權益(如物質性人格權),使用者則應具備更高的結果回避能力。三是,結果回避義務對使用者造成的利益減損程度。結果回避義務主要是采取措施避免損害的作為義務,其要求使用者負擔一定的預防成本,是以結果回避義務的設定還需考量成本—效益因素,原則上,不應要求使用者承擔成本過高的結果回避義務。

(三)使用者注意義務的免除情形

如前所述,由于存在技術壁壘,使用者普遍且客觀地處于資訊不完全狀态,不具有支配人形機器人所需的全部資訊,其對人形機器人的支配和管理往往以人形機器人制造者、人工智能提供者進行操作提示與提供操作手段為前提。申言之,使用者的支配力受制于制造者、提供者提供的輔助資訊與輔助手段。基于此,應将制造者、提供者未履行必要的輔助性義務,作為使用者相應注意義務的排除情形。若制造者、提供者未能盡到輔助性義務,則應免除使用者的注意義務。其中,輔助性義務是指輔助使用者及時避免損害發生的義務。依輔助内容之不同,輔助性義務又可分為:提供輔助資訊義務、提供輔助手段義務和輔助更新義務。提供輔助資訊,即人形機器人制造者、人工智能提供者應充分告知使用者正确的操作規範,并在使用者指令、操作明顯不當,或者損害即将發生時發出明示性警示。提供輔助手段,即制造者、提供者應為使用者提供必要的避免損害發生的手段和方法(如設定急停裝置)。輔助更新義務是指,制造者、提供者應及時提示使用者更新人形機器人系統和功能,并提供相應的更新操作訓示和路徑。制造者、提供者未能履行必要輔助義務的,則免除使用者注意義務。免除情形的适用則需滿足兩個要件。一是,使用者避免損害發生,以制造者、提供者提供輔助資訊、輔助手段,提示并指引系統更新、功能更新為必要;二是,制造者、提供者未盡到及時告知和警示義務,或未盡到提供預防手段、提示并引導系統、功能更新等輔助性義務。一旦免除事由成立,則應認定使用者不負有注意義務,亦無需承擔侵權責任。

以人形機器人制造者和人工智能提供者未履行必要輔助義務,作為使用者注意義務的免除事由,具有妥當性。其一,使用者對人形機器人的支配力有限,注意義務程度理應以其支配能力為基本限度,以避免對使用者施加嚴格責任。其二,制造者、提供者掌握人形機器人運作所需的核心技術,有能力為使用者支配和管控人形機器人提供技術和裝置支援;且使用者亦有合理理由期待并信賴制造者、提供者周全考慮人形機器人使用中的潛在風險,并輔助其預防和控制風險。其三,必要輔助義務實際上要求制造者、提供者對使用者的不合理指令和不合理操作及其可能引發的損害負擔一定的預見與避免義務,這有助于引導制造者、提供者重視風險預測和風險警示,完善風險防範方案,進而達到降低人形機器人使用風險,提升使用者操作水準的效果。需說明的是,該免除事由不可倒推适用,即不能依據制造者、提供者已經履行必要輔助義務,推定使用者未盡到注意義務,使用者是否存在注意義務,仍需結合前述标準作出判定。

綜上,人形機器人的注意義務類型涉及合理指令義務、合理操作義務和過程管理義務。在具體侵權情形中是否成立注意義務,需滿足必要性、可預見性和可避免性三個要件。此外,當人形機器人制造者、人工智能提供者未能履行必要輔助義務,以緻使用者難以預防損害發生時,則應免除使用者的注意義務,責任應由未盡到相應輔助義務的制造者、提供者承擔。為便于讀者了解,本文以圖1展示使用者注意義務之内容及其認定過程。

東方法學特稿|甯園:論人形機器人使用者的注意義務

圖1 使用者注意義務的認定過程

(本文來源于《東方法學》2024年第3期)

專題統籌:秦前松

繼續閱讀