天天看點

具身智能體的隐私風險及法律應對——以“人形機器人”為例的展開

作者:上海市法學會
具身智能體的隐私風險及法律應對——以“人形機器人”為例的展開
具身智能體的隐私風險及法律應對——以“人形機器人”為例的展開
具身智能體的隐私風險及法律應對——以“人形機器人”為例的展開

具身智能體結合了人工智能與機器人技術,單獨讨論其中的任何一項技術對隐私的威脅都是片面的。具身智能體所具有的具身性、互動性及湧現性特征展現了其強大的互動和行動能力,給隐私與資料保護帶來前所未有的新挑戰。一方面,具身智能體能侵入私密空間,記錄私密活動并潛移默化收集處理私密資訊;另一方面,自主決策和自主行動的結合能造成實害,侵害使用者的人身财産權益。既有的隐私和資料保護規則圍繞資訊控制而展開,具身智能體資料的生成和湧現加上造成實際損害的能力不僅會導緻個人資訊控制機制的失靈,還可能會使追究責任變得不切實際。針對這些挑戰,除了弱化既有資料法中個人同意的作用外,還需在人工智能立法中植入資料保護理念,強化監管者和設計者責任,尤其是應當禁止通用型具身智能的市場化應用,并确立"通過設計來進行隐私和資料保護"的原則,明确設計者的可責性。

具身智能體的隐私風險及法律應對——以“人形機器人”為例的展開

引言

具身智能代表了傳統人工智能的具身化轉向,其核心理念是模拟人類智能的具身“進化”過程,創造出作用于真實世界的“身—智—行”統一的機器人。自2023年年初至今的生成式人工智能技術的躍進式發展,成就了機器的“身體/意向”的雙層具身構造。具身智能體是指那些能夠感覺、了解環境,并通過智能決策和行動來與環境互動的應用。這些應用通常具備傳感技術、資料處理和執行能力,以模拟或模仿人類感覺和行為。具身智能體不等于生成式人工智能或多模态,因為具身智能的前提是有一個身體,但其又不能狹義地等同于人形機器人,因為也存在非人形的智能系統。但毫無疑問,人形機器人是具身智能體中最具代表性的一種。

人形機器人又稱仿人機器人或類人機器人,具有拟人的肢體、運動與作業技能,具備感覺、學習和認知能力。2023年10月20日,工業和資訊化部印發《人形機器人創新發展指導意見》,該意見對人形機器人的發展作出了全面的戰略部署。作為衡量國家科技創新和高端制造業水準的重要标志,人形機器人正成為科技競争的新高地、未來産業的新賽道。2024年1月12日,北京人形機器人創新中心專家委員會成立大會上重磅宣布了北京将加速布局人形機器人未來産業,打造機器人産業綜合集聚區。業内專家認為,人形機器人與生成式人工智能的融合,開啟了“具身智能”時代,具身智能機器人是人工智能的終極形态。

機器人技術早已深入滲透制造業的發展,工業機器人替代了流水線上的勞工;從軍事到教育,從交通運輸到醫療保健,從老年護理到兒童玩具,機器人正在以新的方式進入公共和私人領域,但也引發了許多社會和倫理問題,尤其是人形機器人的隐私和安全問題。具身智能體給隐私保護提出了哪些新問題?哪些問題通過既有的法律路徑就足以解決?本文主要從具身智能技術的特性、具身智能體對隐私和資料保護的挑戰及相應的法律應對展開。

一、面向社會的具身智能體

具身智能技術呈現出具身性、互動性及湧現性三種顯著特性。過去流行的觀點是,技術的問題交給技術人員來處理。然而,現實卻是,技術問題已經成為了人文社科無法回避的真正問題,無論是海德格爾還是劉易斯·芒福德、蘭登·溫納等學者,在20世紀就已經開始思考技術問題的本質。與自然科學不同的是,社會科學更多關注的是技術的社會面向。

(一)具身智能技術的特征

1.具身性

人工智能的發展依賴資料、算法和算力,但對世界的感覺和行動通常需要一種實體存在,資料、算法和算力并不具備實體存在,是以機器人通常是具身的。通常意義上的具身,是指身體與心智的統一。具身性思想關注身體以及身體、大腦及周圍世界複雜的互相滲透關系在人類智能形成和實作中的重要作用。具身智能并不限于人形機器人,但與無實體的計算機程式不同,具身性使得機器人很容易被形塑(picture)出來,進而對人的心理産生影響。具身智能體的設計出現了拟人化的發展趨勢,一方面是因為受到各種科幻隐喻的影響,但更主要的是因為拟人化可以幫助消除使用者與機器人之間的隔閡,使人機互動更加輕松和愉快,促進情感聯系和溝通。人們更傾向于信任和欣賞一種具身化的人工智能(通常以機器人的形式出現),而不是無身體的系統。

2.互動性

具身智能體的互動性是指其與人類進行雙向溝通和互動的能力。互動性的提升使得機器人能夠更好地了解人類的語言、情感和意圖,并作出适當的回應。人類傾向于以不同于其他物體的方式看待可以與人類進行互動的機器人。有大量文獻表明,人們對機器人的反應是與人互動類似的反應。觸發這種反應的門檻很低:早期的心理學研究甚至表明人們會賦予頁面上移動的形狀以社會角色。達令曾經做過一項著名的實驗,研究人員先讓人們和機器恐龍玩具玩耍了一個小時,後要求參與者使用武器将機器恐龍玩具射殺,所有的參與者都拒絕了。即便告訴他們可以射殺其他的恐龍玩具來保護自己的,他們依然拒絕。這一實驗展現出了機器人越來越能與人進行互動的同時,也可能引起人類同理心。

3.湧現性

人工智能的湧現性指的是在人工智能系統中出現的新特性、新行為或新結構,這些特性不是由單個算法或子產品的性質所決定的,而是由整個系統的組織、互相作用和學習過程所導緻的。人工智能的湧現性可能表現為系統學習到的意想不到的行為或解決問題的能力,這些行為或能力超出了單個元件的能力範圍。湧現性使得人工智能系統具有更高的靈活性和适應性,能夠應對複雜、不确定的環境,并表現出類似于人類智能的特征。

湧現性并不存在于低層次的單個要素之中,而是系統在低層次構成高層次時才表現出來,是以形象地稱為“湧現性”。一個常見的例子是螞蟻遵循簡單的規則來完成複雜的、看似智能的任務。系統功能往往表現為“整體大于部分之和”,就是因為系統湧現出新質的緣故,其中的“大于”成分就是湧現的新質。系統的這種湧現性是系統的适應行為體(adaptive agent)之間非線性互相作用的結果。擁有湧現能力的智能體,可能具有一定程度的自主性,能夠根據環境和目标作出自主決策,并采取相應的行動。

(二)具身智能體的社會屬性

具身智能體的具身性、互動性以及明顯的自主行動結合在一起,使其具有社會屬性。具身智能體的社會屬性指智能實體作為某個社會角色而行動,而智能體的具身性和互動性是其具備社會屬性的前提條件。具身性提供了機器人的實體屬性,互動性則滿足了人類與機器人進行情感交流的需求,進而使機器人的自主行為具備了社會性。過去的機器人隻能重複指令執行行動,而具身智能體則更像一種能夠适應環境的系統。具身智能體自己可以主動感覺環境,例如當有一個盒子在它的面前時,它會主動感覺并可能嘗試打開這個盒子。

互動性尤其展現了機器人社會性,人們往往傾向于将可互動的移動物體視為活物,但關鍵不在于機器人是否具有實體形态——畢竟,烤面包機也具有實體形态——而是在它們的互動性在人類中産生了特定的社會性。互動能力的提升對于機器人“社會角色化”具有重要影響。一旦機器人具備了社會角色,比如家庭機器人成了家庭的一員或伴侶機器人成了人類的伴侶,那麼未來的具身智能裝置,如具身智能音箱或類似寵物狗的掃地機器人,很可能會扮演家庭成員的角色。此外,經過有意設計的人形機器人會進一步增加機器人的社會性。總之,無論個人是否了解技術的本質或内涵,機器人的社會影響與生俱來,并會随着時間的推移而持續存在。

智能機器人和人之間的關系通常被了解為智能機器人擔任照料者、朋友、夥伴以及引起人類浪漫興趣的精神伴侶。在應對超老齡人口社會問題方面,智能機器人被證明是非常有用的工具。人工智能和機器人夥伴已經被看作人類的朋友,并且與人類之間能夠互動影響,形成各類情緒、思想等。與西方國家相比,東亞主要國家表現出了對人形機器人的特别偏好,例如日本政府正竭力将機器人納入社會并使機器人成為其社會基礎的關鍵部分。通過和大模型結合,機器人已經具備了成為人類重要助手的能力。2023年阿裡巴巴展示其大模型時,工程師通過釘釘發出指令“我渴了,找點東西喝喝吧”,大模型在背景自動編寫了一組代碼發給機器人,在識别周圍環境後,機器人從附近的桌子上找到了一瓶水,并自動完成了移動、抓取、配送等一系列動作。

是以,與曆史上的任何技術相比,機器人對人類具有更強的社會影響力。在大多數情況下,我們不會對一堵牆說話并期待其回應,也不會将牆視為可能的朋友,但機器人似乎與衆不同。心理學家彼得·卡恩和他的同僚進行了一系列試驗,試圖了解人們如何思考機器人。研究對象既不傾向于認為拟人化的機器人是活着的,但也不認為它們是物體。在這樣的研究中,研究對象傾向于将心理狀态的差異歸因于機器人的反應,因為如果隻是與一個物體打交道的話,很難會有諸如感到不适等想法。

當機器人的行為邏輯很難被了解時,人們往往會沿用既有社會認知來填補空白,是以機器人的拟人化成為社互動動和社會認知在人類生活中重要性的自然延伸。然而,拟人化也同樣帶來諸多倫理上和法律上的問題,其中之一是可能會混淆真實和虛假,進而破壞社會基本價值觀。本文想要深入讨論的問題是智能機器人對隐私這種基本價值的侵害。在讨論技術對隐私價值的侵害程度時,取決于該技術在特定場景中收集、處理個人資訊的方式是否合理。

二、具身智能體對隐私和資料保護的挑戰

機器人技術和人工智能系統是具身智能體的一體兩面,傑克·巴爾金曾批判如果堅持把兩者區分得太明顯,可能會造成一定的誤區。單純讨論機器人或人工智能對隐私價值的威脅是片面的,具身智能技術的具身性、互動性及湧現性凸顯了其社會性特質,展現了其強大的互動和行動能力,對隐私價值産生深遠的影響,也給既有的隐私與資料保護法律規則帶來前所未有的挑戰。

(一)具身智能體的隐私威脅和侵害

許多隐私問題由來已久,當然并不僅由具身智能體所導緻。然而,具身智能體強化了資料收集能力和分析能力,增加了隐私入侵的可能性,同時其自主決策和行動的能力容易将隐私威脅轉變為實害,使得隐私和資料保護所面臨的問題更為複雜。

1.收集與監視的方式趨向多樣化

以人形機器人為例,人形機器人比以往任何技術或寵物都更能融入人類的世界,甚至可能比一些家庭成員(如兒童)更能融入,這種互動形式存在欺騙性、隐蔽性、持續性等特質,帶來一系列的隐私威脅。民法典第1032條第2款規定:“隐私是自然人的私人生活安甯和不願為他人知曉的私密空間、私密活動、私密資訊。”人形機器人侵犯隐私的方式是多元的,可能單一侵犯其中一種隐私,也可能同時侵犯多種隐私。

第一,私密空間。具身智能體進入私密空間不易引發人類反感,尤其是具有行動能力的家庭機器人。例如,人們很少會将智能掃地機器人進入卧室視為對隐私的威脅。心理治療過程中機器人的使用,尤其是機器人已經從提供簡單的情感支援發展到高技能的專業技能,比如24小時陪伴、個性化服務等,在這類機器人面前,使用者是否還保有私密空間幾乎無從談起。此外,人形機器人與人工智能系統不同的是,其行動能力可能會導緻更為惡劣的人身傷害後果,一旦機器人被黑客攻擊,不排除機器人可能随時會為有所企圖的第三人打開家門,甚至有些機器人還可能協助破壞家庭财物或“一本正經地胡說八道”來吓唬老人或孩子。

第二,私密活動。人形機器人可以全方位、持續性、無間斷記錄個人私密活動。一方面,人們很少會考慮到需要避開機器人從事私密活動。實時攝像頭開始進入家庭後,實際上家庭攝像頭除了具有防盜功能,還會拍攝并實時記錄家庭中其他成員的私密活動,而具身智能體必然配備實時攝像功能,同時其移動能力更是為記錄使用者的私密活動提供了可能。另一方面,機器人可能會滿足人類從事私密活動的需求,例如據媒體報道,性愛機器人就十分具有市場前景。為滿足和人類的互動性功能,人形機器人配備了一系列先進的傳感器和處理器,大大放大了對環境資訊和個人資訊的收集和記錄能力。比如近日美國AIbotics公司最新研發的按摩機器人,該機器人搭載AI功能,通過傳感攝像頭對使用者的背部進行掃描模組化,并可自主規劃按摩路徑。這些被收集和記錄的私密活動或個人資訊,會被存儲在公共雲或名義上的私有雲中,一旦洩露,後果不堪設想。

第三,私密資訊。人形機器人收集的資訊性質較以往敏感度更甚。首先,人形機器人可能引導使用者有意無意主動透露私人或敏感資訊,涉及操縱使用者。有研究表明,智能系統的具身化具有親和力,可能增加使用者的風險容忍度并減少其隐私擔憂。同時,有研究表明裝有“面孔”和“眼睛”的具身智能伴侶能以看上去有感情的方式回應使用者的需求。人類潛意識的反應,都會被記錄下來。無論是通過機器人的感應裝置,還是嵌入為代碼,相關資料都會被固定存儲在文檔中。其次,人形機器人可以近距離接觸并不斷分析資訊主體,通過大模型推斷出個人資訊、敏感資料,最終可能比主體本身更了解自己。比如機器人可能收集生物識别資訊進行人臉識别或情感計算等。洗碗機或自動烘幹機的運作資料很難說明其使用者的性格,但作為伴侶的人形機器人的運作資料卻能傳遞很多敏感問題。

2.無法預測的自動化決策和行動相結合

與其他智能系統不同的是,除了自主決策,具身智能體還可以将決策轉化為行動,是以威脅很可能成為實際損害。機器人學領域的學者托馬斯·謝裡丹提出了一種四階段資訊處理模型:(1)資訊擷取(觀察);(2)資訊分析(定位);(3)決策選擇(決定);(4)行動實施(行動)。設想智能機器人在公共場所突然對人群發起攻擊,這對于不具備行動能力的智能系統而言顯然無法做到。2017年2月歐洲議會通過的《機器人民事法律規則》指出,機器人的自主性可以被界定為在外部世界作出獨立于外在控制或影響的決定并實施這些決定的能力。該定義包含了兩個具體層面:一是獨立作出決定的能力,二是實施決定的能力。

一方面,具身智能體可以自主決策。第二次世界大戰後,歐洲法律一直在努力使人處于自動決策過程中——無論是通過允許公民堅持由人作出特定決策的權利,還是需要人參與的平台責任。是以歐盟法上對于完全的自動化決策,即無人幹預的自動化決策一直都是持原則上禁止、例外允許的立法态度。然而,人工智能的湧現能力賦予了機器人自主性。其在不同環境中的反應和決策甚至不是其設計者可以預料或事先控制的,這種不可預測性源于算法的複雜性,包括那些能從過往經驗中學習的算法,還可能包括了多層創新、數字系統的生成性以及資料的流動性等原因。機器可以使用檢測到的模式對某些複雜的事物作出有用的決定,而不需要像人類那樣了解它們的潛在意義。是以,完全自動化的決策在具身智能體的情形下完全可以實作,其表征是機器人顯得會“思考”和能與人“共情”。但這種無法預測的自主決策能力一旦失靈,在對個人影響重大的事項上直接作出決定,那麼可能會對個人權益造成極大的傷害。

另一方面,具身智能體可以自主行動,行動必然導緻一定的後果。過去的人工智能系統,包括生成式人工智能,都不具有行動能力,換言之其本質上更像是一個決策輔助系統。但是,一旦不可預測的自主決策與行動能力互相結合,很可能會帶來某種程度的實害。從隐私和資料保護的角度來說,具身智能體對隐私的侵害行為表現為三個類型:一是表現為未經個人同意進入、拍攝、窺視他人的私密空間,智能體可以直接進入一些其他人難以進入的私密空間并進行拍攝;二是未經同意拍攝、窺視、竊聽、公開他人的私密活動,智能體的拍攝可能是為了與人類互動所需,但人類無法預測其下一步行動,是否會将私密活動的音視訊傳輸或公開等;三是未經個人同意處理他人的個人資訊,包括将個人資料傳輸給第三方或者故意或重大過失洩露個人的隐私資訊等。

(二)既有隐私與資料保護規則的困境

既有的隐私和資料保護法建立在個人資訊控制論基礎之上,但無論是機器人技術還是生成式人工智能,都具有“反控制”的鮮明特質,與既有的規則之間存在不可調和的沖突。此外,具身智能體資料的生成和湧現加上造成實際傷害的能力可能會使追究責任變得不切實際。

1.個人資訊控制機制的失靈

資料保護圍繞着個人資訊控制進行了全面的規則設計,包括“告知—同意”“目的限制”“最小必要”“資訊進行中的個人權利”等。具身智能體的社會性帶來了與使用者互動的新方式:收集使用者資訊并潛在地影響使用者行為,同時在不可預測的情形下展開行動。以人形機器人為例,個人資訊控制機制的失靈展現在多個方面:

首先,“告知—同意”規則受到更為嚴重的質疑。資訊隐私長期以來在某種程度上都與控制有關,同意作為控制的手段,是資料保護的核心。人形機器人影響個人的方式更加微妙、更加自動化、更加不透明。且不論人形機器人能否做到充分告知資料收集和利用的政策,即便能通過技術手段解決告知問題,面對類人的機器人,人們是否還有足夠的理性作出最符合自身利益的決定?尤其是當機器人具備情感交流等互動特質時,引誘使用者作出的同意是否有效?如何判斷機器人是否存在引誘等行為?此外,對敏感個人資料的收集和處理如何做到單獨同意?如果機器人與使用者交流時不斷彈窗單獨提示可能會收集使用者的敏感資訊并要求其同意,勢必影響到使用者體驗,二者之間又如何協調?在未成年人資料保護方面,兒童是使用陪伴型具身智能體的主要人群之一,機器人往往是在家長無暇或無須取得其監護人的明示同意規則?

其次,目的限制原則在具身智能體場景下被無限突破。目的限制原則被一些學者稱為資料保護中的“帝王條款”,是個人資訊控制的實作方式。根據個人資訊保護法第6條第1款,該原則要求“處理個人資訊應當具有明确、合理的目的,并應當與處理目的直接相關,采取對個人權益影響最小的方式”。具身智能體可以無時無刻持續收集使用者的個人資訊,包括敏感個人資訊,然而具身智能體的湧現性特征和自主行動的特征,讓資訊處理者根本無從判斷資訊收集使用的最終目的,這從根本上突破了資料保護中的目的限制原則。

再次,最小必要原則在具身智能體場景下幾乎不可能實作。從體系解釋上,最小必要原則依賴于目的限制原則,資料的收集和處理應當在合理目的的範圍内最小化,超出合理目的範圍的收集就是不必要的。一方面,必要性原則作為個人資訊處理的整體性原則,不能通過告知同意規則進行規避。另一方面,具身智能體自主行動的特性顯然無法滿足目的限制和最小必要原則,因為智能體必須不斷收集環境和個人的資料,才能依據這些資料來進行決策和判斷下一步的行動,而且在目的并不明确的情形下,有意義的“最小必要”根本無法保障。

最後,完全自動化決策拒絕權被架空。既有的資料保護法從某種程度上對人工智能系統中的資料保護是有所考慮和規定的,比如賦予資訊主體拒絕權以防止完全自動化決策對個人生活的影響及傷害。然而,自動化決策及行動是具身智能體的本質屬性,資訊主體在知悉和了解該屬性的前提下,接納具身智能體進入個人的生活,是否就等同于同意和接受了完全自動化決策和自主行動可能帶來的實際影響?如此,資料保護法中的資訊主體的拒絕權還有無必要?是否還有實作的空間?

除上述列舉外,無論是從權利的角度賦予個人對資訊的控制權,還是從義務的角度要求處理者履行對資訊的處理義務,資料保護的許多規則均依賴于對資訊的控制。然而在自主湧現系統中,很多情形下會對控制進行颠覆,例如使用者給人形機器人布置了陪伴老人的任務,機器人卻以一種意料之外的方式完成了這個任務,比如通過洩露使用者隐私來吸引老人的注意力。概言之,過去的資料處理整體上是線性的,“收集—分析—決策—使用”,每個環節個人或處理者都有一定的控制權,資料生成模糊了資料收集和資料處理之間的界限,非線性處理方式的複雜性會增加控制的難度,使得許多隐私保護法律變得無效。

2.侵權責任難以歸責

隐私和個人資訊侵權事件中,由于往往不知道是哪個環節洩露了個人資訊,确定責任主體的困難嚴重阻礙了受害人的訴訟積極性。疊加大規模微型侵權的維權成本和訴訟收益之間不成比例,侵權責任中的因果關系難以厘清等現實困境,受害人很少會通過訴訟途徑進行維權。除了上述固有的隐私與資料保護難題,具身智能體侵權的獨特性在于,一旦使用者的隐私或個人資訊權益受侵害,如何準确界定侵權主體以及界定侵權責任将成為核心議題。

具身智能體能否成為侵權主體?這一問題可還原為具身智能體是主體還是工具之辨。機器人越來越模糊了人與工具之間的界線,2017年沙特阿拉伯宣布授予機器人“索菲亞”以公民資格,這就促使法學界進一步思考具身智能體是否具有獨立的主體地位。肯定觀點認可人形機器人具有類人的特性,尤其是深度學習、神經網絡等技術賦予了人形機器人生成“觀點”、自我“反思”、“感受”環境等與人相似的技能,甚至有些領域的機器人可以在“反事實”層面與世界互動,而具身的存在可以讓機器人在感性世界中行動,成為類人主體意義上的存在。此類可以反思、互動及行動的機器人形象在各種影視作品中并不鮮見,未來可基于現實需求從侵權責任主體開始,承認人工智能的法律主體地位。

反對觀點則認為機器人現在是、未來仍将是工具。機器人是(可以)運用複雜軟體的進階工具,但本質上無異于一把錘子、一台電鑽、一個文字處理軟體、一個網絡浏覽器或者車裡的刹車系統。人格理論經過幾個世紀的變革,即使把純粹技術性的法人納入了主體的範圍,但本質依然是倫理性的,是自由意志。機器人是否已經擁有了自由意志?自由意志包含了三個階段,分别是感覺、感覺和自我感覺。感覺已經可以通過傳感器技術實作;感覺則可以通過資料的收集分析和解釋;但是機器人是否已經實作了自我感覺,即便到目前,依然是一個未知數。有學者斷言,人工智能或許可以進行快速的計算,但是它缺少精神。至少從中短期來看,無論是技術能力還是社會環境,似乎都還沒有到人工智能法律人格獲得廣泛認可的階段。

一方面,将具身智能機器人完全歸類為主體或工具均有一定難度,另一方面人們普遍傾向于像對待人一樣對待具身智能體,這一悖論威脅了主客體二進制價值觀。也使得在具身智能體侵權事件中确認責任主體難上加難,法律主體責任說之外,還産生了産品責任說、高度危險說、用人者責任說等代表性觀點。總之,機器人的拟人化不是賦予其法律人格的理據,但是,考慮到一般社會大衆與這些機器人接觸時,在某些特定環境下易陷入“人格化陷阱”,且自主行動的機器人決策的背景、依據、機理、程式等甚至連程式設計者都無法洞察,似乎應該賦予智能體有限責任。

由于人工智能體的法律人格難題,導緻侵權責任主體不明确,具身智能技術的發展使得這一界定變得更加模糊。在涉及人工智能體的侵權案件中,設計者、制造商、所有者以及實際使用等均可能對侵權行為承擔某種程度的責任,但是現行的法律體系并未充分考慮到這些新的責任主體。

三、具身智能體場景下的隐私和資料保護

具身智能體侵害隐私的行為極具迷惑性,責任主體更難确定,隐私與資料保護的理論和既有規則均難以回應。為纾解具身智能體場景下隐私與資料保護的困境,一方面應當對既有規則架構進行改進,以更好地适應具身智能場景;另一方面在即将開展的人工智能立法中,應當加強對資料保護相關理念的植入,確定其符合法律和倫理要求。

(一)資料法中隐私與資料保護規則的轉進

傳統的個人資訊同意機制本身在應對大資料和人工智能的挑戰時已經舉步維艱,這種困難在具身智能體的背景下更加凸顯。過度依賴同意機制可能會導緻忽視其他重要的隐私保護措施。但完全取消同意機制可能剝奪個人對其個人資訊處理的控制權,違背了資料保護的核心原則。

1.避免過度依賴個人同意制度

早期的讨論主要關注在數字時代消費者或公民能夠多大程度維護個人資訊的控制權,是以個人資訊同意機制成為各國資料立法的重要選擇。但人工智能的資料收集方式使得使用者同意機制形同虛設。智能系統收集大量使用者資料的目的和用途往往是未知的,大量研究表明,人們并不清楚自己在同意什麼。目前各大網際網路公司已經在更新其隐私政策,表明其将使用使用者個人資訊以支援其人工智能的開發。是以,同意制度一旦被處理者所濫用,可能異化成為個人資訊處理的“自由通行證”。比如資訊處理者往往借助一攬子同意為不當處理或濫用個人資訊的行為免責,或是通過擷取使用者同意超過必要範圍收集使用者個人資訊。這些行為顯然違反了個人資訊保護中的安全保障、目的限制、最小必要等原則。同意機制已經淪為了一塊遮羞布,隻是為了展示形式上符合法律法規的資料合規。

驅動具身智能體的算法進一步使得問題複雜化,這些算法依賴于大量的資料,為了能夠評估其風險,人們必須成為專業的資料科學家,同時還必須能夠審查用于訓練算法的資料,顯然這是不可行的。在生成式人工智能的背景下,即便是設計者也并不一定真正知曉決策的背景和邏輯,是以,要求對決策的基礎和決策的過程幾乎一無所知的使用者作出基于真意表示的同意,顯然違背了賦予個人同意的初衷。

此外,人形機器人等具身智能體可能涉及引誘、操縱使用者等情形,這更放大了同意制度本身的缺陷。個人面對引誘或操縱時,可能會受到情緒、壓力、欺騙等因素的影響,無法在理性的情形下作出決定,導緻決策失誤,比如一個拟人化的機器人吸塵器在了解使用者的個性後,在軟體更新時發送悲傷的表情引導收取費用。是以更應避免過度依賴個人同意制度。

最後,應當認識到的是,購買者主動購買或使用具身智能體,比如家庭機器人,并不意味着購買者主動對隐私進行了讓渡。有觀點認為如果個人真的重視隐私,可能會選擇不購買這些産品。這一觀點是對資料進行中的同意制度的誤讀。一方面,同意購買并不等同于同意處理,盡管可以将同意處理作為附加合同條款寫入買賣合同,但這樣的行為可能被視為一種搭售,違反了當事人的自由意志,屬于不公平的合同條款,可能導緻相關合同條款無效或部分無效。一旦發生損害使用者個人資訊權益或隐私的事件,該種同意無法作為商家或設計者的免責事由。另一方面,同意處理個人資訊也并不意味着同意濫用和同意損害個人權益,資訊處理者在處理個人資訊的時候依然要遵循個人資訊保護法的相應原則和規則。是以購買合同中的資訊處理附加條款隻能意味着使用者在一定程度上了解機器人可能會有一些潛在的風險,但并不意味着就完全讓渡了隐私,這樣的同意也無法為後續所有的資訊處理賦予合法性基礎。

2.弱化同意機制并不等于取消同意

完全取消知情同意機制并不可取,弱化同意機制并不等于取消同意。在具身智能體場景下,同意機制很難真正保障個人對個人資訊的控制,但并不能因為完美的個人控制的不可能,就得出有效的控制不可能的推論。就像鎖可以被撬開,并不意味着鎖毫無用處。即使是部分的控制,也能有強有力的影響。況且保留同意機制以保障最低限度的自我裁量,有利于強化使用者的主體意識,而非退化為“襁褓中的嬰兒”,由機器人來決定和安排自己的生活。人的自由裁量确實有時候是代價高昂、效率低下且容易出錯的,但如果讓渡這種自由裁量,無疑是讓渡了人的主體性。

具體操作上,可以對同意機制進行制度上的改良。比如智能系統可以通過主動身份驗證、聲音驗證、人臉驗證等方式來識别出特定群體,并據此采取不同的同意機制。根據人群的不同,可以區分弱勢群體和非弱勢群體。所謂的弱勢群體,可能包含了未成年人、老年人、精神脆弱群體等。比如針對未成年人,確定未成年人使用機器人時有家長的同意,比如自動給家長的智能手機發送實時通知并獲得家長的有效同意;針對老年人群體,采取簡單易懂的同意方式,避免過于複雜和冗長的說明,比如通過輕松日常的對話等方式來告知使用機器人可能有的隐私風險;針對精神脆弱群體,需要特别關注其心理狀況,并結合輔助人員或醫護人員協助其作出符合其心智特征的同意。

對于非弱勢群體,為確定資訊主體能夠對其個人資訊保持持續的控制,有學者提出可以采用動态同意模式,以應對資料及其在人工智能體中使用的不斷變化的性質。在這種模式下,個人可以根據自己的意願和偏好随時更新和修改對資料處理的同意範圍、同意内容以及同意方式。同時為避免反複征詢授權緻使資料主體安甯權受損,可預設一定時間的“連續授權許可”。即在一定期限内,個人的同意可以持續有效,無需頻繁重新确認和操作。

此外,具身智能體場景往往涉及敏感個人資訊的收集和處理,根據個人資訊保護法的規定,“隻有在具有特定的目的和充分的必要性,并采取嚴格保護措施的情形下,個人資訊處理者方可處理敏感個人資訊”。除單獨同意之外,可以借鑒醫療決策中的參與式同意方式,參與式同意模式強調使用者的積極參與和充分了解,即一旦涉及敏感個人資訊,需要反複和使用者溝通處理的範圍和處理的手段,反複确認使用者的意願,最終和使用者共同決策實作合法正當的資訊處理,提升人機互動的使用者信任度和滿意度。

(二)人工智能立法中的隐私和資料保護

人工智能立法已經邁入大規模立法新階段,2023年6月,中國國務院辦公廳印發《國務院2023年度立法工作計劃》,明确提出“預備提請全國人大常委會審議人工智能法草案”。以歐盟《人工智能法案》為代表的立法采取了“弱化個人控制,強化損害和風險”的模式,通過制定預防性的規則,歐盟法案更關注開發或實施人工智能系統的參與者(提供者),以填補資料保護法留下的一些空白。

1.通用型具身智能體市場化的禁止

早在20世紀60年代初,人工智能概念的提出者之一明斯基就認為,“程式設計者肯定可以創立一個不斷演化的系統,而其發展界限是他不清楚和可能無法了解的”。而圖靈則提出了通用計算機概念,并且還設想了建造計算機用于模拟人工智能的可能性,包括怎樣測試人工智能以及機器怎樣自主學習。是以,通用型人工智能是計算機科學家的理想,也是科幻作品中最具代表性的一類機器人原型,它們幾乎等同于人類,可以在多個任務線之間随意切換,可以同時扮演不同的身份和角色。如兩位人工智能領域的先驅所料,日前英偉達公司已在組建通用具身智能體實驗室GEAR,該實驗室的目标之一是研究和開發通用型機器人。通用型機器人也許很快可以在實驗室問世,但市場化的智能體必須是功能導向的,且須有明确的應用場景。

歐盟《人工智能法案》将人工智能應用場景的風險分為:不可接受的風險、高風險和有限風險,制造不可接受的風險的人工智能系統将被禁止。可見,該法案中對通用目的人工智能(GPAI)進行了限制,明确規定其可能被視為高風險人工智能系統。筆者以為,通用型具身智能體(或通用型機器人)的風險是不可接受的,應當被禁止。從隐私與資料保護角度出發,主要有以下幾個方面的原因。

第一,通用型智能機器人可能會涉及廣泛的資料收集和處理,它們被設計成能夠适應各種不同的場景和任務。“生成式的人工智能系統并非為特定的場景或使用條件而建立,其開放性和易于控制使其具有空前的使用規模。”因為其功能面向廣泛,涵蓋多個場景,是以在收集和處理資訊時往往無法滿足目的限制原則和最小必要原則的要求,資訊的使用也無法控制在特定的範圍之内。如果一個被設計用來陪伴老人的陪伴型智能機器人,在陪伴的過程中利用收集的老人個人資訊進行自動化決策購買廣告商品,家庭和商業不同的社會場景有不同的目的,前者注重對人的陪伴和照顧,後者則要求經濟利益的最大化,這兩者之間會産生一定的沖突,如果要求機器人同時兼顧上述兩種目的,就會導緻陪伴型機器人自動購買商品等事件,這顯然是不合适的。

第二,不同的場景對收集的資料數量和品質有不同的要求。比如在家庭場景中的陪伴型機器人和在商業場景中的智能體就存在顯著差別,前者重資料品質相對輕數量,主要原因在于前者服務于少數家庭成員,需要精準滿足和了解家庭成員的需求和偏好,是以收集的資料必須準确和可靠,以提供高品質的個性化服務。而商業場景中更重數量,對品質要求則沒有那麼高。原因是智能體往往服務于商業決策、市場營銷等功能,為更好了解客戶需求和市場趨勢,需要收集大量的資料,而對資料品質的要求可能相對靈活。

第三,智能機器人作為特殊用途的“人類”,如果設定特定的場景,為特定的原因或功能而存在,在行為方面模仿人類相對容易,但通用型機器人的“領悟”和“模仿”較弱,還不足以模仿人類的微妙心理和在不同場合下調整其言行。如果機器人無法準确模仿人類的行為和心理,那麼在特定情境下使用它們可能會導緻誤解或不當行為,進而影響到個人的隐私和個人資訊權益。是以,明确機器人不能通用化,而應該針對不同場景進行應用,是必要的。

此外,缺乏具體社會場景的具身智能體權責不明,無法形成相應的法律關系。從社會技術視角來說,具身智能體的運作和影響都嵌入在社會結構之中,唯有如此才可以更好地發揮其服務人類的作用。技術進入人類的生命和活動網絡之中,并成為其組成部分,因而産生了相應的後果。技術影響并不是事物本身的特征,而是使用這些事物的社會關系的特征。是以,圍繞着智能機器人在不同社會場景下的角色,發生的一系列法律事件或法律行為,最終導緻了主體的權利得喪變更。比如醫療人工智能、司法人工智能與完全自動化的替代性自動化駕駛汽車,其與使用者之間的社會關系不同,引發的風險不同,法律關系自然也不相同。實際上,技術所引發的法律關系有兩個不同的層面:其一是新技術如何影響人們的生活,其二是人們如何與使用新技術的其他人互動。當通用機器人的社會地位不完整、場景不确定,甚至是随機的時候,這種法律關系就也是不确定的。是以,隻有在具體的場景中,具身智能體的功能和作用才是明确的,因而其中的法律關系和法律責任也是清晰可識别的。

2.人工智能設計中的資料保護原則

随着具身智能系統越來越多地處理敏感個人資訊,如何通過預防性的措施來保障使用者的隐私和安全成為人工智能立法的重點。即便在人工智能将以不可預見的方式發展的情況下,人工智能的設計者或生産者仍然可能會被認為是了解和控制風險的最佳人選。“通過設計的資料保護”早已是資料保護領域預設的一項重要原則,這項原則主張隐私和資料保護應該被整合到設計階段。強調了需要制定健全的資料保護政策和實踐,以防止個人資料的濫用和未經授權的通路。既往的研究早已表明“代碼即法律”,輸入系統中的知識和模組化過程中涉及的假設可能反映了系統設計者的偏見,計算機硬體和軟體的組合,像其他形式的規範一樣,可以限制和引導人類行為。

結合具身智能技術和應用的特點及隐私與資料保護之要求,設計者設計系統時,有幾個方面可以綜合考慮:(1)設定隐私,即設計者保障使用者在隐私保護中的參與,在系統或應用程式中提供使用者自定義設定資訊收集和處理的功能。(2)資料自動删除,即在收集和處理敏感個人資訊或臨時性的浏覽資料後,除非有充分的必要性,否則在一定期限後一概自動删除此類資料的功能。(3)匿名化和去辨別化。設計者可以在收集和存儲資料過程中對個人的身份資訊進行處理,確定通過一般性的技術手段無法識别到特定個人。(4)位置隐私保護。個人位置資訊的特殊性質決定了其一旦被洩露,可能會影響到個人的人身自由和人格尊嚴,是以應當采取原則上禁止、例外允許收集的方式。尤其是具身智能體有行動的能力,更應當明确禁止其收集使用者的位置資訊。

以上種種設計隐私的政策,隻是設計中的“冰山一角”,此外,監管機構對設計者的問責機制也不可或缺。針對侵權主體難以确定的問題,通過設計的資料保護義務也成為設計者“可責性”(account ability)的理據。可責性指的是確定相關參與者對其行為和決策承擔責任,并能夠提供解釋和證明其行為的合理性和合法性。換言之,在無法明确侵權主體或責任成立的因果關系無法查明的情形下,被侵權人完全可以依據設計者對系統的可責性進行訴訟,由設計者舉證證明自己不承擔具身智能機器人侵權的責任。已有研究表明,在設計智能機器人的時候,設計者會将更深層次的哲學、倫理甚至政治觀點有意無意融入設計工作中,是以應該更多地思考(機器人)運作的環境以及人類對設計這些環境的責任。在具身智能體的背景下,可責性涉及確定設計者和監管者對于應用的功能、資料收集和處理、算法運作等方面負有透明度、可解釋性義務,并能夠接受外部審查和監督。這有助于防止濫用、不當使用資料或算法的情況發生,并提高對于應用運作的合理性和合法性的信任度。

結語:隐私理論的又一次疊代?

科幻作家威廉·吉布森在《神經漫遊者》中曾說:“未來已至,隻是分布不均。”我們對技術的想象,經曆着從不可能到可能。如果說過去讨論機器人技術還有很多幻想和寓言的成分,那麼現今智能機器人正在成為現實社會的一部分,深刻影響人類生活。曆史上,技術的每一次革新都引發了隐私理論裡程碑式的發展。便攜式相機的日常化,使得偷拍變得輕而易舉,因而沃倫和布萊代斯在《隐私權》一文中呼籲一種“不受幹擾的權利”;小型計算機的普及及存儲能力和計算能力的增長,使得個人資料被無限記錄和存儲,大規模洩露也成為可能,是以引發對數字利維坦的恐懼;進入21世紀以來的智能技術的發展,更加劇了對算法黑箱等問題的擔憂……

具身智能技術對隐私産生了衆多挑戰,雖然這些挑戰并非全新,但毫無疑問,它們讓問題變得更為複雜和棘手。對既有的隐私和資料保護法律制度的“剪裁”和“縫補”已不足以全面回應這些難題。理論上的革新和疊代已經勢在必行,本文雖無法從根本上解決這一龐大的理論難題,但亦希望為未來的研究提供一點思考和啟發。

具身智能體的隐私風險及法律應對——以“人形機器人”為例的展開

繼續閱讀