- +1
當代美國評論︱是時候改變侵略性的數(shù)據(jù)監(jiān)控模式了
面對人工智能在當前發(fā)展態(tài)勢下的倫理沖突和風險挑戰(zhàn),有兩個具體的問題值得展開切實的審度與調適:其一是數(shù)據(jù)權利與算法權力的再平衡;其二是人機共生時代的人機關系的再平衡。
談到數(shù)據(jù)權利,2018年5月,歐盟頒布了《一般數(shù)據(jù)保護條例》(GDPR),明確指出保護的主體就是個人數(shù)據(jù),而個人數(shù)據(jù)指與一個已被識別或者可被識別的自然人相關的任何信息。該條例對數(shù)據(jù)獲取權、修改權、被遺忘權、數(shù)據(jù)可攜帶權、異議權等數(shù)據(jù)主體的權利做出了明確的界定。這些數(shù)據(jù)權利在一定程度上體現(xiàn)了在數(shù)據(jù)的商業(yè)智能等數(shù)據(jù)智能應用中的問題,可以視為在價值和倫理層面對相關侵權行為的反制。
但同時也要看到,這些權利也并非無條件的絕對權利,都存在一定的限制。以對數(shù)據(jù)畫像異議權為例,只有當對用戶進行畫像等決策對用戶產(chǎn)生法律或者其他重大影響時,用戶才有權反對。
但這一條例出臺后,不論是從國際數(shù)據(jù)流通,還是從中國相關法律和倫理建設層面考慮,必須對其基本內容進行系統(tǒng)的研究,對相關數(shù)據(jù)權利的合理性與局限性應該有一個全面的認識。
在數(shù)據(jù)智能得到普遍應用的解析社會,個人數(shù)據(jù)權利的重要性不言而喻。在解析社會中,不論人們主動與否,大家都是數(shù)據(jù)的貢獻者,一切數(shù)據(jù)都被記錄,一切行為都被分析。數(shù)據(jù)智能不斷追蹤著每個人的數(shù)據(jù),數(shù)據(jù)與世界的等同性意味著對個體數(shù)據(jù)的追蹤,實際上就是對每個人的價值觀的追蹤。因此,在理解了非人格化智能算法正在用人們的行為數(shù)據(jù)定義人們這一事實的情況下,每個人都應該更加主動地參與到此過程中,使主體的能動性影響到基于智能算法的數(shù)據(jù)分析和數(shù)據(jù)畫像的過程與結果,通過必要的反饋與修正機制的構建,重獲西蒙棟意味的個體化議程的主導權。
由此,數(shù)據(jù)智能和解析社會的未來發(fā)展面臨著數(shù)據(jù)權利和算法權力的再平衡。鑒于個人數(shù)據(jù)權利的缺失終將導致全局性的信任稀缺,是時候認真審視和從根本上改變當下普遍存在的不無侵略性的數(shù)據(jù)監(jiān)控模式了。
為此,應該認識到智能算法和數(shù)據(jù)分析技術的應用,不能不考量普通主體的利害權衡,以及這些技術的可接受性,從而由智能技術的可接受性的維度出發(fā),構建全新的基于信任氛圍的數(shù)據(jù)共享模式。
首先,即便不能像歐洲的數(shù)據(jù)權利保護條例那樣提出高標準的數(shù)據(jù)倫理規(guī)范,至少也要促使企業(yè)、機構對智能算法的應用擔當起主要的責任。
其次,致力于尋求有利于營造信任氛圍的、務實的數(shù)據(jù)權利保護模式,促使數(shù)據(jù)交易各方對自己的行為負責,使每個相關主體知道相關的數(shù)據(jù)如何被處理,特別是用于其他用途的情形。使數(shù)據(jù)權利的主體在原則上有權決定對其數(shù)據(jù)的處理與洞察,以此減少數(shù)據(jù)的濫用,杜絕對數(shù)據(jù)主體的嚴重傷害。
更為重要的是,應從負責任的、創(chuàng)新的觀念出發(fā),形成更具反思平衡性的數(shù)據(jù)觀念。一方面,在提升數(shù)據(jù)主體的數(shù)據(jù)權利意識的同時,要促使主體通過追蹤自己的數(shù)據(jù),能動地反省其內在的價值訴求和價值觀念,并通過自我參與式的數(shù)據(jù)分析和數(shù)據(jù)畫像不斷改進自我。
另一方面,至關重要的是,應該走出過度地攫取數(shù)據(jù)的迷思,樹立數(shù)據(jù)有度的觀念,對非人格化的算法權力加以必要的節(jié)制。尤其應該在跨學科研究的基礎上,充分揭示當下具有高度侵略性的數(shù)據(jù)監(jiān)控模式對主體能動性的侵蝕,深入辨析其對個體行為的自由度及其自我修正和自由發(fā)展的潛在可能所形成的高度制約性。
為此,應倡導一種基于“節(jié)儉理性”而非“全能神理性”的數(shù)據(jù)和智能觀念,使數(shù)據(jù)的收集、存儲、處理和挖掘對主體權利的負面影響盡量減少,并以主體的可接受性作為數(shù)據(jù)智能應用的剛性邊界,倒逼數(shù)據(jù)挖掘和分析技術的創(chuàng)新,使其能夠更有效地發(fā)現(xiàn)有價值的數(shù)據(jù)模式。
就人機關系而言,在人工智能的未來情境中,即便未必會出現(xiàn)庫茲韋爾等人所宣稱的超級人工智能大爆發(fā)的奇點,但依然應該借助各種理論資源對可能帶來的重大影響和深遠后果及對策展開系統(tǒng)的分析與探究。
以所謂“無用階層”的出現(xiàn)為例,馬克思在晚年就曾有預見。在《機器論片斷》中,馬克思指出:“工人把工具當作器官,通過自己的技能和活動賦予它以靈魂,因此,掌握工具的能力取決于工人的技藝。相反,機器則代替工人而具有技能和力量,它本身就是能工巧匠,它通過在自身中發(fā)生作用的力學規(guī)律而具有自己的靈魂……科學通過機器的構造驅使那些沒有生命的機器肢體有目的地作為自動機來運轉,這種科學并不存在于工人的意識中,而是作為異己的力量,作為機器本身的力量,通過機器對工人發(fā)生作用?!?/p>
馬克思不僅強調指出,“機器無論在哪一方面都不表現(xiàn)為單個工人的勞動資料”,而且進一步預見,“對象化在機器體系中的價值表現(xiàn)為這樣一個前提,同它相比,單個勞動能力創(chuàng)造價值的力量作為無限小的量而趨于消失?!?/p>
倘若“無用階層”的出現(xiàn)難以避免,從社會風險防范的角度來看,一定要從創(chuàng)造性教育、人文素質培養(yǎng)上努力減少“無用階層”產(chǎn)生的沖擊波,通過系統(tǒng)的心理疏導和社會管控,從心理和精神層面展開智能化的引導和校正。
要克服機器掌控世界和智能化鴻溝等可能給人類文明帶來的風險,必須對人類在智能系統(tǒng)中的地位和作用加以認真的審視。
一般而言,如果將智能算法決策和自動智能系統(tǒng)的操作過程視為一個閉環(huán),人類對自動智能系統(tǒng)的控制一般有四種方式。一是人在閉環(huán)之中:人定義-機器人選擇-人確認-機器執(zhí)行。二是人在閉環(huán)之上:人定義-機器人選擇-人可以使之中止-如人未使之中止-機器人執(zhí)行。三是人在閉環(huán)之外:人定義-機器選擇-機器執(zhí)行,人無法中止。四是人與閉環(huán)無關:機器定義-機器選擇-機器執(zhí)行。
通過這四種方式可以看到,隨著自動駕駛和自動智能武器系統(tǒng)等能力與威力的迅猛增長,人對系統(tǒng)的控制作用卻在逐漸弱化,對風險防范和責任追究必將成為社會關注的焦點。但要克服這些風險并沒有捷徑,只能通過諸如“無人駕駛是否比人類駕駛更安全,更合乎道德”和“自動智能武器系統(tǒng)會不會比士兵作戰(zhàn)更人道”等悖論的探討,從具體的人機共生的可能情境中,不斷展開對人機關系的再思考。
為了從根本上抑制自動智能系統(tǒng)可能帶來的風險,應考慮引入若干促進人機相互理解與協(xié)同的策略。其一,將人與機器之間的相互理解作為自動智能系統(tǒng)的基礎和前提,其中既應包括理性層面的認知方式與知識表達層面的人機相互理解,還應包括人與機器之間的共情關系和同理心的構建。
其二,一些重大決策和執(zhí)行系統(tǒng)如果采用自動智能系統(tǒng),應有多個備份和功能類似的替代性系統(tǒng),以防范系統(tǒng)風險。
其三,構建人工智能應用特區(qū),在有條件的科技創(chuàng)新中心的部分地區(qū),廣泛、深入、充分地展開人機互動試驗,探索面向未來人機共生社會的創(chuàng)新文化。
-----
本文節(jié)選自作者刊于《當代美國評論》2019年第1期的論文“面向人工智能時代的倫理策略”。“澎湃”經(jīng)授權選編。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務許可證:31120170006
增值電信業(yè)務經(jīng)營許可證:滬B2-2017116
? 2014-2025 上海東方報業(yè)有限公司




