人工智能技術(shù)的發(fā)展對未來人類社會構(gòu)成治理挑戰(zhàn)的是,社會技術(shù)系統(tǒng)對公共生存領(lǐng)域的廣泛嵌入與重構(gòu),這涉及智能機器的自主權(quán)與人類控制權(quán)之間的新型分配秩序問題。近年來,隨著自動駕駛、手術(shù)機器人、智能家居、智能招聘、智能問診等算法決策系統(tǒng)的商業(yè)化與社會化應用的日益普及,使得人類主體在關(guān)鍵決策領(lǐng)域不斷讓渡控制權(quán),而智能機器自主權(quán)擴大的同時,又相應增加了人工智能的倫理、法律與社會監(jiān)管問題。在此情境下,人工智能治理重新強調(diào)人類必須保證對智能機器自主決策行為的控制。但在如今非直接操作意義上,如何界定更為抽象的控制關(guān)系,如何保持道德規(guī)范和明確的人類責任?對此,便有了“有意義的人類控制”(Meaningful Human Control,MHC)這一新興人工智能倫理治理原則及其理論框架來指導實踐。
發(fā)展歷程與理論框架
近些年,負責任創(chuàng)新、價值敏感性設計、道德物化等研究領(lǐng)域強調(diào)的研發(fā)階段價值嵌入的倫理設計理念,占據(jù)了人工智能全球治理領(lǐng)域的主流。但是,即便在技術(shù)研發(fā)早期階段進行價值嵌入,可能依然無法規(guī)避人工智能在應用時引發(fā)的潛在風險。原因主要有以下兩點:一方面,人工智能是一項變革性技術(shù),能夠全面滲透人類生存空間并重塑社會生產(chǎn)關(guān)系。因此,指導人工智能應用的價值觀念是在動態(tài)演變的。另一方面,人工智能技術(shù)的迭代速度非常快,尤其是在逐步取代人類決策的控制權(quán)方面影響深遠。在可預見的未來,人工智能領(lǐng)域可能出現(xiàn)“完全自主”級別的智能機器系統(tǒng),或?qū)θ祟惿鐣刃驇碇卮筇魬?zhàn)。在交通、醫(yī)療、家居等同人類生活緊密相關(guān)的領(lǐng)域,交由智能機器全權(quán)決策,可能并不符合人類的權(quán)利和道義。因此,人類與機構(gòu)而非人造技術(shù)物及其算法,應最終控制高階自主系統(tǒng)的決策行為,并承擔倫理與法律責任。
這一框架性的假設前提,最早出現(xiàn)在對人類生存最具威脅性的人工智能驅(qū)動的系統(tǒng)——“致命性自主武器系統(tǒng)”(Lethal Autonomous Weapon Systems,LAWS)領(lǐng)域。2012年,美國國防部頒布了3000.09指令,首次在國別層面提出自主武器系統(tǒng)的全生命周期必須得到人類控制并充分反映人類指揮官、操作員的意圖。2014年,紅十字國際委員會向全球傳達就LAWS的關(guān)鍵功能實施MHC的理念,形成了廣泛共識。同年,聯(lián)合國《特定常規(guī)武器公約》正式開始將LAWS遵循MHC的倫理議題納入框架議程。直至當前,MHC已發(fā)展為國際社會探討LAWS的倫理、法律與公共政策框架的概念核心。不過,這一概念在實踐層面仍缺乏統(tǒng)一界定。主要原因在于,LAWS具有特殊性,并不是同未來人類生存與生活存在普遍關(guān)聯(lián)的社會技術(shù)系統(tǒng),不大可能對傳統(tǒng)公眾生活模式進行顛覆。但從該領(lǐng)域?qū)HC概念的研究闡述,可以揭示人類控制智能機器并承擔道德責任的基本條件:作出有意識的決定、充分理解行為的合理性及其情境、掌握應用自主系統(tǒng)的技能與知識。
不過,以上這些條件并不容易實現(xiàn)。人工智能的根本倫理挑戰(zhàn)是責任鴻溝問題,這主要是在復雜場景的人機交互過程中才逐漸顯現(xiàn),導致技術(shù)性、經(jīng)濟性、道德性、政治性等多方原因的混合介入。另外,責任鴻溝也有多種類型,不只是道德責任,還有應受責備、公職責任、主動責任等。人與高階智能機器的交互關(guān)系,普遍不是直接操作意義上的,不能被簡單界定為“一對一”(操作者直接引導技術(shù)設備或系統(tǒng)的行為)的因果責任。因而,人類與智能機器之間整體上是一種新穎的“分布式控制”關(guān)系,以此作為責任歸因的行動基礎,就需要新的理論框架。
MHC這一概念有兩個基本構(gòu)成:“有意義”與“控制”。“有意義”指代人類控制智能機器行為并承擔道德責任的基礎條件。“控制”涉及人類主體對智能機器的控制形式的多元化。不同的控制與責任形式的集合,有利于對智能機器行為監(jiān)督機制的實現(xiàn)。這為消解責任鴻溝問題,提供了理論切入點。德西奧(Filippo Santoni de Sio)和范登霍溫(Jeroen van den Hoven)就MHC的道德哲學基礎進行了開創(chuàng)性論證。他們基于當代相容論的論證理路與認知科學、心靈哲學的最新研究成果,提供了一種社會技術(shù)系統(tǒng)視域下“追蹤—追溯”雙重條件的規(guī)則性框架。
“追蹤”原則涉及人類控制者與受控系統(tǒng)之間的關(guān)系性本質(zhì),即系統(tǒng)行為能夠隨時隨地反映實踐情境中人類行動理由(意圖、計劃或是道德理性)的程度或質(zhì)量。這一概念在哲學與倫理學中的意蘊,即允許非直接操作意義上的控制形式。“追溯”是對“追蹤”的補充,指代系統(tǒng)行為應至少溯及一個負責任代理人(使用者、主管、設計師、立法者等)的能力。這些代理人要掌握技術(shù)的顯性知識和默會知識,并意識到自身的道德承受者身份。
倫理規(guī)約機制
目前,MHC理論已規(guī)定了大致的內(nèi)容與目標。根據(jù)“追蹤—追溯”雙重設計原則,實現(xiàn)MHC為導向的智能機器倫理設計,是以整體社會技術(shù)系統(tǒng)為對象,而不限于單一的技術(shù)硬件及其研究階段的價值嵌入。不過,將MHC的規(guī)范性指示轉(zhuǎn)化為可行的操作存在一些困境:追蹤標準需要確定那些代理人是誰、行動理由是什么;追溯標準需要識別這些代理人是否同時兼具技術(shù)專長與道德意識。
針對追蹤原則的可操作性困境,梅卡奇(Giulio Mecacci)等人基于行動哲學、行為心理學和交通工程學的研究成果,提出了一種可聯(lián)結(jié)、可解釋人類行動理由與系統(tǒng)行為之關(guān)系性的“理由接近度量表”(proximal scale of reasons)。追蹤原則的操作性標準,需要代理人、行動理由對系統(tǒng)行為產(chǎn)生影響的程度可量化,以此界定道德與法律責任主體。以代理人與系統(tǒng)在時間、空間上的近端和遠端為劃分依據(jù),代理人可區(qū)分為系統(tǒng)內(nèi)部代理人與系統(tǒng)外部代理人,然后可根據(jù)代理人在內(nèi)外系統(tǒng)的遠近再進行四重角色的區(qū)分。
追溯原則的實現(xiàn)標準,需要能夠衡量人類在多大程度上從技術(shù)專長與道德意識層面理解智能機器的設計、部署與操作,即緊密穩(wěn)定在控制鏈上。但這里的抽象性要素存在可量化的困難。卡爾弗特(Simeon Calvert)開發(fā)了一種“評估級聯(lián)表”(evaluation cascade table),可以為事關(guān)知識、能力和意圖的純粹定性評估提供實證基礎。
首先,需要細化受控系統(tǒng)中技術(shù)專長與道德意識的類型。對于智能系統(tǒng)而言,代理人的技術(shù)專長可分為系統(tǒng)性知識與決策能力。前者涉及應用智能機器的(形式化與非形式化)知識以及既有(主動或被動的)經(jīng)驗,后者是實施行動理由(戰(zhàn)略、戰(zhàn)術(shù)、操作)的能力。道德意識則包含基本價值準則(問責、透明度、可解釋等)的理解與道德的所有權(quán)意識(倫理與法律責任、對他者的影響與自身的職責定位)。
其次,需要就知識、具身性到道德感層面進行系統(tǒng)控制的能力,采用評估級聯(lián)表進行感知調(diào)查。這是基于“李克特量表”(Likert scale)的綜合應用,逐級從實施操作控制、人類代理人的參與、代理人理解和使用該系統(tǒng)的能力、代理人理解他們對系統(tǒng)的道德責任的能力,這四個方面對作為控制主體的代理人參與程度進行感知調(diào)查,通過加總方式計分來判斷參與程度的大小。
接下來研究的關(guān)鍵是,在社會技術(shù)系統(tǒng)內(nèi)“追蹤—追溯”雙重標準的整合反而成了問題。如何判斷滿足追溯條件的技術(shù)專長和道德意識的代理人與實現(xiàn)追蹤條件的代理人是同一主體,并且履行對應的法律法規(guī),都需要進一步拓展MHC的哲學框架與案例研究。
總體而言,MHC作為倫理原則的意蘊是要重申人工智能應用領(lǐng)域的人類安全權(quán),其理論旨趣及實踐目標是要解決技術(shù)的控制問題,從而充分反映人類的理由與意圖。MHC研究的迅速推進,預示著人工智能全球治理進入新的階段。智能系統(tǒng)的操作者可能不再被視為最主要的追責主體,在智能系統(tǒng)控制鏈上的代理人其參與程度將決定其責任地位。我國正處于人工智能蓬勃發(fā)展機遇期,需要關(guān)注國際社會前沿的人工智能倫理研究,及時借鑒并完善適用本土的政策法規(guī)。在MHC的道德哲學框架中,可以納入本土的倫理要素與問責機制來拓展理論基礎,進而指導、監(jiān)督人工智能的全生命發(fā)展周期。
(本文系國家社科基金重大項目“深入推進科技體制改革與完善國家科技治理體系研究”(21ZDA017)階段性成果)
(作者單位:清華大學社會科學學院)
編輯:李華山