作者:路向峰,系天津醫科大學馬克思主義學院教授
習近平總書記在主持中共中央政治局第二十次集體學習時強調,“全面推進人工智能科技創新、產業發展和賦能應用,完善人工智能監管體制機制,牢牢掌握人工智能發展和治理主動權”。人工智能時代,人工智能治理問題已超越技術范疇的界限,成為牽動人類未來發展的全球治理核心議題。從人工智能產生伊始,其制造、應用及自身作為一種顛覆性技術就伴生著關於倫理的隱憂,使傳統道德治理框架面臨一系列新挑戰,在人工智能賦能千行百業的現實境況中,也催生了全域性、前瞻性的倫理治理需求。可以說,人工智能倫理及其治理路徑的建構不僅是一項技術治理的階段性任務,更是未來數智社會倫理邊界厘定的題中應有之義。
建構人工智能治理的倫理規范
建構人工智能倫理規范的核心目標是為智能系統嵌入符合人類社會發展規律的道德判斷與行動准則,確保其在賦能經濟社會發展的全過程中始終以維護人類整體利益為根本遵循。實質上,在應用倫理學的諸多領域中,沒有任何一個領域像科技倫理那樣同責任概念聯系如此緊密。為了實現這一願景,倫理學界經歷了從阿西莫夫的“機器人三定律”,到維納的“機器應服務人類需求”,再到邁內爾等人倡導的“價值對齊”的理論演進。這些研究不僅指明了人機價值對齊的難點,更凸顯了從“價值對齊”邁向“價值共生”的關鍵作用。然而,由於人類認知的時空局限、價值編碼的固有困難及算法運行的技術邊界,人工智能倫理理論面臨顯著的運行局限。毫無疑問,人工智能倫理規范的建構不能止步於讓機器對齊靜態的人類價值,而應前瞻性地邁向人與機器在互動中實現共同理解、共同調適與共同演進的協同發展新階段。
我們如何在技術復雜性、算法不透明性與價值觀念多樣性的時代背景下,探索出一套可嵌入、可驗証、可持續的人工智能倫理規范成為問題的核心。這要求相關責任主體超越單純的技術邊界,構建一個需要技術突破、哲學反思、制度創新與社會對話協同推進的系統工程。2024年以來,《北京AI安全國際共識》《人工智能全球治理上海宣言》《上海合作組織成員國元首理事會天津宣言》等全球性文件的密集出台,標志著國際社會在人工智能倫理認同上形成關鍵共識,意在以人權保障、社會公正與人格尊嚴為核心,共同構筑人工智能時代的倫理治理框架。然而,共識的落地面臨深層挑戰,傳統“價值對齊”觀念根深蒂固,而現實中的價值協同實為動態雙向的調適共生。有鑒於此,形而上層面的人工智能倫理規范的建構必須追溯人工智能倫理何以成形、回應人工智能倫理何以立本、破解人工智能倫理何以克難、架構人工智能倫理何以應變的時代之問。這些關涉人工智能倫理的追問構成人工智能體內在的“價值羅盤”,使其有可能真正成為人類可信賴的文明伙伴,進而構筑人機共榮、智能向善的未來。
在人工智能倫理的實踐建構中,有三種可能性,即自上而下的規范貫徹、自下而上的經驗學習以及融合二者的混合。這三種人工智能倫理構建的可能性不僅塑造了人工智能倫理理論的發展方向,也深刻影響著全球范圍內的人工智能倫理實踐。自上而下的規范貫徹是將人類既有的倫理原則編碼為計算符號,通過算法指令嵌入人工智能系統,達到規范人工智能體行為的目的。自下而上的經驗學習是通過模擬進化與道德習得,借助機器學習與系統組織演化,使人工智能從具體情境中歸納道德原則、形成決策能力,最終完成從經驗到規范的自主演進。混合進路是綜合自上而下與自下而上的方法,基於倫理理論指導,通過模擬、訓練與試錯動態生成並優化倫理准則,同時融入情感、認知等功能來增強道德決策能力,並強調哲學、計算機科學等多學科協同研究。
人工智能治理的倫理本質
日益向我們走來的數智時代已經使人工智能及其倫理問題不再僅僅是形而上層面的哲學思辨,而是日益緊迫的應用倫理問題。人工智能作為一種顛覆性技術,在技術演進與社會化應用的過程中,必然產生復雜的倫理爭議與治理難題。
回望人工智能倫理建構的主流理論路徑與治理實踐,不難辨識出三個貫穿始終、相互關聯的本質問題:首先,人工智能倫理建構模糊了“以利己為出發點的利他”與“純粹的利他”這兩種根本不同的行為動機之間的界限。在人工智能時代,信息資本主義加劇了數據壟斷。少數掌握信息優勢的主體存在濫用權力的行為,在權責不對等的情況下規避責任,將技術風險與災難性后果轉嫁給公眾,最終形成少數人獲利、多數人承擔代價的系統性風險。其次,人工智能倫理建構未能引導技術演化中文化觀念的動態流變,未將人類文明中最崇高的精神價值轉化為機器可理解、可遵循的內在原則。最后,人工智能倫理建構的過程未能充分辨識並響應人類生存所面臨的根本性、緊迫性威脅,陷入集體無意識和歷史虛無主義。換言之,人工智能對人類精神主體性的消解,將導致人的存在意義模糊與價值感虛化,使人失去對生命意義的探索。
現有研究在回應人工智能倫理風險時,有意無意地回避了兩個根本性問題:一方面,當人工智能全面融入人類生產生活過程,其既受科學探索內在邏輯的規制,亦受資本增殖與社會權力的外在塑造,而如何處理這個既對立又統一的矛盾是人工智能倫理建構無法回避的本質性問題。技術發展的根本驅動力——究竟源於科學自主性還是受制於資本與權力邏輯的塑造,直接決定了人工智能倫理建構的基點。科學技術進步帶來的結構性“勞動替代”與“能力剝奪”重塑了傳統勞動價值與生存根基﹔智能設計主體性的技術異化讓少數利益主體的壟斷性成為可能,但多數人的利益卻因技術排斥陷入功能性失能。公眾對智能系統的日益依賴,認知鴻溝持續消解著人的自主性與尊嚴。另一方面,當人類社會因人工智能過度應用而陷入價值困境與道德挑戰時,我們能否構建起人工智能倫理准則,成為另一個亟待破解的本質問題。簡言之,技術領域的倫理規則是否異化為某種形式的人機“游戲規則”?若人工智能倫理建構僅停留在技術層面的風險管控,視其背后深刻的資本邏輯規制與結構性不平等於不顧,“用算法防作弊”之類的治理悖論將不斷重現。
總體而言,破解人工智能倫理建構的疑難問題的過程也是審視人類“存在論”與“共存論”的過程,更是對人類精神世界與生存困境的深度覺察與主動回應。有效的人工智能倫理建構必須兼顧對技術工具的批判性審視與人類自身價值實踐的持續革新。隻有人工智能體在倫理設計中表現為利他行為,自反性的生成式人工智能治理過程才能真正開啟。
人工智能治理的倫理創新
人工智能倫理建構的過程實質上是人類憑借道德理性主動塑造科學技術演進的倫理方向的過程。具體而言,破解人工智能倫理疑難問題需要與之相適配的創新舉措,可以通過提倡風險共擔原則應對倫理風險形成“內共生”結構。同時,秉承“共存論”視角回應人類生存危難,進而實現人工智能倫理建構從被動適應到主動共構的轉變。
首先,提倡“風險共擔”原則應對倫理風險。現今人工智能技術的應用僅是將人類大腦的特定功能合成、模擬以及轉化出來。在這個階段,機器人設計者、制造商實質上為前置的倫理行為主體,必須共同承擔人機風險,如信息不對稱、權責不對稱、認知不對稱等,避免產生風險轉移現象。其次,形成“內共生”結構引導模因突變。在應對模因突變的挑戰時,人類與人工智能技術必須建構一種緊密依存的共生系統。在此系統中,二者並非簡單的主客關系,而是持續互動的協同關系,共同構成一個動態調整的“內共生”生態系統。這種共生關系不僅可以改變人們的生活方式,而且有助於推動人類社會的進步。最后,秉承“共存論”視角回應人類生存危難。在人工智能倫理建構的過程中,必須將責任與風險共存作為最高價值目標,系統性地預防與應對那些可能危及人類整體存續的極端性、生存性風險。實質上,為了分擔道德責任,人工智能的行為主體大至國家、民族,小至設計制造者都必須在某種意義上控制其行為並在整體上考量其道德責任。
在人工智能受到高度關注,同時衍生較大爭議的時代背景下,我們必須冷靜地思考人工智能治理中的倫理問題,合理規劃人工智能的發展方向,為其套上“倫理”規則的缰繩。隨著人工智能技術的深刻變革,人類的存在方式和道德實踐正經歷從穩固的主體性向流動的共生性轉變。人類作為認知與行動唯一中心的傳統地位逐漸消解,個體的自主性與尊嚴面臨深刻挑戰,社會公平和正義的基石受到侵蝕。面對人工智能帶來的系統性倫理風險,迫切需要一種能塑造價值坐標、鑄就道德基底、建構倫理秩序的應急倫理。未來社會,無論是人機協同,還是人機共生,都需要彰顯人性光輝,深刻洞察人類未來發展方向,積極防范人類社會發展疑難問題,引導智能社會的發展步入一個更為健康文明的軌道。由此,破解人工智能倫理建構及其治理難題,通過培育深刻的危機意識與價值韌性,為人機共生的未來筑牢動態穩定、值得信賴的倫理基線。
無論從人工智能引領科研范式變革的趨勢來看,還是從國家治理體系和治理能力現代化的需求來看,人工智能治理都必須在倫理學的視域中加以考量。通過對人工智能倫理構建的有效闡明,避免止步於讓機器對齊靜態的人類價值推演﹔通過對人工智能倫理本質及其邊界的分析和把握,始終保持對人工智能及其治理的清醒態度﹔根據人工智能的發展實際,不斷豐富和創新倫理學理論,理解、包容和指導人工智能發展,使倫理學學科發展緊跟科技創新步伐。唯有將倫理構建、倫理治理與倫理創新有機結合起來,才能促進人工智能向上向善發展,形成科技健康發展與社會持續進步的雙贏局面。