舊版網站入口

站內搜索

王福玲:人機信任問題的倫理審視

王福玲2026年01月05日09:47來源:光明日報

原標題:人機信任問題的倫理審視

作者:王福玲,系中國人民大學倫理學與道德建設研究中心暨哲學院副教授

數智時代,信任問題已經成為技術發展與社會倫理交織的核心議題。隨著人工智能技術的迅猛發展和廣泛應用,人工智能不僅影響我們的決策方式、工作模式與交往形態,更在潛移默化中參與意義建構、價值生成乃至主體性塑造的過程。醫療診斷、司法輔助、情感陪伴等,人工智能正以前所未有的廣度與深度介入人類生活實踐。在此背景下,人機共存與人機協作必然是未來社會發展不可抗拒的交往態勢。因此,人機信任也不再是一個可有可無的科技倫理議題,而是維系未來社會穩定運行的必然要求。

信任是維系人際交往的重要基石,信任是需要主動建構的。仁義禮智信是中華倫理體系的支柱。其中,信被視為人際關系中的重要法則。孔子認為,“民無信不立”,“人而無信,不知其可也”,這些箴言既是對個人的道德勸誡,更是社會運轉的存在論宣言。個人失信,將難以立足於社會﹔人與人之間缺乏信任,合作便無從談起﹔國家失信,則社會秩序終將瓦解。信任不是可有可無的道德裝飾,亦非可以隨意放棄的選項,而是社會運行得以可能的先決要素,是個體生存的前提條件。而數智時代的真正挑戰就在於,我們如何在技術不確定性、算法黑箱與思想觀念多樣的情境下,主動建構一種可問責、可解釋、可修正的信任機制,使其既能回應人類對安全與控制的理性訴求,又能承載對合作、意義與共同生活的倫理期待。

國家新一代人工智能治理專業委員會發布的《新一代人工智能倫理規范》提出,要“在算法設計、實現、應用等環節,提升透明性、可解釋性、可理解性、可靠性、可控性”。在處理人機關系中,算法應用的透明性、可解釋性、可理解性、可靠性、可控性是實現人機信任的關鍵前提。我們會發現,人與人之間的信任常常建立在情感紐帶、共同價值與制度保障之上,而非詳盡的解釋和說明,人與人的深度互信有時恰恰體現為“無需解釋”的默契。但人機交往或人機協作卻與此不同。當生成式人工智能在虛擬空間擔任類似“親人”“朋友”“合作者”等角色時,高度互信的人機關系需要建立在“可信人工智能”的基礎之上,並基於人機信任,形成一種技術交往層面的深度“默契”。因此,筆者認為,應從價值規范、制度設計以及文化培育三個層面防范人機交往或協作過程中可能出現的價值失准、倫理失衡等信任風險與挑戰,增進數智時代的人機信任,進而推動形成人機協同、跨界融合、共創分享的智能社會新形態。

首先,強化價值引導,防范系統性偏見的生成與放大。當前主流人工智能系統,尤其是基於大規模預訓練的大模型,其知識與行為模式高度依賴人類歷史積累的語言、行為與決策數據。這些數據不僅是信息載體,更深層地嵌入了特定社會的文化心理結構與價值偏好。當數據的採集、標注與使用過程缺乏價值反思時,人工智能系統便可能無意識地學習、復制乃至強化既有偏見,如性別歧視、階層固化等。更嚴重的是,此類偏見一旦被編碼進模型,便可能以系統性、隱蔽性和規模化的方式擴散,原本隱藏於數據背后的偏見會逐漸被客觀化。經過人工智能系統的處理與人機交互過程的反饋,這些偏見以一種看似科學、客觀的形式來呈現,變得更加難以甄別與糾正,形成算法偏見的再生產機制。國務院印發的《關於深入實施“人工智能+”行動的意見》提出,“推動哲學社會科學研究方法向人機協同模式轉變,探索建立適應人工智能時代的新型哲學社會科學研究組織形式,拓展研究視野和觀察視域。深入研究人工智能對人類認知判斷、倫理規范等方面的深層次影響和作用機理,探索形成智能向善理論體系,促進人工智能更好造福人類”。基於此,我們應積極推動哲學社會科學與技術等多學科的交叉融合與深度合作,揭示人工智能如何重塑人類的價值實踐機制,為制度設計提供理論支撐。在利用人工智能拓展人類認知邊界的同時,警惕其算法邏輯對人文精神的遮蔽。此外,要構建和完善多元主體參與的價值治理框架。技術開發者、政策制定者、倫理專家與公眾用戶應共同介入人工智能價值取向的識別、清理與重塑過程。唯有在系統設計之初就嵌入公平、正義與人類尊嚴等倫理考量,才能確保人工智能的發展方向真正契合人類的公共利益與長遠福祉。技術與價值的深度協同,才是“可信人工智能”的根基所在。

其次,明確責任歸屬,構建制度信任機制。在人類成員之間的合作中,個體對他人的信任,從根本上來說是基於對制度性約束的信心,即相信違約行為會受到應有的懲罰。這種“制度信任”構成了現代社會合作的基石。同理,在人機交互中,真正的信任不僅需要建立在算法內部運作的透明性和可解釋性上,更依賴於清晰的責任認定與追責機制。國家網信辦等七部門頒布實施的《生成式人工智能服務管理暫行辦法》中的相關規定在凸顯責任明晰、透明治理原則的同時強調對弱勢群體的特殊保護,為生成式人工智能的健康發展提供了重要的倫理依據和制度保障。我們須清醒地認識到,無論人工智能在計算能力或認知能力上如何逼近甚至超越人類,其終究不具備承擔責任的資格和能力。因為缺乏血肉之軀的人工智能無法真正理解適用於人類共同體中的獎懲意味著什麼,亦無法以人類共同體承認的方式來擔責。隻有人類才是承擔責任的唯一主體,因此明確人工智能研發和使用過程中不同環節的責任歸屬非常必要。這也是《新一代人工智能倫理規范》明確要求必須確保人工智能始終處於人類控制之下的倫理依據。在人機協作中,通過透明性、可解釋性來說明人工智能“如何運行”是基本前提。而人們需要處理的更為重要的問題是,面對人工智能給出的決策建議,應該如何作出自己的選擇?以及誰應該為最終的決定負責?這一點是必須解釋和說明的。唯有建立起權責清晰、可追溯、可問責的制度框架,才能為人機協同提供穩定的信任預期。就此而言,人機信任不僅依賴於算法技術上的透明性和可靠性,也需要在倫理層面達成共同的價值堅守,並不斷完善相關制度保障。在追求可解釋性的同時,我們更應致力於構建一個技術向善、權責分明、價值共識的社會生態。

最后,在價值引導、制度設計與技術治理之外,構建可信的人工智能乃至更廣泛的社會信任體系,還需深入文化心理層面,營造一種支持社會信任體系的文化氛圍。研究表明,普遍性信任往往植根於一種深層的、帶有道德色彩的樂觀主義世界觀,這種世界觀最初是從我們的父母那裡學到的,而且這種基於幼年、童年時獲得的生活態度奠定了我們的信任底色,影響個體在未來人際交往中的開放性與合作意願。成年個體對他人的信任,是童年習得的價值觀與后期社會經驗相互作用的復合產物,而其早期經驗往往構成基礎性心理結構。當“不信任”被反復強化為與外界互動的首要原則后,人的社會聯結能力與合作基礎就會受到侵蝕,未來社會成員普遍信任的心理基礎也可能面臨結構性削弱。培育一個普遍信任的社會文化,必須從源頭著手,營造有利於兒童形成積極、開放與信任取向的成長環境。在保障兒童安全的前提下培育信任文化。這不僅要求以社會主義核心價值觀為引領,加強社會治理、完善法律制度以減少現實風險,也呼喚一種更具前瞻性的教育理念。在識別、防范風險的基礎上,依然存有對他人善意的基本信念與社會參與的勇氣。在此基礎上,隻有人類遵循全人類共同價值,堅持公共利益優先,才能在人機交往中實現和諧友好關系,並在人機交互中增強獲得感和幸福感。

在智能技術深度嵌入社會結構與日常生活的情境下,人類的交往模式正經歷前所未有的轉型。社會互動的復雜性顯著增強,生活世界的不確定性亦隨之加劇。面對這種由技術驅動的結構性變遷,信任不僅是一種人際情感或道德品質,且日益成為維系社會協作、支撐系統運行、化解復雜風險的核心機制。未來社會,無論是人際合作,還是人機協同,都亟須建立更加穩定、可持續的信任關系。這樣一種穩定的、可持續的信任關系要求我們一方面致力於在技術和制度層面建立值得信賴的系統,另一方面營造信任的文化氛圍,培育信任能力。

(責編:金一、張雯)