您所在的位置: 首頁  >  學術研究  >  學術報道  >  正文

複旦大學徐英瑾教授“邊沁、羅爾斯與分配正義的算法化研究” 線上講座順利舉行

點擊次數:  更新時間:2023-11-06

本網訊(通訊員 景海龍) 11月2日晚,複旦大學beat365体育官网徐英瑾教授應邀做題為“邊沁、羅爾斯與分配正義的算法化研究”的講座,本次講座是“BEAT365唯一官网科學技術哲學論壇”系列線上講座第九講。講座由beat365体育官网陳波教授主持,山西大學beat365体育官网梅劍華教授評議。

e4d117e578d3bb3f87a142d10dfad94

徐英瑾指出,人工智能的火熱在國内倫理學研究中引起了廣泛關注,但這些讨論很多隻是浮于表面。以政策為導向,倉促的應用一些哲學理論,而沒有厘清相關的基礎哲學問題。在這一思想的指導下,他認為,目前關于人工智能運用的主流制約性規範,往往受到康德倫理學的影響,但是學界對于相關的規範倫理學立場的可算法化問題卻一直沒有系統的檢讨。而無論是邊沁的功利主義理論,還是羅爾斯的分配正義理論,甚至德性論關于社會資源分配的思想資源,其實都無法成為某種可以被算法化的思想指導。接下來,他借助電車難題以及對電車難題的變種對該問題進行了分析。

72d82195c5f6918da2cb50571cc34db

首先,徐英瑾指出,在邊沁的功利主義中,衡量對錯的标準是:“是否能夠讓最大數量的人獲得最大數量的快樂”。但是,這種觀點在電車難題中面臨着如何衡量這種“最大數量的人獲得最大數量的快樂”的問題。一方面我們難以衡量實際的快樂,另一方面我們無法衡量可能的快樂。對此邊沁本人的解決方案是訴諸對于社會中每個主體的主觀快樂程度的心理學度量,即所謂的“幸福計算”。但是該方案仍然面臨着不同群體中主觀快樂的認知差異,例如當兩國交戰時,僅僅是綁在軌道上的人的國别差異就會讓電車難題在不同國家中出現迥異的“幸福計算”。邊沁功利主義的這一缺陷在密爾的功利主義理論中得到了克服,密爾所理解的快樂具有鮮明的利他主義維度,且更看重某個行為所産生的長遠效應。但是,密爾雖然克服了功利主義在邊沁的理論中的缺陷,也放棄了其中的優點,因為這種長遠效應的快樂不可操縱、不可計算。

然後,徐英瑾指出,羅爾斯的社會資源分配方案雖然在學理上與功利主義不同,但這種不同在實際案例中将會迅速縮小,從而對現實問題給出差不多的解決方案。“無知之幕”是羅爾斯理論中的核心概念,借由“無知之幕”對個體背景信息的屏蔽,産生足夠的公平、公正。而他本人則試圖從這一拟想出發,在社會資源分配中導出一個康德式的合題,其中正題是個體的利益總是具有優先性的,反題是霍布斯的社會契約論,合題是隻有建立一個能夠将任何個體都視為目的的社會契約架構,每個人才能保證其基本利益不受侵犯。這種方案面臨着資源分配不足的問題。羅爾斯對此的解決辦法是引入機會均等來代替對于物質資源的直接平分,其所對應的最直接手段就是抽簽。但是這種解決辦法在電車難題這樣的具體案例中是無法實際實施的,并且需要預設不公平者的存在。而且相關實證心理學研究表明,對電車難題的“無知之幕”化的改寫版更容易讓人們做出功利主義的應答,因為“無知之幕”對背景信息的屏蔽使得人們更容易将電車難題中的人視為一種符号,難以産生共情,從而做出功利主義的決定。徐英瑾還指出,羅爾斯本人對其理論所打的差異化原則補丁依然難以用計算方式得到實施。

最後,徐英瑾指出,德性論-社群主義的分配方案也無法被計算化。從形而上學角度看,德性本身是一個“禀賦”性概念,是某主體在特定條件下展露出某些具有正面價值的行為的傾向性。在一種粗暴的思想實驗中,為每個人分配一個德性積分,帶入電車難題中似乎可以得到一種相較于功利主義更具計算性的方案。但是,這種方案面臨着:(1)該德性積分隻能衡量一般性的個體,在諸如《悲慘世界》中的冉·阿讓這樣的特殊個體上違反道德直覺。(2)該德性積分基于了一種休谟式的假設,假設有某種德性表現的某一個體還會在未來繼續給出類似的德性表現。而這在諸如“周處除三害”中周處(三國人物)這樣的例子中是違反道德直覺的。(3)該德性積分面臨着德性評價标準在不同社會亞系統之間不兼容的問題,從而在整個社會系統的德性評價上難以給出一個确定、合理的标準,并且将會消耗大量的社會資源。(4)根據古典德性論代表人物亞裡士多德的觀點,德性具備“實踐智慧”,即所做出的道德決策對于特定語境的敏感性。因此,對電車難題無法給出一般解法,也無法被計算化。

徐英瑾認為,算法化需要一個量綱,但對諸如幸福、道德這樣的概念無法确定其量綱,這是幾乎所有主流的規範倫理學進路都難以被真正算法化的原因。并且,數據隻是一種工具而不是本體,過分強調算法化将會破壞現存的多元評價體系。同時,人類社會的運作是建立在公開性和隐私性的平衡上,算法化将會破壞這種平衡,這些都為人工智能倫理學的分配正義上的全面應用蒙上了陰影。但是,站在功能主義的角度,将人的某些部分功能進行算法化是可以被期待的,其中就包含人工智能倫理學。

在評議環節,梅劍華對徐英瑾的報告表示感謝,并對報告内容進行了總結,然後從人工智能倫理學和思想實驗兩個方面提出了問題:(1)人的心靈問題以及相關聯的動物的意識問題、人工智能的意識問題是目前學界的重點話題。報告中提到的具有亞裡士多德式實踐智慧的人工智能是一個美好的理想,但現實中很難實現。相比之下,近年來廣泛讨論的一種大衆倫理似乎更容易實現,并且可以與當前人工智能研究相匹配。這種觀點認為,人工智能的倫理行為不應該基于規則,而是通過對龐大的道德數據庫進行提取,使人工智能像人一樣,在面對相似的情況時做出相似的選擇。(2)報告中提到了電車難題及其很多變種,這些變種對原有電車難題進行了加厚、曆史化。思想實驗雖然不同于科學思想,但其本身也有一些規範,它通常是無人稱的、簡單的,因為一般性的思想實驗更容易得到共識。

5d736f726eff0b9006467e7ee9f64fe

徐英瑾回應道:(1)人工智能的倫理考量确實可以基于當前人工智能研究範式,把道德場景的輸入與最後行為的輸出看作是一種映射規律。但是,如何選擇這些輸出數據本身是有政治偏好的,要解決這種偏好的影響,繞不開一些規則性的解釋。(2)典型的思想實驗的确無人稱、簡單,但是現在已經有一些實驗室在做這種特殊化的思想實驗,在其中引入很多文化因素。另外一個相似的例子是,博弈論本身的結構可以很簡單,但博弈論的因素可以很複雜。

059907301ea5c6dca21aa6c42b881bc

雷瑞鵬教授提問道:在不同的倫理學中,德性論偏向的是對個人的約束,因此将其擴展到社會決策層面時存在很多問題。在這種前提下,德性論是否還适合作為人工智能倫理輔助決策的适合備選。

徐英瑾回應道:他選擇德性論的原因在于德性論不反對偏見。并不是所有偏見都是有害的,它是一種理解的前結構,我們需要有一種先驗值來适應這個世界。哪些偏見是好的,哪些是壞的不能被先驗排除,需要進入到實踐的循環之中。德性論不反對這種過程,甚至認為它是德性的一部分,因此作為一個備選會有很強的生命力。

近300名聽衆出席了此次講演。在熱烈的互動交流中,講座圓滿結束。

(編輯:鄧莉萍  審稿:嚴璨)

Baidu
sogou