葛四友:論人工智能的政治哲學反思窘境
點擊次數: 更新時間:2021-02-08
摘要:
人工智能引發了諸多反思,但其中少有政治哲學的聲音,其緣由在于政治環境與人工智能兩者的特點:引發人類生死存亡憂思的超級人工智能會摧毀形成政治的環境;自主人工智能會引發道德主體資格的反思,而準自主人工智能引發當下的道德原則是否根本的追問,但隻有當兩類人工智能實際參與人類生活後,這兩者才能獲得具體的實質結論。
關鍵詞:政治環境;人工智能;政治哲學反思;窘境
自上個世紀五六十年代提出人工智能概念以來,經過幾個起落,人工智能已經成了繞不過去的一個熱門話題。王志強教授對此現象做了如下描述,“作為21世紀至今最重要的技術話題之一,人工智能受到持續性的世界關注,不但彙集了計算機科學、信息技術、腦神經科學、心理學、邏輯學、語言學、心靈哲學、倫理學等多學科的讨論,更溢出學科建制之外成為熱門公共話題甚至是國家戰略。”而吳冠軍教授的感受更為強烈,“從2016年“阿爾法狗”以4比1擊敗世界頂級圍棋棋手李世石,并随後一路連勝(并且完勝)所有頂尖人類棋手開始,“人工智能”迅速從一個技術領域的專業論題,變身成為引爆媒體的公共話題。随着學術界各個學科領域(從法學、倫理學、經濟學、教育學、軍事學到認識論、心靈哲學……)研究性工作的跟進,時至今日,它已不隻是一個“熱詞”,而且正在成為定義這個時代的一個“關鍵詞”。
然而,與這種熱鬧現象形成鮮明對照的是,人工智能在政治哲學界卻沒有引起多大的漣漪,有關人工智能的政治哲學反思是少之又少。在中文學界,現在不過是吳冠軍和王志強教授的三篇文章。而從國際學界看,無論是從專業雜志還是大衆網絡,以“政治哲學”和“人工智能”作為關鍵詞搜索,回響也是非常之少。與其他領域的熱鬧景象相比,我們對人工智能的政治哲學反思似乎處于某種窘境之中。本文試圖從政治的環境理解入手,考察對三種類型人工智能開展政治哲學思考的可能性,然後試圖表明這種窘境緣由在于政治環境的特點以及人工智能還未真正參與人類生活。
一、政治環境
人工智能對于政治哲學可能産生以下幾個方面的影響,一個是人工智能隻是改變政治哲學的應用,也就是說已有的理論是可以解決問題的,隻是要應用于人工智能這種新環境而已;另一個則是人工智能的發展超越了當前的政治哲學理論,由此在某種意義上把當今的政治哲學理論變成中階理論,隻适用于當今的各種政治條件,從而人工智能的發展促使我們進行更深入的研究,尋找更根本的政治哲學原理;第三個則是人工智能的發展會取消政治出現的條件,從而也就取消政治哲學,無法對之做出政治哲學的反思。王志強教授非常敏銳地意識到這一點,其對“政治何以可能”的強調,也是在考察人工智能産生的影響可能是不同類型的。王教授的分析是從人類群居這個必要條件出發,考慮了協作的必要性與可能性。不過,其分析還可以做出進一步的擴展和補充,使得我們對政治環境的認識更加明确。
為了此目的,我們将從“正義的環境”開始。休谟的論說比較适合作為讨論的起點,他把正義的環境分為正義的主觀環境與客觀環境。在休谟看來,現實世界的正義起源于有關正義環境的兩個事實:一是主觀環境中人的自私動機,或說人的仁愛是不足的;二是客觀環境中資源不是富足的,而是适度的稀缺。正義的這種環境論說得到了廣泛認同,羅爾斯(JohnRawls)在《正義論》中幾乎完全采納休谟的這一論說,按照休谟的看法,隻要物質不稀缺或者人是全善的,那麼我們就是不需要正義的。不過,葛四友在此基礎上發展出了另一種看法,他認為物質的稀缺才能決定我們是否需要正義,而人類的動機狀況主要是是決定正義是否可能,而且即使它能夠影響正義是否必要,那也是間接的,必須通過影響資源是否稀缺。
在某種意義上講,這兩種看法實際上代表了正義的兩類德性:一種政治的德性與一種道德的德性。如果我們把正義看作是政治性的,那麼休谟-羅爾斯的看法就是正确的。但是,如果我們把正義看作不僅僅是政治性的,還可以是純粹道德性的,那麼葛四友的看法就可以是正确的。這也就是說,如果所有人都是全善的,那麼作為政治德性的正義就消失了,但我們還可以擁有一種道德性的正義:我們對于各種物質的分配依然可以是正義或不正義的。這裡的區分實際上預設了某種“政治環境”的論說,也就是王志強教授談到政治何以可能的條件。這裡的預設是:如果所有人都是全善的,那麼政治就不複存在,由此作為政治德性的正義也就不再存在。
上面的讨論隻是隐含了政治環境的一個條件,對政治環境明确的讨論則是基于對羅爾斯現實主義烏托邦的批判。盡管羅爾斯的公平正義倡導的是現實主義的烏托邦,但還是有很多人認為羅爾斯的理論不夠現實,過于理想,引發了政治現實主義的讨論,提出了與“正義環境”相對的“政治環境”。艾爾金(StephenL. Elkin)是這樣描述的:這種環境是這樣的一種事态,其中大量的人,(1)擁有的目标是不同的,可以引發嚴重的沖突;(2)他們有意使用政治權力促進其利益;(3)他們傾向于用政治權力壓服其他人;(4)他們有時候用語言,有時候用行動顯示他們重視利用法律來限制政治權力的使用,同時重視用政治權力來實現公共目标。
我們可以看到,休谟的“正義環境”論說強調了合作是必要的,而艾爾金的“政治環境”則強調政治權力的一面。因此,政治環境的獨特性在于我們對于政治權力的理解。這裡我們可以從柏拉圖的“哲學王”入手。哲學王涉及三個關鍵詞:權力(power)、知識(内在善的知識與工具善的知識)和權威(authority)。權威的來源既可以是赤裸裸的權力,也可以是奠基于純粹的知識,當然也可以兩者兼有。在某種意義上講,如果權威完全徹底地隻是源于權力,那麼這裡就并不涉及到妥協與協商,由此也就不存在一般意義上的政治。如果權威完全徹底地源于知識,即所有人都是全善的,那麼也不存在妥協與協商,因為一切都是按照道德規則來進行。這也就是說,隻有當權威的根基是由權力與知識共同确定的時候,這個權威産生的權力才是政治權力。
就此而言,霍布斯提出了政治環境的關鍵:人們在某種意義上平等的。但是,霍布斯這裡談的人的平等,既不是指人的智力是平等的,也不是指人的武力是平等的,而是指的人的脆弱性是平等的,也就是人都是容易死掉的,人們的武力與智力差别無法改變這一點。正是這兩個方向導緻了現實權威的複雜性。從一方面來說,人的智力與武力使得人們是有影響力上的差别的,而且人們又很大程度上是自利的,因此一定會利用自己在智力或武力方面的優勢占别人的便宜,行動不會完全按照道理進行;但是另一方面,人們就不可能完全不講理,不可能完全利用自己的智力或武力的優勢而随心所欲地對待其他人,因為所有人都是脆弱的,都有脆弱的時候,因此完全不講道理會遭到報複。政治的環境恰恰就是基于這兩個方面的妥協與協作,盡管也充滿着不确定性。綜合上面的各種分析,我們可以得出現實政治環境的幾個特征:第一,人們生活在一起是更有益的,從而合作是必要的;第二,人們的利益是有沖突的,人們不是全善的,因此單憑自願是無法解決合作問題的;第三,人們都是脆弱的,單憑赤裸裸的武力也是無法解決“合作”問題的;第四,人們是理性的,也很大程度上是自利的,因此,我們既會承認智力與武力上的差别,也會承認人是同樣脆弱的,因此彼此間可以做出一定的妥協,認可某類政治權力的權威,使得合作成為可能。
二、超級人工智能與人類的生死存亡
上面我們交待了政治環境的基本觀點,接下來我們會分析人工智能的類型,以及我們可以從政治哲學角度如何對其進行反思。人工智能的曆史并不是很長,從1956到現在,還不到70年,盡管其本身還并未展現出相應的影響,但是其附屬技術的發展卻對人類産生了極大的影響,在某種意義上這些技術的影響遠遠超出了人類初期的預計,這導緻我們預估人工智能的發展速度會加快。但是嚴格來說,目前我們對于人工智能的發展,基本上還是停留在可能性的猜測之中。由此一來,人們對人工智能的分類也是根據目标的不同,而有不同的劃分辦法。梅劍華教授人工智能類型做了一種概括,“人工智能中廣為流傳的混淆發生在:弱人工智能、強人工智能、通用人工智能和超級人工智能這四個相互聯系的概念之間”。而王志強教授出于自己文章的主題,劃出了有限自主性的人工智能、純知性的人工智能和有目的的強人工智能。當然,随着讨論的目的不一樣,強調人工智能的某種可能特性,從而得出不一樣的分類。
出于讨論人工智能類型會帶來何種問題的反思這一目的,本文基于梅劍華與王志強兩位教授的分類,把人工智劃分為三類。第一類是準自主的人工智能,即在某個方面可以模拟人類智能,這也是一般人對弱AI的理解,自我駕駛是這種智能的典型代表。第二類是自主人工智能,裡面可以分成兩個小種,A,弱AI中的通用人工智能,它有着類似人類的理性思考與反應能力,但沒有類似的人類情感系統;B,強AI,即既有人類的理性能力,也有類似人類的感情系統的人工智能;第三種是超級人工智能,這種智能幾乎所有領域,有着遠出人類理性能力的人工智能。這種超級人工智也可能是弱AI,沒有類似人類的感情系統,也可以是強AI的一種,即既有遠超人類的理性能力,也有類似人類的感情系統。當然這個劃分并不是窮盡的,中間還有很多類型,但對本文的目的來說基本是夠用的。
我們目前對于人工智能最活躍的反思,主要是對超級人工智能的擔憂,特别害怕它會毀滅人類。多年前上映的美國電影“黑客帝國”,隻是此種擔憂的一種顯示。然而,在某種意義上講,這種反思很難從政治哲學角度進行。因為超級人工智能的存在破壞了政治環境中極關鍵的一個條件,那就是霍布斯由脆弱性引出的人的平等,這個存在物有赤裸裸的絕對權力,沒有任何力量可以對它産生制約,因此也就不再需要妥協與平衡,需要的隻是服從或者毀滅。這也就是說,超級人工智能一旦産生,那麼就會破壞政治環境,從而就不可能從政治哲學角度來進行反思。如果超級人工智能是全善的,那麼它就是上帝。如果它是全壞的,那麼它就是撒旦。
不過,值得注意的是,我們當下對于超級人工智能危險性的認知或說擔憂,似乎主要是将其設想成了撒旦。然而這種看法在某種意義上受到以下幾種思維的影響,産生的判斷可能是偏向性的。第一個思維我稱之為“黃金扁擔思維”。這個思維方式用一個簡短的故事可以說得更清楚。話說有個貧窮的樵夫,一輩子沒有離開過其貧窮的山村,設想皇帝的生活。其一個想法是,這個皇帝去砍柴時,用的扁擔可能是黃金做的。出現這種思維的根本原因是:我們沒有能力去設想某些事情。當我們設想超級人工智能的各種情況時,情況比這個樵夫的處境實際上更壞,因為樵夫的問題原則上是可以解決的,即可以通過改變生活環境獲得更多認知。而對于超級人工智能的設想,除非我們改變自己的基因,使得自己的大腦達到同樣的水準,否則我們是沒法子用超級人工智能的思維去想問題的。這種思想試驗是有限度的,我們沒辦法代替超級人工智能去思考問題,因為這種思想試驗能夠進行的前提是思想試驗者的思維能力要極大提升,而當下的我們是無法做得到的。
由于“黃金扁擔思維”的局限性,人類在真實設想超級人工智帶來的威脅時,很容易陷入第二個思維的影響,也就是“種族假相思維”。超級人工智能使得人類面臨生死存亡的威脅,這一認識的形成很可能是緣于我們人類自身的特點。第一,每個人都有生存本能,都是怕死的,會想盡一切辦法維續自己的存活。第二,持有種族中心主義。我們把目前的人類中心主義、種族主義與民粹主義等思想雜合在一起,作為我們思考超級人工智的底色,由此得到第三,超級人工智能也是尋求種群的,總是會想生産同類。第四,非我族類,其心必異。第五,超級人工智也是貪婪的,自私的,而且是欲壑難填的。第六,阿克頓勳爵所說的“權力導緻腐敗,絕對的權力導緻絕對的腐敗”,也是我們對超級人工智能的設想。有了這幾個特征,超級人工智能很大程度上就會接近上帝的對立面:撒旦。這樣的思維導緻我們相信:超級人工智能誕生的那天,也就是潘多拉魔盒打開的那天,很可能就是人類生死受控于魔鬼的那一天。
除了前述兩種思維外,我們實際上還陷于第三種思維誤區,這就是“零和博弈”思維。當超級人工智能誕生的時候,我們總是以現有的資源狀況估算超級人工智能的反應。即使超級人工智能具有上述的人族特點,但是既然其是超級智能,那麼自然可以獲得我們無法獲得的許多知識,特别是包括能源的利用與開發和各種材料的制造知識。比如說,它可以大大擴展我們對太陽能的利用,還有許多我們現在無法想像的科學與技術的進步。考慮這些因素,也許我們跟超級人工智能的沖突,遠沒有我們今天想象的那麼嚴重。我們難以找到什麼好的理由表明,超級人工智能就一定想要奴役甚至是毀滅人類。
當然,我們不能否認這種風險的存在,關鍵問題在于概率有多大。就此而言,第一,超級人工智是否能夠誕生,我們現在是不确定的。第二,即使超級人工智能真的能夠誕生,我們也很難斷定它對人類就是有惡意的;第三,即使随後我們的理解越來越加深,當我們能夠判斷超級人工智可以誕生且它是壞的時候,我們也是沒有辦法終止這個過程的。由于有這些不确定性的存在,我認為超級智能毀滅人類的風險,既未必比獨裁政權發動核戰争毀滅人類的風險大,也未必比天外隕石撞擊地球從而毀滅人類的風險大。因此,我對人工智能的發展風險,持一種謹慎的樂觀态度,沒有必要過于擔心超級人工智能對人類生死存亡的威脅。
三、自主人工智能與道德主體的資格
現在我們來看第二種自主人工智能的情況。這裡涉及梅教授劃分的A類通用智能和B類強AI,兩者的根本差别在于前者沒有類似人類情感的系統,後者則有。這兩類AI的出現,主要是引發我們對于道德主體資格的反思:什麼樣的人工智能可以擁有道德地位,什麼樣的人工智能可以擁有人類那樣的道德地位?這裡我們暫且借且凱姆(Francis Kamm)對道德地位的定義:某物X擁有道德地位是因為X就其自身而言是道德上重要的,這也相當說,為了其自身的緣故對其做某些事情是允許的或不允許的。這就迫使我們思考;擁有人的道德地位的關鍵因素是什麼?也就是要滿足什麼樣的條件後,某些事物才有資格成為人這樣的道德主體。
按照目前的研究,我們一般會給出兩個候選答案,第一個是感受性,指人類獲得某些現象性經驗的能力或感受質,例如感受痛苦與快樂的能力;第二個則是智性能力:與更高階智能相關聯的能力,諸如自我意識和能夠回應理由等。我們先考慮動物的道德地位。非常明顯,第一個條件在某種意義上能夠使得動物具有道德地位,成為道德客體,也就是人們在行動中要把這些事物作為擁有内在價值的事物,不能夠随意處置。但是另一個方面,如果動物是因為其感受性而獲得道德地位的,那麼感受性強弱是否可以成為獲得不同道德地位的原因呢?這在某種程度上取決于動物的道德地位是否還有其他的理據。如果隻有感受性這一點,那麼一個自然的結論就是動物會因為其感受性不同而享有不同的道德地位,比如魚跟蝦的道德地位就沒有貓跟狗那樣高。接下來我們考慮人的道德地位,很顯然,第一個條件使得我們可以成為道德客體,第二個條件使得我們可以成為道德行為者,簡單說是我們能夠認識到道德理由,并且依據道德理由來行動。當然,至少在目前,我們認為人類享有平等的道德地位,而且羅爾斯等人以範圍屬性對此給出了一定的證明,即隻要人類的兩類能力滿足一個最低值,因此就是平等的。
如果人類的道德地位取決于這兩者,那麼我們就很難否認B類強AI享有人的道德地位。由此我們接下來問,通用人工智,也就是弱AI的道德地位跟強AI相比又如何呢?因為兩者的差别僅在于感受性能力。由此自然的問題是,感受性能力在道德地位中的重要性如何?如果感受性對于道德地位是必要的,那麼意味着弱AI的道德地位甚至可能不如蝦子的地位?這甚至都與我們當下的道德直覺不符合。那麼弱AI的地位應該強過貓狗嗎?無論答案是什麼,我們似乎都無法避免道德地位的程度問題。不僅如此,還有許多未知的問題:比如價值體系是否與人類的感受性能力有着概念性關聯。由此自然會出現這個問題:感受性能力是否隻是決定我們是否是道德客體的因素,而價值系統才是我們是否是道德主體的關鍵因素呢?這些問題隻靠我們的思辨很可能是無法解決的,可能需要等待這些AI的産生以及參與我們的實踐生活後,我們才可能得到确切的答案。
為了讨論的緣故,假使這些問題都可以解決,至少強AI可以獲得與人相同的道德地位。隻要這點成立,它就會影響我們今天對于道德主體的道德地位或說擁有的道德權利的認知。一旦人工智能有了人類的道德地位,那麼人工智能可以生存多久,可以生産多少人工智能?值得注意的是,我們在設想對這些問題的解答時,也會迫使我們反向思考當下社會已有的問題,這裡至少有三個緊密相關的問題。
第一個是優生優育問題。由于二戰希特勒的影響,優生優育問題往往與納粹聯系在一起,變得臭名昭著。然而,這裡的關鍵問題是,這個臭名究竟是緣于優生優育這個理念本身,還是因為其特定的實踐方式?強AI出現後,假設這種AI是可以進一步改進與優化的,這個時候是允許還是禁止這樣的研究(包括由強AI自身進行這樣的研究)呢?由此引發的問題是,我們是否可以在人類身上做同樣的研究,比如說基因增強呢?
第二個是計劃生育問題。中國已經進行計劃生育多年,近年出現的人口問題導緻我們反思計劃生育政策是否合适。同樣值得問的一個問題是:即便是迄今的計劃生育政策都是很糟糕的,甚至是慘無人道的,那麼這究竟是計劃生育這個理念本身是不人道的,還是說這是由于其實行的政策與策略的問題。比如說,我們是否可以利用經濟措施鼓勵們人生育,或者利用經濟措施抑制人們的生育計劃?因為一旦強AI出現後,我們的資源依然還是稀缺的,并不是無限供應的,那麼我們是否應該對生産強AI進行某種限制,需要滿足某些條件才能允許生産這種強AI,而且生産的數量是要有限的。
第三個問題是養老問題與安樂死問題。假如強AI也有衰老問題,而且到後期是無法賺到足夠的錢來維持自己的存在,那麼我們有集體責任為其“養老”嗎?假如我們肯花資源進行維護,其可以存活非常長的時間,隻是每隔五年其維持費用就會加一倍,那麼我們會如何應對這種情況呢?我們為了避免巨大的維護費用,是否從一開始就禁止生産強AI呢?還是說到一定的時候就不再供給其維護呢?這種問題的提出顯然迫使我們思考現在社會中的問題:首先是植物人的維護問題;其次安樂死的問題;再次是那些不是植物人,有簡單意識,但無法活動,需要龐大資源維護的人。
很顯然,無論我們如何回答這些問題,都會對我們如何思考當代人的政治權利與自由權利産生深遠影響。一旦當人工智能參與實際生活,就很可能會對當今社會中的道德直覺産生強烈的沖擊。這些都會導緻我們反思現有的政治哲學理論,特别是我們現代社會的分配正義問題。
四、準自主人工智能與道德原則的層次
最後我們考慮準自主人工智能的影響,在某種意義上講是最緊迫的,也是最有現實意義的。因為這種智能在當下可以說已經現出了,并且正在逐步用于或即将用于我們的生活,從而也是當下我們最應該也最有可能做政治哲學反思的地方。相對于自主人工智能而言,這種準自主人工智能并不涉及改變道德主體的問題,相反,它主要是涉及會極大地改變我們的生活環境,使得我們的生活發生極大變化,由此出現了許多新的可能性,由此原來很多不适合規範考慮的問題進入了我們的反思視野。這些新的可能性可能會對我們既有的理論産生影響,一是為現有的理論争論提供新的素材,二是迫使我們跳出現有的理論争論,使得我們可以反思原來認為正确的倫理原則究竟是根本的原則,還是說隻是居間的應用性原則。
我們先來從一個特定的人工智能,也就是自我駕駛這種準自主人工知智能可能沖擊現有權利理論的根基。在現有的倫理學體系中,有個著名的“電車難題”思想試驗,可以用來檢驗我們是應該持有義務論還是後果論。然而,自我駕駛技術的出現,“電車難題”不再是思想試驗了,而是要進入我們的真實生活了。相對于思想試驗而言,現實參與的駕駛難題會有幾個重大的變化:第一,這個決策不再是事發當時的瞬時決策,而可以是一種深思熟慮的決策;第二,這個決策不再是個人做出的,而是大衆通過立法等形式委托設計師完成,從而是一種集體決策或者說政治決策;由此,第三,我們不再需要考慮違法問題;且第四,我們不再需要顧慮允許個人“殺人”從而産生一系列的精神成本以及其他副效應。
由于有這些根本的變化,我們必須考慮我們在這種新情境下會相應地形成何種道德直覺,我們是否還會承認“殺死”和“聽任死亡”有着内在的本質差别,是否還會堅信自我-他人之間的不對稱性具有内在的本質差别,會不會認為這些區分隻是為了回應人的動機結構與特點。當然,目前這些挑戰還隻是對我們觀念上的影響,但是當自動駕駛等真正進入生活時,就有可能真實地改變我們的真實直覺,從而影響到義務論與後果論等理論間的争論,改變我們今天整個的權利理論及其結構。
第二個方面我們則考慮一般性的準自主人工智能所産生的廣泛影響。我們知道,準自主我人工智能主要是在某個單方面有着遠勝人類的效率,由此帶來巨大的生活與經濟變化。吳冠軍教授将此現象作為“競速”統治,“我們都聽到過那個著名笑話:當你和同伴碰到獅子,你不需要跑過獅子,你隻需要跑過你的同伴。同樣的,人工智能并不需要全面智能(亦即成為通用人工智能),隻需要在各個具體領域比該領域的從業者更智能,那就足以使人全面地變成該笑話裡的那位“同伴”。”吳教授甚至認為,因為半自動的人工智能使得人類失業,然而美國等國家沒有認識到這一點,反而認為這是移民潮惹的禍,由此導緻了逆全球化風潮。不僅如此,吳教授還認為,“在政治哲學的層面上,危險的是……專用人工智能已經開啟的“競速統治”——在當代世界這個聚合性網絡中,人類作為行動元的介入能力,無可避免地正在被迅速地邊緣化。”
我盡管不是很贊同吳教授對于逆全球化浪潮的判斷以及歸因,但準自主人工智能确實對于我們的生活産生了極大的影響。而且我贊同吳教授的一個判斷,這個影響可以是壞的,甚至現在就已經産生了一定的壞影響。但是我并不認為這是因為吳教授強調的“競速統治”,因為準自主人工智能不過是使得市場競争更激烈,變化更快,并沒有什麼真正的本質變化。不僅如此,我基于兩個方面的理由更傾向于這個影響可以轉變成好的。
第一個方面是基于曆史發展的經驗。按照吳教授的說法,所謂的“竟速統治”已經出現過不止一次了。當人類首次發明小轎車時,轎夫很可能會失業;當人類把轎車變成大卡車時,馬車隊會慢慢消失。當人類開始汽車的自動化生産時,不少組裝工人開始失業。然而,經過長久的調整以及工人自身的争取,這些科技的出現最終有人們是有利的,尤其是中下層階級。一是因為這種技術的發展帶來了更多的其他需求,從其他方面提升了勞動需求;二是這種科技帶來的效率提高,使得人類逐漸從繁重的體力勞動以及無意義的重複勞動中解放出來,使得人們。第二個方面則是基于市場經濟發展的内在規律。無論市場經濟的競争有多激烈,從個體層面講甚至是你死我活的競争;但是從整體的角度看,市場經濟要想順利運轉,就必須保證一定程度的共赢。因為隻有共赢,隻有逐漸使得絕大多數人都獲利,提高收入,才能使得人們有相應的消費能力,否則一定會導緻生産過剩,破壞市場經濟的正常運行。當然,準自主人工智能的出現要求市場經濟必須逐漸适應更快的轉變節奏,但無論具體過程如何,科技發展的好處必須慢慢地滲透下去,惠及絕大多數人,否則經濟的發展就會出現不正常。
然而,我們也知道,這個過程不會自動到來,也不會輕易到來,需要人們的努力争取。這個争取過程中非常重要的一環就是需要我們論證這是值得我們追求的,是我們應該追求的。由此,這就需要我們做出更多的有關政治制度與經濟制度方面的反思,其中很有可能需要重新思考邊際效用價值論與勞動價值論等理論,重新思考我們市場經濟過程中的分配原則,設計出新型的分配正義原則來處理準自主人工智能的影響,從而促進這樣的過程早日到來。按照過往的經驗,我們可以期望這種分配正義原則使得我們至少朝向類似這樣的結果:科技效率的提高使得越來越多的人可以有更多的閑暇,人們的周工時變得越來越少,比如說周工作日變為4天,周工作時間少于30小時等。
結語
上面的分析試圖表明,由于人工智能是一個與人如此不同的物種,因此它引起的政治哲學問題遠比我們想象的複雜。最吸引人眼球最能引起人們反思的是超級人工智能,可恰恰在這個方面我們無法進行政治哲學反思,因為它會消滅政治中不可或缺的妥協與協商。而自主的人工智能最能引起我們對于道德主體的反思,從而引發人工智能的道德地位與各種道德權利的反思。但是反過來,自主人工智能的出現也會促使我們反思我們當下人的道德地位與道德權利。然而,在自主人工智真正進入人類生活之前,我們很難預料變化的方向:究竟是人工智能更符合人類現有标準才能獲得道德地位,還是我們需要修改現有标準去适應人工智能。我們最有可能做出實質的政治哲學反思的是準自主人工智能,因為這種人工智能不會影響我們的道德主體,在很大程度上可以用現有政治理論解決其引發的問題。但是現有的哪種理論更适合解決這個問題,依然有待準自主人工智能真正參與人類的現實政治生活之後,我們才能知道這種影響的真實情況。因此,這些理論會如何進一步影響我們的政治實踐,現在來談還有點言之過早。這也就是說,從整體上看,政治哲學在人工智能方面難以發聲、無法做出深入反思的這種窘境并非是偶然的,而是人工智能本身的特性以及人工智能還處于發展的早期階段所決定的。
作者簡介:葛四友,beat365体育官网教授,研究方向為現當代英美政治哲學與規範倫理學。
文章來源:《自然辯證法通訊》2021年第1期