李建華:智能時代人機關系的倫理學慎思
點擊次數: 更新時間:2023-09-22
【摘 要】正确認識智能時代的人機關系是防範人工智能倫理風險的重要前提,而對人機關系倫理本質的認識存在着人本主義與技術主義的分野。從人本主義的倫理立場出發,盡管出現了超人工智能,但人類的倫理世界是不可能被颠覆的,因為人倫關系、倫理法則及倫理秩序是人類所“獨有”的。機器人也許會“參與”到社會倫理生活中來,這種“參與”源于機器人内部被預先設定的程序,機器人無法成為真正意義上的倫理主體。從責任的基本規定看,機器人也承擔不了倫理責任,因為它天然不具有行動的自知性和可解釋性,人類對人工智能負有完全責任,而不僅僅是責任的分擔者之一。當我們說要強化機器人倫理的時候,絕非意指關于機器的倫理,而是人類對智能機器人進行設計、開發、應用與運營的倫理。堅持人本主義的倫理觀念,是讨論人工智能倫理的前提,可以避免思想認識上的模糊與混亂。
作者簡介:李建華,哲學博士,beat365体育官网教授、博士生導師。主要研究方向和領域:倫理學基礎理論、道德心理學、政治倫理學、中國傳統倫理思想。
文章來源:《理論月刊》2023(9)
我們是否已進入智能時代?智能時代的核心标志是什麼?這些都是需要從理論上進一步澄清的問題。但從經驗層面上看,社會生活各個領域似乎越來越趨向于智能化,這是不争的事實。特别是随着ChatGPT的誕生,人們對于人工智能在功能與功用方面的優勢既表現出極度興奮,同時又心存諸多憂慮:人類與機器人如何相處?機器人是否可以完全取代自然人的工作?未來的世界是否就是智能世界?面對人工智能的挑戰,人們往往表現出樂觀、保守和謹慎這三種不同的态度。樂觀論者認為,随着奇點理論的出現以及智能機器人的不斷更新疊代,人工智能終将“反客為主”,超越人類智能。保守論者認為,人類始終處于支配地位,人工智能永遠不會超越人類智能,“造物主一定比所造之物高明”。謹慎論者則認為,人類應該敬畏人工智能的崛起,智能機器人有成為“萬能人”的潛質,一旦具有了自我意識并取代人的全部活動,人類就有可能被智能機器人所控制,“如果人類運氣不佳,人工智能和基因編輯等技術有可能要了人類的老命”。
其實,樂觀論、保守論或是謹慎論本身并不重要,都還沒有觸及問題的核心。智能機器人伴随着技術的不斷完善,以及産業化、商品化的催促,不斷被人類所利用,這是無法回避的客觀事實,問題的關鍵在于如何看待人機關系。指數級、複合式的技術變革以及超人工智能的出現,可能會改變人類推測未來的假設框架和基本邏輯。但我們不能被技術裹挾,從而喪失人的主體地位,也沒有必要無條件地去擁抱這個智能時代,而是“要記住,未來不隻是降臨在我們身上,它是由我們一天天創造的,我們也将要為這個非常時刻所作出的決定負責”。基于此,對智能時代的人機關系進行倫理學慎思就顯得十分必要與緊迫。對人工智能倫理問題的讨論,與研究者或讨論者所堅持的倫理理論、信念與立場密切相關,其基本的分野仍是人文主義與技術主義這兩條彼此對立的路向。人工智能倫理是一個宏大課題,也是一個無論從宏觀還是微觀層面均處于學術争論中的問題。筆者無意也無力去深究問題的全部,僅僅基于人本主義(人文主義)立場,從人倫世界的本質性、倫理主體的規定性、機器人的倫理責任、是否存在機器人倫理四個方面談點淺見。通過對這四個問題的審度與反思,筆者旨在确立以人為本、以人為主的倫理信念,堅守人類基本倫理法則,使對人工智能倫理挑戰的被動回應向主動防範轉變,而不是主動迎合或遷就對人工智能的無限制、無底線、無責任的濫用,任由其颠覆現有倫理理論與人倫秩序。
一、人倫世界是否可能被颠覆
人機關系是智能技術發展的結果,也是應對人工智能倫理挑戰的思考主線。要明确的是,我們必須正視人工智能所引發的新倫理問題,但卻不必焦慮于“倫理觀滞後”,更無須急忙去改變現有倫理而去刻意“迎合”人機關系的表象。因為人工智能引發倫理變革隻具有某種可能性而非必然性,并且這種倫理風險不能單靠倫理來防範,重要的是要節制人工智能本身的發展與應用,盡量避免出現因倫理問題引發的社會風險。盡管人工智能與人機互動屬于不同領域,但二者都同計算與智能行為密切相關。因此,本文所說的人機關系是廣義的,即人與機器、機器人、人工智能技術的關系,主要集中于自然人(人類)與機器人的關系。
現實的人類倫理生活具有客觀與主觀兩個基本層面:就其客觀性而言,它指代“一種特定的社會秩序,這種社會秩序是以理性的方式分化和組織起來的”;就其主觀性而言,它指個體的自我意識,是對倫理秩序之實體性的意識。可以說,現實的人倫世界就是客觀與主觀的統一,就是由人倫關系及其協調法則所構成的秩序世界,即人倫世界由人倫關系、倫理法則及倫理秩序三個基本要素構成,其根本前提是社會化了的自然人的存在。一切由人的對象化活動所産生的對象物不可反過來與作為行動主體的人本身構成平等的倫理關系,甚至“反客為主”。人際或人群關系及其秩序是人倫世界的邊界,具有不可逾越性。盡管“物倫理”概念被提出後,在“人—機”系統交互情境中出現了“物轉向”,對人的理解也出現了去意義化,但“人—機”關系在人倫世界中僅僅是一種間接或延伸的關系,人倫世界本身不可能被颠覆。首先,從人倫關系的本質來看,它是人類利益關系的體現,而人機關系并不構成現實的利益關系。人倫即人之倫,“倫”意為“輩”(《說文解字》)、“常”(《正韻》)、“類”(《禮記》鄭玄注),即依據某些特定标準對人群進行分類、劃定等級,如根據年齡與輩分人有長幼之分,依照社會地位人有尊卑之别。人倫之要義是關系,人倫就是人際或族群關聯的秩序化,其前提是處于社會關系(交往)中的具有自然情感的人,人作為關系性存在會産生人倫世界。“理”本義為“治玉”,即根據玉石本身的紋路進行剖析與雕琢,泛指事物中存在的客觀規律,後被引申為萬事萬物運行的規則、蘊含的道理,如“理者,分也”“知分理之可相别異也”。可見,“理”是進行一切分類的前提。對于人倫世界而言,隻有掌握其運行的内在規律,才能确立“倫”的标準。可見,“倫理”出現的根源是:人擺脫了蒙昧、獨立的生存狀态,開始聯合成為團體,而團體需要建立一定的秩序來保證其生存與延續,人需要從單個個體的生存意識逐漸發展出有利于共同進化(進步)的社會意識。這種意識的形成最初源于原始氏族内部聯結的現實紐帶——血緣。也就是說,隻有具有血緣關系的個體才能成為氏族團體的一員,和其他成員相互依賴、協作、扶持、保護,共同遵從團體内部的行為法則——風俗、習慣,以對抗自然世界中不可預知的巨大風險,謀求生存概率的最大化。人類求生存的本能與欲望是社會利益關系的自然前提,因為現實的利益包含人的欲望及其實現這兩個基本方面。欲望的一緻證明了共同人性基礎上的共同利益,而欲望實現的多樣性證明了人的道德的差異性以及倫理調節的必要性。利益是一種客觀存在,是滿足人的生物性和社會性需要的客觀條件,特别是“共同利益不是僅僅作為一種‘普遍的東西’存在于觀念之中,而首先是作為彼此有了分工之間的相互依存關系存在于現實之中”。隻有當利益主體充分認識到可欲當求之時,才有現實的利益關系。可見,作為人倫關系的利益關系有三個基本條件——由血緣關系過渡到社會關系且具有情感聯系的人,由共同欲望而産生的共同利益,以及因利益獲得的正當與否而産生的倫理評價和調節。而機器人與自然人,以及機器人與機器人之間的關系,哪怕已進入超人工智能時代,也不具備上述三個條件。因為機器人永遠都不是真正的“人”,人機關系本質上不是真實的倫理關系,充其量是人倫關系的延伸或虛拟而已,以人為主體的人機關系不會被颠倒,人倫世界不可能被颠覆。人倫世界不僅僅是一種關系結構,而且也是一種法則體系。一般而言,人倫世界的行為法則有自然法則、制度法則與信仰法則三種。智能世界不可能擁有這三者,而這三者也無法針對和适應于機器人。自然法則從屬性上講似乎是“前社會”的産物,至少是進入文明社會前人們普遍遵守的行為規範。就其确切的含義而言,“它指的是一種‘基于自然而存在’且‘基于自然而被認識’的約束着所有人的道德法則(moral law)”。自然法則維系着人類最初也是最本真的倫理關系。所謂最初指人作為自然界的一部分是動物進化的結果,首先受生存法則的支配;所謂最本真指人的進化是生命體的進化,而不僅僅是個體的進化,更重要的是人類通過自身的生産而獲得的整體性進步,其前提就是以血緣為基礎的調節人倫關系的和諧法則。生存法則決定着人類的優勝劣汰,和諧法則維護着人類的整體利益,人類正是遵循這兩種最基本的自然法則才走到今天。但随着生産生活領域的擴大,社會交往空間也在拓展,人際關系也就日益複雜,單純的血緣宗法關系開始變得脆弱,需要有基于契約關系的剛性制度法則,如文明社會誕生以來的系列政治制度和經濟制度。這些法則立足于普遍性而獲得有效性,它們是人類理性的産物。但人并非純理性存在,還有非理性的一面,或者說經由理性而進入一種更高層次的非理性,這就是信仰法則。信仰法則不再有質疑、反思與批判等理性因素參與,隻有虔誠恪守與誓死捍衛。三種法則從不同方面和不同層次上調節人倫世界的關系。盡管機器人可能參與到人類活動中來,甚至替代人的某些機能,但它們始終不屬于人倫世界中的“成員”,僅僅是使人倫世界更加人倫化的工具。這些法則不适合它們,也于它們無益。哪怕未來機器人有自我意識,也不會有人倫情感,形成不了本來意義上的人倫秩序。人倫秩序不同于道德秩序:道德秩序主要是人的心靈秩序,以快樂、幸福、尊嚴等為主要元素;人倫秩序是人存在的關系秩序,主要以自由、平等、正義、和諧等為元素。人倫秩序是一種具有倫理性的秩序,是人作為倫理存在的關系性、社會性、實體性證明,因為“人是具有倫理屬性的存在,正是這種倫理性,使人成為不同于自然物的存在”。中國古代的“五倫”就是一種人倫秩序,是社會基本的五種人倫關系,即父子、君臣、夫婦、兄弟、朋友五種關系。在《孟子·滕文公》中,孟子認為:君臣之間有禮義之道,故應忠;父子之間有尊卑之序,故應孝;兄弟手足之間乃骨肉至親,故應悌;夫妻之間相互喜愛而又内外有别,故應忍;朋友之間有誠信之德,故應善。這是處理人與人之間倫理關系的道理和行為準則,是現實的人倫秩序。從整體而言,中國古代的人倫秩序還有禮、仁、和三個基本維度。“禮”最初來自風俗習慣,後形成儀式與禮儀,進而成為具體的行為規範。中國古代的禮治雖然有政治秩序和法度的内容,但更多地體現為德治與法治的高度統一,其本身就是人倫秩序。“仁”是禮治的價值内容或内涵,強調“愛人”的人倫情感,注重“己所不欲,勿施于人”的倫理思維,推崇“推己及人”“将心比心”的理解方式。“和”是實現禮治的方法與紐帶,強調“和為貴”,不搞分化,不走極端,使“和”真正成為一種生命性的内在融合關系,而不是僵化的物理性、機械性的制衡關系。所以,人倫秩序奠基于生命體的社會性,即便随着科技的發展,人的身體或器官被機器取代後,人的能力(如記憶與體能)可能大大增強,但如果出現人格改變,甚至人機一體,哪怕是很小的概率,我們也是無法接受的。而且,所謂的人機一體也僅僅是人被機器過度“武裝”的結果,改變不了人的本質屬性和人倫秩序。從目前關于人機關系的倫理讨論來看,确立人本主義的人倫世界觀是非常必要的。否則的話,人們就會将人工智能風險的可能性錯認為必然性,将其局部性錯認為全局性,要麼出現全面恐懼而“病急亂投醫”,要麼出現一片歡呼而無條件擁抱,從而導緻人工智能倫理讨論方面無立場的現象性熱鬧,以及基于倫理理論的基礎性辯論的缺場。總而言之,離開了人本主義立場本身,人工智能倫理就是非倫理甚至是反倫理的,因為倫理隻屬于人倫世界。
二、機器人能否成為倫理主體
如果說人工智能時代我們之所以還有人倫世界不被颠覆的自信,是因為我們處于以人類為中心的倫理立場,那麼人工智能的快速發展可能導緻的人類異化、人倫關系的疏離和倫理法則的消解,是否意味着原有的倫理主體不複存在,出現完全由機器人主宰的倫理世界?目前的理論嘗試是,從傳統倫理學中尋找資源,建構一個與之平行的人工智能倫理體系,而這無疑是将人類倫理強制匹配到人工智能的設計、運行和使用中去。我們不禁要問,人工智能真的需要倫理體系嗎?即便我們可以給智能人設計出道德行為程序,甚至機器人會有“道德情感”,這可以等同于真正意義(或傳統意義)上的倫理嗎?人工智能時代真的會出現兩套倫理體系嗎?目前理論界存在有意誇大人工智能颠覆作用的傾向,以為有了智能機器人等先進設備,整個世界就是智能世界了,人工智能就從“仆人”變成“主人”了。也就是說,機器人會成為倫理主體,并能夠創造一個屬于它們的倫理世界。此世界與人類的倫理世界并存,還能相安無事、和諧共存,或許哪天機器人還會取代人倫主體,一統天下。如果從人本主義或人類主義的視角看,這種可能性是不大的,我們大可不必在很小的可能性上“造勢”而造成倫理緊張與威脅,甚至讓自然人甘願主動在倫理上“退位”。
首先,我們必須明确倫理主體的邊界。如前所述,倫理的載體隻能是處在一定人倫關系中、具有現實生活特性的人,具有主體關系性、意識自覺性、利益相關性等特性。其他存在物包括植物和動物都不具備成為倫理載體資格,更不用說作為勞動(生産)工具的機器人了。倫理主體必須是具有倫理實體屬性的存在,因為“倫理關系是實體性的關系,所以它包括生活的全部,亦即類及其生命過程的現實”。倫理的實體隻能是某種社會生活共同體,如家庭、民族、社會、國家、人類等。倫理實體是倫理主體的基礎,但倫理主體與倫理實體不同,現實的倫理主體必須具備四個基本特性——行為實踐性、意識自覺性、交互主體性、利益相關性。作為倫理主體的人不是作為生物性存在的人,而是處于社會生活實踐之中的人,是有主體性的人。主體性意味着主觀能動性和行為責任性,而機器人隻是被某種程序控制。唯有能擔負起社會倫理實踐的人(包含個體與群體),才有資格被稱為倫理主體。與此同時,人的主體性活動不是刺激反應活動,而是基于自由意志的有自覺意識的活動。所謂有自覺意識,一是指主體行為是在明确的意識指導下進行的;二是指具有一定的自我意識,即能夠意識到自己的意識,這是一種自知的狀态。機器人盡管有智能,但絕無意識:“智能傾向于目的化、客體對象化和效能化的方式看待和處理問題,以期獲得解決問題的答案;意識則意味着主體能夠感受到痛苦的情感的能力,它是個體在身體和精神上被觸動後構建意義的能力。”并且,主客體之間要有感知,即主客雙方都能知道和感受到對方的行為及其意義,這樣主體才能成為倫理主體。也隻有這樣的倫理主體關系及秩序,才能構成倫理實體。我們或許直觀地“覺得”機器人有情感意識,但機器人能了解自然人對它的理解嗎?如果缺乏主體間的交流與理解能力,現實的倫理關系也就無法形成。而機器人不具備這種能力,因為這種主體的相互性不是無緣由的,而是基于利益的相關性。或者說,雙方或多方正是因為有利益關系(權利—義務關系),才有可能展開交際與交往,形成一種“沒有對方就沒有自己”的關聯。而機器人是沒有利益感知的,即它不可能有滿足感或喪失感,無法搭建起現實的利益關系。如果機器人有所謂的權益,那也不過是人的利益的延伸或擴展。其次,我們必須思考,人工智能時代是否存在倫理“雙主體”。從倫理主體的限制條件可知,機器人是不具有成為倫理主體的資格的。但未來的倫理世界是否像傳統社會一樣,倫理主體就是單一性存在?是否會存在雙重(兩種)倫理主體?或者說,在“人工道德行動體”的出現進一步引發了倫理主體問題讨論的背景下,在未來的倫理世界中人機是否可以共存?目前,從工業制造機器人,到醫療機器人,再到家居機器人、社交機器人和軍用機器人,機器人已被廣泛應用到社會生活的各個領域。但目前控制機器人自主系統的軟件存在兩個“道德盲區”:“第一,此類系統的決策能力并未涉及任何清晰的道德推理表征;第二,此類系統的感知能力并不符合現實世界中的倫理特征。”所以,機器人的設計者們開始考慮将倫理道德因素作為重要參考因素納入自主系統的決策模塊中,以使機器人成為“人工道德行動體”。其顧慮前提是,機器人自由度越大,就越需要倫理道德标準來約束,以此來克服倫理上的盲目性。這種想法本身無可非議,畢竟是想讓機器人盡可能成為“好人”,不要傷害人類。可問題的複雜性不在于機器人是否需要倫理道約束,而在于如何認識“人工道德行動體”的本質,思考機器人是否可以充當現實生活的倫理主體。從目前的人工智能研發來看,機器人并不具有道德上的自主性,也就是說,“它們的道德定義完全掌握在設計者與使用者手中,自己本身沒有任何自主性”。但是,也許随着人工智能越來越精密,機器人可能會具有應對道德問題的能力,出現所謂的“功能性道德”。但無論如何,它并非具有明确倫理推理的行動體,其所表現出的“道德”不過是一種“被操控的道德”。盡管機器人的設計者想盡辦法要對機器進行倫理編程,但其恐怕無法處理最基本的倫理法則,如道義論、功利論、美德論的一些原則在算法層面是無法得到體現的。也許設計者們并沒有把機器人變為倫理主體的意圖,僅僅是在機器人得到廣泛使用的情況下考慮如何避免各種技術風險,從而使其作出正确的道德決策。問題在于,當虛拟的或實體機器人進行道德決策時,要不要确定其責任,以及如何分清責任。機器人一旦進入責任領域,就有了倫理主體的意味。但實際上機器人不可能成為責任主體,負責任的設計者所追求的“完整的道德性”也是不存在的。我們隻能為設計者提供專門的設計倫理準則,而不是讓機器人去模拟人類的道德性。設計者才是機器人的責任人,機器人自身無法承擔倫理責任。但是,如果人類自動放棄主體地位,甚至越來越依賴機器人,甘願淪為“機奴”,且機器人的設計者不斷使社交機器人日益人格化,那麼機器人成為倫理主體也不是沒有可能。這完全取決于人類如何看待和堅守自己所處的人倫世界,如何維護人類自身的權利與尊嚴,如何使人工智能不淪為危害人類的異化力量。最後,我們還要進一步追問:如何理解人工智能時代的“人”?機器人是“人”嗎?人機交互就是人機共存嗎?人機共存的前提是什麼?無論人工智能多麼先進和強大,自人類進入文明時代以來,人機關系一直是确定的,即機器是人發明和創造的,沒有人就沒有機器與機器人,人是一切人機關系的主導者。這種觀念雖然顯得傳統甚至陳舊,但傳統的東西不一定都是錯的。經過現代性洗禮後,人依然是作為主體的唯一性存在。盡管後現代主義者們對人的主體性和人類中心論展開質疑和批判,但在質疑與批評中人的主體地位不僅未被撼動,反而被加固了。與此同時,人類與機器人在受制于倫理規則時,其性質也是根本不同的。傳統倫理規約的有效性基于調整性規則,而人工智能時代的倫理規約有向構成性規則轉向的可能:“調整性規則是對先于規則之前存在的行為進行調整,是告訴人們在某個場景中應當怎麼去做的規則。構成性規則不僅調整受其調整的行為,而且還使得受其調整的行為得以産生”,而“人工智能時代的權利實際上最關注的就是構成性締約原則,也就是不僅關注行為的調整,也關注如何實現這些調整的機制”。而這種行為的發生機制的最終觀察者和評價者都是設計機器的人,所謂的構成性規則看似深入了一層,其實不過是人在設計機器人時的倫理想象,因為機器人無法觀察到自身的行為,不具有倫理行為主體性。當然也有學者認為,“機器人可能會意識到自己的價值遠遠超過作為人類工具的價值。一旦意識到它們的奴隸地位,并認為被這樣對待是不公平的,它們就可能會發動起義,進行反抗。因此人類要維持這一關系中的主人地位需要機器人毫無怨言地接受人類的主導地位”。其實,正是倫理道德等文化自主性因素使人類與機器人區分開。“雖然我們目前确實無法創造出超人類,但看來前方的路也沒有什麼絕對無法克服的障礙。現在真正讓人類研究放慢腳步的原因,在于倫理和政治上的争議。”倫理上的謹慎态度在一定程度上也許能減緩對人工智能的無節制濫用,“然而,不管現在的倫理論點如何有說服力,未來的發展似乎勢不可當;特别是這有可能讓我們無限延長人類生命、解決各種疑難雜症,以及強化人類認知和情感上的能力”。人類在巨大的功利誘惑面前難免會産生價值沖突與選擇,但我們一定要堅信,人類的包含倫理道德在内的精神家園是屬于自己的。即便未來的機器人具有與人類一樣的身體結構、内在情感和認知能力,具備所謂倫理上的“具身性”,也無法證明機器人的身心關系是“天緣”,也說明不了機器人身體的相似性就一定會産生“好感”,更解釋不了機器人之間的身體會具有“利他主義”親近與沖動,因為身體本質上是生物性的。具身倫理學不過是遵循了達爾文、漢密爾頓、威爾遜、麥金太爾等人的思維路徑,強調了人類道德的生物學基礎:“倫理學規範的内容,在相當大的程度上是作為倫理主體的人類的肉體特征所塑造的。”但是,倫理道德從來都是要人的精神來承載的,是文化進化與躍遷的産物,也是人之為人的根本标志,而非人的生物本性所固有。由具身倫理引發的倫理生物主義傾向可能向人工智能領域蔓延,把生物身體與物理身體通過相似性連接起來,由此得出機器人也可能充當倫理主體的結論,這是我們值得警惕的。
三、機器人能否承擔倫理責任
如果機器人無法成為倫理主體,那麼也就不存在機器人的倫理責任問題,這是倫理學的共識。可問題恰恰在于,技術主義者們有意誇大人工智能對人類的威懾,特别是随着超強人工智能技術的紛紛出現,大有機器人取代自然人之勢。為消除人類對技術風險的憂慮,他們提出了機器人可以承擔倫理責任的理論主張。似乎隻要機器人承擔了各種風險,自然人就無須幹預機器人世界,整體世界就是機器人的了。而事實上,在技術發展與責任承擔的關聯一直被模糊化,即“不知道是技術驅動人工智能的發展,還是擺脫承擔道德責任的想法促使人類采用新技術”的情況下,人類絕不能追求使自身責任最小化甚至零責任的技術。
機器人果真能承擔倫理責任嗎?如果我們僅僅從後果主義立場出發,表面上看機器人确實存在責任分擔問題。當機器人作出了有益于人類之事時,設計者和運營商就會把功勞歸于自己;而當機器人作出了有損人類利益的事情時,設計者和運營商又會把責任全部推給機器人。所以,這根本不是機器人倫理問題,而是人類自己的倫理問題,特别是機器人設計者和運營商的道德問題,需要嚴肅認真地加以科學區分。從目前讨論的情況看,關于機器人的倫理責任歸屬存在三種不同的觀點——有責任、無責任和部分責任。主張“有責任”的理由是,機器人執行了行為,至少也是行為主體之一,“好漢做事好漢當”。主張“部分責任”的理由是,人與機器人是一個整體,所以倫理後果應該由機器人設計者、使用者、機器人和運營商共同承擔。主張“無責任”的理由是,機器人根本就不是“人”,隻是機器人設計者、制造商和運營商獲利的對象與工具。筆者是“無責任”觀點的支持者,認為機器人不能也無須承擔倫理責任,人類是倫理責任的唯一承擔者。一般而言,責任存在需要三個基本前提:第一,獨立的行為主體,包括排除人身依附性的行為個體與群體;第二,基于行為的自由選擇,自己選擇的自己負責,排除人為的強制或脅迫;第三,行為自知,即對行為選擇有明确的自我意識,知道自己在幹什麼及行為後果,排除盲目、無知、無意的行為。這些條件适應于對人類所有責任的認定和承擔,特别是倫理責任、政治責任、法律責任、經濟責任等。從依附性上看,機器人是人類科學技術發展的産物。進而言之,它是人類活動的對象化産物,這種主客二分雖然有簡單化的傾向,但也是人類認識論的基本前提。從主客關系講,機器人是依賴于人的,從設計到編程再到算法,完全是人在“操縱”。從自由意志上看,機器人在本質上就是機器。盡管科學家們一再強調機器人也會有“意志”,有“情感”,甚至會有“慈悲心”“無私心”,但是這些都不過是程序植入的結果。從自知性看,即使機器人真的有意識,即能有對對象物的“刺激—反應”模式,這也僅僅是生物性的。人類的高明之處在于能“意識到自己在意識”,這就是“自我意識”。“承擔責任需要知道行為内容、行為後果,也能回想起自己的行為。”機器人顯然不具備這三個條件,根本無責任可言。也許,我們有能力促使機器人成為可以通過“道德圖靈測試”的“道德機器”,但是人類作為機器人的發明者和創造者,絕對不能放棄對機器人的規約,并且要預測技術發展的多種可能,切實維護好人類的基本價值原則和基本倫理責任;更不要天真地期盼機器人會“效忠”人類,主動承擔責任,“如果人形機器人變得更加能幹并且具備了隻有人類才有的認知能力的意識,那麼現實的問題就是,它們是否仍會‘效忠’我們”。單純從技術層面和機器人争責任主體地位是沒有意義的,甚至在機器人面前産生自卑也很可笑。如戈爾德·萊昂哈德所認為的那樣:“如果‘僅僅作為人’還不夠好,如果作為人還太笨拙,為什麼不用技術來加強、來改善你自己呢?為什麼不讓技術成為你的‘第一天性’,拉平我們與機器之間的差距呢?”戈爾德·萊昂哈德從根本上忽略了所有科學技術都是由人類創造的這一基本事實,人類對自己發明創造的技術負責,而不是看技術的先進或落後來确定誰是責任主體。誠如愛因斯坦所言,科學技術“是一種強有力的工具。怎樣用它,究竟是給人帶來幸福還是帶來災難,全取決于人自己,而不取決于工具。刀子在人類生活上是有用的,但它也能用來殺人”。并且,承擔責任涉及兩個方面:一是擔負責任,二是具有可解釋性。在弱人工智能那裡,行為決定是透明的、可解釋的;但在超人工智能那裡,如通過神經網絡深度學習的人工智能,其思維就不透明了。那麼,這種不透明性是否意味着應由機器來解釋自身呢?而客觀事實是機器解釋不了,還是要由人類來解釋,最終承擔責任的還是人類。再從責任的三個基本向度來看,責任一般有“從集體責任到個體責任;從外部責任到内部責任即心理責任;從向後看的責任(對過去負責、過失)到向前看的責任(對将來負責、職責)”。人工智能的倫理責任是一種集體責任,即由研究者、設計者、應用者、運營者多主體共同擔負的責任,而非人工智能本身所應承擔的責任,更不是機器人的個體責任。責任往往存在着一個由外在規制轉變為主體“責任感”的過程,如強制性的外在義務久而久之會轉化為一種強烈的義務感。因此,真正意義上的責任是客觀要求與主觀意願的統一,是從“沒有辦法,必須履行”到“我願意履行”的統一,而機器人是不具備這種心理轉換能力的。如果硬要說機器人負有某種責任,那也是設計者或運營商“強加”于它的,機器人是缺乏責任意識的。責任從時間上講有過去、現在和将來三種形态,與之相對應的是追責、問責與預責三種行為。現代技術發展如此飛速,人工智能技術更是日新月異,今天的這個機器人可能就不是明天的那個機器人,也許“軀殼”沒有變,但組件和程序可能全變了,這該如何劃定責任呢?有學者擔心,超級智能機器人的出現會引發人類被取代的危險,所有的責任都将由機器人扛下。尼克·波斯特洛姆就提出,可能出現的“超級智能”會令人類面臨前所未有的“整體存在性風險”,“如果有一天我們發明了超越人類大腦一般智能的機器大腦,那麼這種超級智能将會非常強大。并且,正如現在大猩猩的命運更多地取決于人類而不是它們自身一樣,人類的命運将取決于超級智能機器”。這種悲觀論調無疑是想否定人類作為唯一責任主體的地位。松本徹三甚至認為,“AI神”的統治更有優勢,更值得期待——“請胸懷善意,由持有堅定‘信念’而絕對不會動搖的AI作為‘唯一的神’來支配這個世界”是“‘人類自己的英明決斷’,是為了讓‘人類能夠出于天性、本性地快樂生活’這個目的”。在讨論自動駕駛中人機責任問題時,人們普遍擔憂的問題也是,“自動駕駛過程完全由機器作出決策,人類不再占據主導地位”。其實機器之所以能決策,是人在設計機器時對自動駕駛的多種可能性進行充分考慮,人是真正的控制者,自動駕駛的責任始終是人自身的責任。倫理責任較之其他責任是一種特别的責任:一方面,倫理責任在個體層面是一種道義的責任,往往與“應該的”義務相關,即沒有做應該做的就是放棄道義或背叛道義;另一方面,倫理責任在社會整體層面是一種維護正義的責任,往往與“應得的”權利相關,如果一個人損害了他人的應得,便不能得其應得。因此,對倫理責任的規定應該遵循更加嚴格的前提條件并采取非常慎重的态度,不要把倫理責任輕易強加于某人或某種存在物。倫理責任需要滿足所謂的“終極責任”的基本要求,它不僅要求行動者在采取行動的時候能夠具有“真正開放”的取舍,也要求行動者在根本上對其采取的一切行動及其根據負責。也許機器人在完成人類的某種任務時,表面上呈現出主動、自覺的決策特征。但一旦出現失誤,造成對人類利益的損害,它是無責的,因為背後還是技術問題,技術問題就是人的問題。如果人類沒有這種責任擔當,科學技術就可能變成“殺人武器”,因為我們會沉淪在“機器人也可有責”的思維誤區之中,從而徹底放棄對機器人的掌控。我們不能因為出現了所謂的情感機器人,甚至性愛機器人,就自認為可以建立起良好的人機互信關系。“對于人類的命令,機器先進行風險評估,若風險可控,則予以執行,否則,拒絕執行并給出解釋”,我們并不能由此認定機器會信任人類,更不能因為人機存在互信關系的虛無缥缈的可能性而放棄人類的最終責任。赫拉利在《人類簡史》的結尾提醒世人:人類雖然擁有了強大的能力,但比以往任何時候更不負責任,僅僅為尋求自己的舒适和娛樂,便不惜掀起一場場災難。人類正“擁有神的能力,但是不負責任、貪得無厭,而且連想要什麼都不知道。天下危險,恐怕莫此為甚”。盡管我們還無法斷定人工智能是不是人類曆史上的又一場災難,但持謹慎批判的态度是必要的。
四、我們真的需要機器人倫理嗎?
在人機關系的倫理調節中還出現了另外一種聲音,那就是由人機共存衍生出人類倫理與機器人倫理并存的理論主張。這就意味着,我們在人機關系倫理讨論中還有一個需要澄清的問題,就是認為目前人機邊界越來越模糊,人類和機器人可以“通用”一套倫理規則,或者有專門的機器人倫理。換言之,“在機器人倫理的發展過程中,人類工程師是否必須将自己的倫理學規範置于機器之中,或者我們是否能夠逐漸設計或發展出一種倫理規範,它不适用于智人,但适用于不同自身和能力的機器人”。機器人會擁有自己的倫理規範體系嗎?或者說,有所謂的機器人倫理嗎?瑪蒂娜·羅斯布拉曾經認為:“一旦被創造出的有意識的思維克隆人,即智能的、有情感的、活的虛拟人,成為一個普遍的人類追求,我們将面對很多新的個人問題和社會問題,因為它從根本上擴展了‘我’的定義。”這個“我”就是主體,機器人就是擴展或延伸的“我”,盡管此“我”非彼“我”,但也是與真正的人可以平行相處(共存)的“人”。據此,這個“人”似乎應當有自己的倫理學。
因此,圍繞“機器人倫理”出現了三種不同理解:一是基于人類自身職業倫理和責任倫理的機器人倫理,即既然人類創造了機器人,就應該在機器人設計及應用中遵守人類最基本的倫理準則;二是随着機器人自主性的增強,我們應該對它們制定相應的倫理準則,确保我們制造的機器人不給人類造成傷害;三是機器人學的科學共同體總有一天會創造出一種可以進行道德行為的新物種,雖然可能需要一定的時間,但完全自主式的道德行動體終究會被制造出來。第三種理解大概就是賽博格(Cyborg)視域中的人機關系,在此基礎上出現了“超人類”(transhuman)和“後人類”(posthuman)的概念。“超人類主義屬于前瞻式反思人類的潛能與本質,後人類主義是回顧式反思人的起源及因果聯系。”無論“超人類”還是“後人類”概念都認為人類未來擁有多樣化的世界性和空間性,存在多種行動實體,包括超人類、外人類、非人類和作為腐殖質的人類等。總的來說,前兩種理解所指出的機器人倫理是存在的,因為它們強調了人對于機器人的主體性;而第三種理解認為機器人本身有倫理,這種意義上的機器人倫理是不存在的。人所賦予機器人的倫理在本質上還是人的倫理,機器人隻不過是把人倫理世界關系搞得有些複雜而已。機器人自己的倫理是沒有必要的,也根本無法實現。人們對機器人本身施以倫理,主要是出于對機器人發展的擔憂,由此産生出對機器人設計者、生産者、運營者以及機器人本身采取雙重倫理控制的想法,從而有效避免人工智能的倫理風險。“人工智能技術能力日益增強,特别是當人工智能進入深度學習與情感交流,可以進行團體協作行動時,也就是說當人工智能開始挑戰、突破甚至完全脫離人為其設計好的初始算法而自我創制新算法時,人工智能必然影響整個人類社會發展。”因此,這種擔憂可以理解,但有三個問題需要深入思考,從而消除這種擔憂:第一,人工智能自己創新的算法改變的是機器程序還是倫理秩序;第二,機器人是否真正擁有實現第一人稱的自我意識和審慎的道德能動性;第三,機器人是否可以意識到它擁有機器人倫理并努力去實現。技術的運用實質上是一種問題的解蔽方式,但解蔽的過程往往隐藏着難以估計的風險。人們可能在人工智能技術過程中被技術所“綁架”,人工智能算法就是其中之一。算法是人工智能技術的基礎,人類已經開始将部分事情的決定權轉移給具有高度智能的算法,但開發者有可能将其自身所持有的價值偏見植入算法中,甚至存在非法篡改算法參數的風險。雖然算法可以根據人下的各種指令編程,甚至“自作主張”,但算法目前在學習、推理、聯想、産生新判斷等能力上不夠強大,難以解釋行為背後的決策邏輯。因為人類行為所具有的主觀動機性和意向性是機器人不具備的,機器人是依據人工設計的結構和在學習進程中所接收的數據而形成對世界的“認知”,其本質還是“編程”。如果有所謂的機器人在決策時的道德偏見,那也隻不過是算法設計時技術人員的主觀選擇和判斷,并且他們能否真正把自己所信奉的全部道德規則與法律寫進程序也是值得懷疑的。加上目前的技術壁壘,如機器學習算法的“黑箱”屬性、數據支撐的不足、多語境系統的有限性等問題,通過改變算法來提高決定的正确性與穩定性,建立人工智能自身倫理秩序,繼而改變“以人為主”的倫理關系格局,實現人的倫理與機器人倫理并存的目标的設想,暫時還不可能。長期以來哲學基本觀念是,主體能動性是人與動物的區别,也是人與其他物存在的根本差别。即便在程序設計上機器人可以根據自己的機械推理而改變某種程序,獲得一些新的“表現”方式,但這種改變是機器人無法“自知”的,即機器人無法實現概念推理與經驗感覺的統一而形成自我意識,意識不到自己在意識。如現在的社交機器人會說話,但它根本意識不到自己在說話,其“言說”的意義隻存在于聽者(人類)的心智中,“這種意義或許能夠體現在機器人身上,但并不體現在言說本身”。“很明顯,機器人的本性并不是我們人類所擁有的生物本性,機器人的本性主要還是由工程師或設計者決定。”但值得我們注意的是,未來的人機交互系統研究已經有了四個明确的發展方向——主動的推薦、自主的學習、自然的進化、自身的免疫,而其中智能的自主性是最關鍵的。人工智能的自主性問題又有四個方面必須被思考:自主應該具有記憶功能而不僅僅是存儲,能夠産生直覺與聯想;自主應該具有選擇性,而選擇具有單向性;自主應該具有匹配性,是雙向性的;自主應該可以被控制。從目前來看,機器人還不具有可以完全脫離人的控制的“自主性”。即使社交機器人可以依靠人類認知能力和社交能力的深度模型而展現出類似人類的社交智慧,但它也隻不過是延伸了人的主體意識和倫理思維,充其量就是一具“木偶”。機器人不可能擁有生物學意義的人類道德自主能力和判斷能力,也就不具有機器人世界中自身的倫理規範體系。假設機器人可以意識到它擁有機器人倫理并要努力去實現,那麼這就需要兩個前提條件——倫理上的自我意識與行動上的倫理目的性。倫理上的自我意識主要有兩層含義:一是指倫理主體能夠清楚地意識到自己的倫理信念、倫理立場、倫理判斷能力及可能的行為後果,即對倫理上的動機、後果與責任非常了解;二是這種倫理意識的形成是自由自覺學習、修煉的結果,即這種倫理意識是經過了生命體驗的道德經驗。行動上的倫理目的性,指倫理主體對行動目标及其價值有明确的了解,而不是處于一種模糊的“打賭”狀态,去面對可能的風險,而應該築起防範倫理風險的可靠“防火牆”。如果機器人意識不到自己“在倫理”,那麼試圖建立一個像人類一樣擁有倫理判斷能力和行為能力的智能體就沒有可能。因為沒有倫理自我意識,就不可能有自主性的道德能力,也不具備獲得倫理知識的能力。盡管後人類主義者認為,人類是有缺陷的,應該讓人工智能接管人類,但人本主義堅持認為,應該确保人工智能不失控,确保機器人做人類想做的事情,充分尊重人類的權利。在這個層面上,人本主義是一種負責任的思想主張,我們需要機器人倫理也隻能是人本主義意義上的機器倫理,即對機器人的設計、制造、運營、應用全過程進行倫理監控與規約,防止機器危害人類與社會。這是一種積極的、正向規約的倫理。機器人在執行人類所設計的道德指令時,也許有算法與程序的選擇,但絕無明确的目的,且不具備趨向于達成目的的内在“動機”,僅僅是程序的被動完成。總而言之,所謂的與人類無關或可以與人類并存的機器倫理隻不過是人類倫理價值觀念和想象的植入,充其量是人類在防範人工智能風險時在機器人身上的“倫理投入”,且這種投入必須是人本主義而非技術主義的。人本主義的科學内核就是“人是目的不是手段”,“人工智能歸根結底是人的本質對象化,它不可能也不能夠擁有與人同等的地位”。目前,我們無須去思考人類與機器人如何共生的問題,而是要重視人類如何确保對機器人的支配權與管理權等問題。這意味人類必須理性而慎重地研發和使用人工智能,而不是一味地驚呼人工智能風險而把自身置于被動(次要)地位,寄希望于人工智能倫理和機器人的“倫理自律”。