您所在的位置: 首頁  >  學術研究  >  學術成果  >  正文

喻豐 許麗穎:人工智能之拟人化

點擊次數:  更新時間:2020-06-09

摘 要

人工智能及其載體或者存在形式(如智能機器人、自動駕駛汽車等)不隻具有智能,更具有社會功能。社會功能之具備得益于人工智能的拟人化。拟人化是将人類特征、動機、意向或心理狀态賦予非人對象的心理過程或者個體差異,拟人化的産生受到激發主體知識、效能動機和社會動機的影響。對人工智能的拟人化影響存在如何拟人化(即拟人化的人工智能知覺以及破除恐怖谷效應等問題)、何時拟人化(即何種人格者在何種情境下更易拟人化人工智能)、拟人化何用(即拟人化人工智能的好處和意義)以及拟人化後的社會互動行為等問題。本文在心理學和人—機器人交互研究的基礎上,讨論人工智能拟人化的如何、何時及為何問題,并對人工智能設計提供心理學思考。

關鍵詞:人工智能,拟人化,社會機器人,人-機器人交互

1、何謂拟人化

拟人化通常是指一種将人類獨有特質賦予非人實體的傾向性或形态。這種傾向性或形态廣見于人們的日常生活且頗具影響。它并非某些人的專利,上至老人,下至孩童,都有可能在有意或無意間将外物拟人化;它也不局限于單一的客體,上至神明,下至塵埃都有被拟人化的可能。雖然有學者拟人化視為一種消極的認知偏差和不成熟的表現,但大量研究和實踐都表明拟人化能夠産生積極的後果。如對自然的拟人化能夠提升人們的環保意向、對動物的拟人化能夠促進動物保護等。

基于其普遍性和可能産生的積極效應,拟人化經常被用于産品的設計和營銷之中,深入人心的可口可樂“曼妙曲線”和M&M豆拟人化形象都是其成功應用的經典之作。随着科技的迅猛發展,人工智能已然成為拟人化應用的熱門領域。科幻電影中的機器人往往都十分“像人”,“他/她們”擁有人類的外表、表現出人類的行為、甚至能夠讓人知覺到人類的思維、情緒和情感。由于機器人在現實生活中并不常見,因此普通大衆對機器人的印象往往來源于這些科幻電影。近20年來,社會機器人(social robots)的不斷湧現使這些幻想逐步走入現實。之所以稱其為社會機器人,是因為它們的工作場景不再是與世隔絕的生産流水線,而是延伸到了教育(如早教)、商業(如購物向導)和醫療保健(如陪伴老人)等複雜的社會環境;它們的工作内容也不再隻是重複單一的機械運動,而是擴展到了需要與人互動交流的社會活動。要在這些領域發揮作用,就要求社會機器人不能隻是“工具”,而要成為人們的“社會夥伴”。毫無疑問,在這個機器人由單純的“機器”向真正的機器“人”逐漸蛻變的過程中,拟人化能夠起到強大的助推器作用。在心理的層面我們甚至可以說,正是由于拟人化的融入,使得機器人開始真正脫離簡單的工具性,而更多地擁有複雜的社會性。

本文聚焦于人工智能尤其是社會機器人領域的拟人化問題,在心理學和人—機器人交互研究的基礎上探讨如何拟人化(即拟人化的人工智能知覺以及破除恐怖谷效應等問題)、何時拟人化(即何種人格者在何種情境下更易拟人化人工智能)、拟人化何用(即拟人化人工智能的好處和意義)以及拟人化後的社會互動行為等問題。通過對這些話題的讨論,我們期望為人工智能設計提供有益的心理學建議,并以此引發更多對于人工智能拟人化的思考。

2、如何拟人化

人工智能實際上是基于代碼的,如果剝繭抽絲來看人工智能,其底層應該是算法、代碼與計算過程。但是人類需要具體化,算法相對抽象,而在許多時候我們需要一個具體而心理距離近的形象來表達這些算法。這便需要讓人工智能拟人化。實際上,在民衆心理學水平上,人們很難去理解或者解釋為何底層代碼能夠運行出看似千變萬化、無所不能的人工智能形态,抑或如果人工智能經由算法而沒有表現出人的形态,實際上人們無法将其作為智能來看待。譬如日常生活中我們在街上随處可見所謂的機器人拉面,這種拉面機器實際上并非人工智能,而隻是普通機器,但是由于其人形形象的存在,它通常情況下會被認為是人工智能。而真實的人工智能做飯或者炒菜的機器,由于其形态類似機器,而并無人形特征,在生活中常人卻不會将其看做人工智能,知識匮乏者甚至無法理解這是人工智能的實體存在。甚至普通人開始制造其所謂的人工智能時,均會選擇拟人化的形态而開始。因此,似乎拟人化通常情況下可能成為理解和知覺人工智能是否時人工智能的窗口。

但實際上拟人化也有不同的形态。最基本的區分是外表拟人化與行為拟人化。行為拟人化相對研究偏少,但即使當一顆小球做出規則運動時,人們也會傾向于将其歸結為有一顆心靈。同理,一個外表并不拟人化的機器形态的人工智能實體如若展現出某種人類行為的規律性,那麼其是否拟人化這還有待研究。但是,外表拟人化的人工智能實體是在日常生活中常見的。我們可能發現,外表拟人化也有不同的表現形态。如有的人工智能拟人化形态就極盡像人,比如某些作為性愛用途的人工智能實體;有的人工智能機器人展現出人的特征,但是卻在常人看來絕非人類,隻是“像人”而已,比如機器人Nao;有的人工智能機器人展現出嬰兒特征,表現為萌的感覺,比如已開始商業化的機器人Paro;有的人工智能機器人展現出寵物形态,其外形如狗、海豹、恐龍等,如大量研發的所謂機器狗等;有的人工智能機器人還表現出卡通特征等。那麼我們是根據什麼來确定人工智能實體像人的呢?研究發現,使用構建的拟人化機器人數據庫(ABOT, Anthropomorphic roBOT)進行各種拟人特征評定,通過因素分析發現,人工智能實體或者機器人的特征可以分為四個部分,即表面外觀(睫毛、頭發、皮膚、性别、鼻子、眉毛、服裝)、身體部位(手、手臂、軀幹、手指、腿)、面部特征(面部、眼睛、頭部、嘴巴)以及機械運動(車輪、踏闆/履帶),而這些維度對于是否像人的預測中,表面外觀與身體部位總是最為可靠的預測源,而面部特征與機械運動相對更不重要,在所有的特征中,軀幹、性别與皮膚是解釋力最強的三個預測指标。

但是否人工智能越像人越好呢?這裡存在一個所謂的恐怖谷(uncanny valley)效應,即如果人工智能實體長得過于接近人,人們反而會感受到不适甚至恐懼。這一效應是否存在實際上存在争議。以現有研究來看,如果一個人工智能機器人在外貌和行為上都與人無異,那麼這實際上無問題。但如果有一方面略有奇怪,那麼恐怖谷效應便會出現。譬如若機器人的外貌極其類似人,而其行為卻不類似人或者其觸感冰涼或無皮膚感,這時候就會出現恐怖谷效應;而如若機器人的行為類似人,但外貌卻是機械形态,恐怖谷效應也會産生。當然,如果外貌或者行為其中一個維度上存在人與非人的混合,那麼恐怖谷也會出現。比如眼神空洞的機器人會比正常眼睛的機器人更容易産生恐怖谷效應。為何會出現恐怖谷效應,這一點也存在不同理論的争議。恐怖谷的主要解釋在于人們會将過于類似人的機器人看作是屍體,并因此産生不适與恐懼。但是為何我們會對屍體産生不适,這也存在争議。一種解釋是,這可能是由于成熟或者文化教養的影響,因為對嬰幼兒的研究發現大于9歲的兒童才會覺得類似人類的機器人比機械形态的機器人奇怪,而年齡更小的孩子卻不會,這可能與孩子是否判斷機器人有心靈有關系。9歲同時也是皮亞傑所謂他律道德轉向自律道德的時期,這或許與其心智知覺有關。當然第二種解釋是遠端解釋,即在進化上人們傾向于避免與罹患疾病和死去的身體進行接觸以保證健康。

雖然會出現恐怖谷效應,而且在人們直覺上拟人化的機器人越像人越好。但是如若機器人能夠融入社會之中,它們究竟是何形态合适,這卻取決于不同的社會情境和任務。事實上,縱觀現有研究,基本發現是如果一個人工智能實體所進行的任務是純粹非社會行為,比如舉重機器人、掃地機器人等,那麼它不必呈現出任何拟人化形态。而如若機器人需要承擔社會任務,那麼其拟人化則要優于非拟人化。如陪伴型的機器人需要更加拟人化的皮膚或者毛絨式的外表(這類似Harry Harlow的恒河猴陪伴實驗)以及更加類似人類而非機器的聲音。同樣,如果陪伴型的機器人起到的是類似寵物那樣與人類形成依戀的工作,則其最好也表現出寵物的模樣。但是也不是所有執行社會情境任務的機器人都需要拟人,比如有研究同時發現,醫療機器人也許不拟人化比較好,因為這樣患者不容易尴尬。

3、何時拟人化

正如我們在前文中所提到的,普通大衆對機器人其實有一種拟人化期望,而這很大程度來源于許多将機器人高度拟人化的科幻電影、科幻小說等媒介。在這些科幻片裡,有的機器人外表幾乎能以假亂真,有的機器人行為與常人無異,有的機器人有意識有思想、敢愛敢恨,甚至還意圖統治世界。當然,如今的機器人技術還遠遠沒有達到科幻片或小說中描繪的程度,但不可否認的是,這些深入人心的形象極大地影響了普通人對于機器人的拟人化傾向。那麼,除了這個顯而易見的社會因素之外,從心理學的角度來看,還有哪些個體或情境因素影響了我們對機器人的拟人化呢?

針對何時拟人化這一問題,拟人化研究領域一個較為全面的理論框架來自Epley等人。他們從認知和動機兩方面出發,提出拟人化的決定因素有三:第一是誘發主體知識(elicited agent knowledge),即對于人類而言,關于自身的知識自然比關于非人的知識要豐富得多,因此在面對自己不熟悉的非人客體時,比較容易用更可及(accessible)的人類知識來對其進行拟人化解釋;第二是效能動機(effectance motivation),即人類有理解、掌控外部環境并與之互動的需要,這種需要促進了拟人化;第三則是社會動機(sociality motivation),即人類有社會交往的需要,而如果這種需要在其他人類身上得不到滿足時,人們就會轉而通過拟人化來彌補人際關系的缺失。同樣,這個基礎的理論框架也可以用來解釋人工智能何時會被拟人化的問題,且已經取得了一定成功。

首先,當機器人越像人時,我們越容易将其拟人化。當認識對象與我們自身具有感知相似性(perceived similarity)時,我們會更依賴關于自我的知識對其進行推斷和理解。如有研究用48個不同的機器人考察影響拟人化的因素,結果發現與人類面部差異較大的機器人相比,具有更多人類面部特征(如嘴巴、鼻子、眼睛等)的機器人會被更多地拟人化。還有研究者直接對比了具有類似機器人功能的軟件(如Siri)和具有人類外貌特點的實體機器人,結果發現人們不僅對外表更像人的實體機器人拟人化程度更高,而且會在行為上透露給它更少的個人信息,因為它看起來“更逼真”。當然,這種與人的相似性并不局限于外表,行為甚至社會關系的相似性也能起到類似的作用,來自神經生物學的證據證明了這一點。Hoenen,Lübke和Pause發現,當看到一個清潔機器人被言語騷擾時,人們會産生更強烈的同情,并且人腦中的鏡像神經元(mirror neurons)會被更多地激活。他們認為,這是由于看到機器人的社會交往(這裡隻是單一方向的)增加了人們對機器人社會能動性的感知,從而促進了對機器人的拟人化。

其次,當我們自身的效能動機越強時,越容易将機器人拟人化。效能動機是指人們掌握外部環境并與之互動的需要。面對不熟悉的客體時,對确定性和控制力的尋求會對拟人化産生促進作用,因為拟人化能夠最方便快捷地消除不确定性,增加預測性。雖然人們對科幻電影和小說中的機器人并不陌生,但在實際生活中能夠經常接觸到機器人的人并不多。也就是說,我們大部分人對機器人其實并不熟悉,在真正面對這種未知的科技産品時,我們會自然而然地産生心理緊張和不确定性,且在機器人不可預測或不可控的情況下尤甚[24]。效能動機對拟人化的促進作用已經得到了一些研究的驗證,與之相關的閉合需求(need for closure)、控制欲(desire for control)和個人結構需求(personal need for structure)等因素也被認為是影響拟人化的個體差異變量。如研究發現有穩定控制需要的人更容易拟人化看起來不可預測的動物,被描述為不可預測的電腦、科技産品也會被更多地拟人化。Eyssel和Kuchenbrandt直接對在實驗中機器人NAO(阿爾德巴蘭機器人公司開發的一款類人機器人)進行考察,他們通過操縱其行為可預測的程度,在人工智能領域驗證了效能動機對拟人化的影響。

最後,當我們自身的社會動機越強時,越容易将機器人拟人化。保持與他人的社會聯系是人的基本需求之一,一般來說,我們會通過與他人的交往來滿足這項需求,但當這種途徑無法滿足社會需求時,我們也可以通過将非人物體拟人化來得到一定程度的彌補。研究發現,長期的孤獨和依戀焦慮等都會增強人們對非人對象的拟人化。即使隻是在實驗中暫時啟動被試的孤獨感或者通過遊戲使被試感到被他人排斥,也會對拟人化及其後續行為造成影響。在人工智能特别是機器人領域,拟人化的社會動機顯得尤為明顯。社會機器人的出現恰好迎合了人們的社會需求,其中拟人化對于促進社會機器人與人之間的互動、進而滿足人們的社會需求起到了不容忽視的作用。已經有研究表明,孤獨的人比不孤獨的人更容易将類人機器人拟人化,實際生活中也已經有針對老年人社會需求的陪伴型社會機器人面世。日本的Paro機器人就是其中很著名的一款,它像一隻可愛的海豹,能夠對人們的聲音和撫摸等做出反應。雖然它的外形并不像人,但由于它能做出一些類人的反應,因此很多主人會不自覺地将它拟人化,覺得它有意識、有情緒、有身體狀态(如感到寒冷),并通過與之互動滿足自己的社會需求。研究發現,Paro能夠減少人們的孤獨感甚至減輕癡呆患者的躁動和抑郁。

4、拟人化何用

何時拟人化是從使用者的角度來探究何種人格者在何種情境下更易拟人化人工智能,而從人工智能設計者的角度而言,為何要将人工智能拟人化也是值得考慮的一個話題。那麼,除了滿足使用者對于人工智能特别是機器人的拟人化期望以外,設計者拟人化人工智能還可能出于何種目的和理由呢?或者換言之,人工智能拟人化的好處或者意義又究竟何在?

當然拟人化有其理論意義,而這體現在心理學領域。這種理論意義并不是我們通常我們所說的為心理學研究提供理論指導,而是可以在一定程度上彌補心理學研究的局限(如以人為被試的相關倫理問題),對已有的心理學理論以新的方式驗證和拓展之,對未知的領域以可行的方式探索之。

一方面,人工智能拟人化可以作為心理學研究的試驗場。即用拟人化的人工智能尤其是機器人來作為實驗的“材料”甚至被試,能夠規避以往心理學研究中存在的諸多幹擾因素和倫理問題。心理學是一門研究人類心理與行為的學科,而人類恰恰是最複雜的動物,雖然從理論上來說,心理學實驗應當嚴格控制所有可能會影響研究結果的幹擾變量,但是這在實際的操作中其實是很難實現的。舉一個簡單的例子,如果我們想要研究别人的欺騙行為對人們心理及後續行為的影響,我們可能會給被試播放一段我們預先錄制好的欺騙行為的視頻,而這樣的操作顯然就存在兩個問題:一是錄制這個視頻的“演員”本身的個人特點(如外貌、表達方式等等)可能會對實驗結果産生影響,二是這種實驗并不能讓被試産生身臨其境的真實感,這也可能會使實驗的效果大打折扣。而拟人化機器人恰恰能幫忙解決這兩個問題,我們可以大膽想象,當機器人達到恰當的拟人化程度後,我們可以在實驗中讓被試直接觀察其欺騙行為。它不僅能夠通過誘發人們的拟人化傾向(即把機器人當成人)達到相似的實驗效果,而且便于實驗者控制實驗中的各種幹擾變量。此外,以往的許多經典心理學研究都因其倫理問題而備受诟病(如臭名昭著的服從實驗和斯坦福監獄實驗等),而以拟人化的機器人來代替實驗中的“真人”,不僅能夠在不觸碰倫理紅線的前提下重複驗證這些實驗結果,并且能夠對比人們對真人和機器人的反應。迄今為止,已經有一些研究者用這種方法對之前的研究進行了重複和檢驗,如Hoffman等人重複了Covey,Saladin和Killen關于旁觀者能夠增加誠實的實驗,結果發現機器人在場也同樣能夠增加誠實。類似地,米爾格拉姆的服從實驗也得到了重複,研究者用機器人代替真人演員接受電擊,結果發現與原實驗中65%的被試會将電壓加到最大伏特相比,機器人實驗中所有被試都加到了最大伏特,這不僅再次驗證了權力服從,也表明人們對待機器人的态度與對待人類有所不同。

另一方面,人工智能拟人化可以作為心理學研究的模拟器。雖然我們可以通過外顯行為推斷人的心理,但我們始終無法直接觀察到人的内心活動和發展過程,而人工智能拟人化或許可以通過模拟人心而成為打開這一“黑箱”的工具,幫助人們理解人類的思維過程和心理發展過程。“人工智能之父”圖靈在回答“機器能否思考”這一問題時提出了著名的圖靈測試,并指出要創造“兒童機器”(child machine)。所謂“兒童機器”,就是指具有兒童學習能力的機器,而制造這種機器的關鍵就在于模拟兒童學習的過程。值得注意的是,圖靈同時還強調了類人具身(human-like embodiment)的重要性,這與拟人化有着密不可分的聯系。可以說,心理學和人工智能在這一點上達到了真正的互促互進:人工智能拟人化、制造這種人類級人工智能的過程,可以幫助人們更多地了解以前無法被觀察的認知甚至情緒情感獲得的過程;而更多地了解我們人類自身,無疑也能夠推動人工智能不斷向真正的人類級邁進。

當然,除開心理學上的理論意義,人工智能拟人化的實踐意義主要體現在人—機器人交互領域。有學者曾指出,對産品進行拟人化設計主要有四個作用:第一是保持事物一緻性(keeping things the same),即有些産品長期以來就以拟人化形象示人,拟人化能夠保持其外形、風格的一貫性,避免不必要的疑惑和不适應;第二是解釋未知(explaining the unknown),即拟人化設計能夠幫助人們理解新産品的性能;第三是反應産品特性(reflecting product attributes),即用拟人化的外形凸顯産品的質量、特色等;第四是展現人類價值(projecting human values),即通過拟人化設計傳遞個人、社會或文化價值。這四點同樣也可以适用于人工智能的拟人化,但總體而言,人工智能尤其是社會機器人的拟人化主要的積極作用主要在于促進人—機器人之間的良性互動。

一方面,從使用者的體驗來看,拟人化能夠提升使用者對于人工智能的熟悉度和信任感。如前所述,人們拟人化人工智能的一個重要動機就是效能動機,面對較為陌生的人工智能,拟人化能夠大大提升人們的親切感,幫助使用者以最簡單的方式理解其性能并迅速進行掌控。信任也是人工智能領域的熱點問題,高科技的發展日新月異,但是要想真正走進千家萬戶,提升人們對人工智能的信任是一個重要的前提。研究發現,與非拟人化的無人駕駛汽車相比,拟人化的無人駕駛汽車會被給予更多的信任和寬容;類似地,具有拟人化特征的機器人也會得到人們更多的信賴。這些研究結果都表明了在人工智能領域,拟人化對提升信任感的有效作用。

另一方面,從設計和制造者的角度而言,拟人化有助于保護人工智能免受破壞并得到更多訓練。人工智能,尤其是經常出現在公共場所為人們服務的社會機器人,經常會受到人們的破壞和侮辱,這不僅會造成大量的經濟損失,更被視為一種不人道的行為。為此,還有人自發組織了停止機器人虐待(stop robot abuse)的活動,呼籲人們停止虐待,關注機器人的各項權利。而相關研究表明,拟人化或許能夠在這方面發揮重要影響。如有研究發現,與非拟人化機器人相比,人形機器人會得到更多的贊揚和更少的懲罰。此外,就像我們在前文中所提到的,人工智能的一個重要目标在于創造“兒童機器”,這種機器需要通過與人的互動不斷地學習和訓練,而拟人化恰恰能夠促進人機互動,從而使機器得到更多學習和訓練的機會。

5、拟人化何解

既然拟人化的人工智能形态似乎是在民衆水平知覺上以及研究者的科學研究中無可避免,那麼拟人化存在的理論争議究竟該如何解決這是需要我們最終探索與回答的問題。

第一,拟人化的人工智能實體是否會影響社會關系?批評的聲音認為,拟人化的機器人确實能夠與人建立起社會聯系,但是這種聯系是否真的是社會的是存疑的。因為拟人化的機器人畢竟不是人,這種人與非人的關系隻是拟人化外表賦予人與算法之間建立的關系,究其實質,這種關系是虛僞和欺騙甚至自我欺騙的關系。長久沉浸的與拟人化機器人建立起的關系,這甚至會反而影響人類真實的社會關系。社會機器人的出現會打亂人際結構和社會秩序,甚至帶來諸多倫理問題。比如陪伴型的拟人化機器人若與人類形成了穩定的聯結,那麼人類沉浸其中,還是否能夠實踐人類社會運行的規則與潛規則,類似中國人如此複雜的關系社會還是否需要學習和運用都值得思考,也許機器人隻需要通過設置就能夠完全如我們所願,而不需要付出沉重而複雜的人類社會經驗積累過程。這甚至會讓潛移默化指導人類行為的文化規則失效,而真正消滅人類累計的文化。同理,如果拟人化的性愛機器人和人類能夠形成穩定聯系,這是否會增加人類的暴力、虐待行為,在某種程度上重塑人類親密關系的同時,是否會影響人類生存與繁衍都是值得深思的問題。拟人化的人工智能實體确實會對社會關系造成影響,但這在于人類将這些人工智能用于何處以及如何使用,也許對其規範性的應用能夠解決此問題。

第二,拟人化的人工智能實體是否會威脅人類?人工智能威脅人類是我們長期的假設與憂慮,這種憂慮關乎人類自身。當人工智能還隻是算法時,由于其解釋水平高,因此人工智能算法對普通人感知到的威脅并不大。但如果這種算法一旦鮮活具體,比如拟人化的人工智能實體或者機器人活生生地出現在人類面前,那麼我們無法不将其視作某種物種或者類似我們自己的生物體。這種非常像人的機器人不僅會被知覺為對人類工作、安全、資源的真實威脅,而且會被視為對人類身份和獨特性的威脅,尤其是如果這種機器人還能勝過人類時。研究還發現,當人們被告知機器人能力比人類強時,拟人化成都更高的機器人會使得人們知覺到更大的威脅,人們甚至會因此對機器人研究的支持下降。某種程度上,是否拟人化對人工智能是否會威脅人類并無關系,這并非一個本體論問題,而隻是存在于認識論上。亦即,這是一個人類知覺問題。從這個意義上來說,無論人工智能是否拟人化,其威脅真實存在且本質上不會受到影響,受到影響的是人類知覺威脅的程度不同。

第三,拟人化的人工智能實體是否适用于人類規範?一旦機器人成功擁有拟人化形态,那麼我們便傾向于将其當做人類看待。比如讓拟人化的機器人進行觀點采擇任務時,我們會傾向于采用機器人的第一人稱視角來看待世界,而相對不太容易去使用心理理論看待非你人化的機器人,正如我們不傾向于用動物視角看待外部世界一樣。事實上,人類不傾向于讓人工智能去做道德判斷,但如若人工智能今後滲入生活作為道德責任歸因主體時,我們必須對其進行責任歸因。對機器道德責任歸因的研究發現,如果面臨殺一救五的列車困境時,救或不救即作為或不作為,對人來說,作為時人類會受到更多的道德責任歸因,而不作為時,機器會受到更多的道德責任歸因。而當機器人拟人化時,人們傾向于在作為情況下,更多譴責拟人化的機器人;而在不作為情況下,更多譴責非拟人化的機器人。與機器人進行交流時,人類自己會顯示出與人交流的不同,如更加禮貌;但是諷刺的是,人類卻會不自覺地将人類社會規範應用于拟人化的人工智能。比如研究發現人們評價機器人時也會存在内群體偏見,被試不僅對内群體機器人評價更好,而且也更多将其拟人化。這兩點應該都是值得商榷的。人類通常情況下以為自己在無偏不倚、不帶歧視、公正平等、保障權益地在與拟人化人工智能進行社會交往,但是卻又不自覺地自己表現出社交行為的不同,這本身便是矛盾。接着人類又将自己的社會規範甚至于道德自動化地賦予拟人化人工智能,這則更加一重矛盾。也許,我們不應該将社會規範與人類道德直接加諸于機器人,而應該去尋求發展一套獨立于人類而适用于拟人化人工智能的規範體系。當然,實驗倫理學研究者也應該抓住此契機來深化道德研究。

作者簡介:喻豐,法學博士,beat365体育官网心理學系教授、博士生導師,研究方向為道德心理學。

許麗穎,清華大學社科學院心理學系。

原文載于:《西北師範大學學報(社會科學版)》2020年第5期

Baidu
sogou