中國電子科技大學雷瑞鵬教授談“人工智能的倫理學和治理”
點擊次數: 更新時間:2023-11-19
本網訊(通訊員 景海龍)11月15日晚,應beat365体育官网陳波教授邀請,中國電子科技大學馬克思主義學院教授兼科技倫理治理研究中心主任、華中科技大學生命倫理學研究中心執行主任雷瑞鵬教授做了題為“人工智能的倫理學和治理”的講座,本次講座是“BEAT365唯一官网科學技術哲學論壇”系列線上講座第八講。講座由beat365体育官网周祝紅副教授主持,中國社會科學院哲學研究所研究員邱仁宗教授評議。
雷瑞鵬教授做“人工智能的倫理學和治理”的講演
首先,雷瑞鵬介紹了人工智能的概念和發展狀況。人工智能是一個複雜的、彙聚性的概念。在中西方曆史中,人們對“智能”下過很多定義,以指代包括推理、計劃、抽象思維、快速學習等廣泛的心理能力,從而對人和其它動物做出區隔。“人工智能”的定義則第一次出現在1956年達特茅斯的一次會議中,用以指制造智能機器的科學與工程,之後一些學者和組織又在此基礎上做出過部分補充。總的來說,“人工智能”指的是一種不同于人類智能的機器智能,它主要分為四種形态:(1)狹義人工智能。通過符号推理和邏輯表示諸如思考、學習和解決問題等認知功能。其局限性是,一旦規則被編碼到這樣一個系統中就很難修改。(2)通用人工智能。可在一個活動中得到有用的訓練,并将其應用到另一個活動中。不再隻按照我們的命令去執行,具有了反思其目标并決定是否調整它們的能力。(3)擁有人類水平的人工智能。在通用人工智能的基礎上,不僅能執行人的認知功能,還擁有情感、道德、直覺等。有意識和自我意識,具備人的認知。(4)超級智能。在認知、情感、道德等方面都超過人的實體。
當前人工智能的迅速發展得益于21世紀初在大數據和算法基礎上的機器學習發展。機器學習是人工智能和計算機科學的一個分支,專注于使用數據和算法來模仿人類的學習方式,逐漸提高其準确性。其最重要的發展是深度學習,它使用人工神經網絡,模仿人腦中神經元的活動。已證明深度學習在處理被認為的困難問題時特别有效,它能夠根據海量數據做出更好的預測。其應用的關鍵方面包括預測、設計和優化、建模和模拟、自然語言處理、視覺圖像處理等。同時另一方面,人工智能又在處理被認為的簡單問題時束手無策,如系鞋帶。這被稱為莫拉維克悖論。但是,人工智能的每一次突破就會被重新定義一次,所以很難預測人工智能能做什麼,不能做什麼。
然後,雷瑞鵬介紹了人工智能的倫理問題。人工智能沒有自我意識,隻是純粹的計算,這是人工智能倫理問題的一個前提性的問題。當然我們不能将人工智能所取得的所有成就都視為不智能的,但需要認識到人工智能不是一個道德行動者。因為它們的行動不具有意向、目的、意識。因此,人工智能的倫理原則是對設計、制造、使用人工智能的人的來說的。
人工智能的倫理問題可以分為近期、中期、遠期三個部分。
近期:(1)機器學習需要大量數據訓練,否則就無法做出預測。這刺激一些公司和機構非法收集或購買數據,侵犯個人隐私權。(2)機器學習的好壞取決于訓練數據的好壞,一個好的機器學習算法在不充分或不準确的數據上訓練,也會做出糟糕的預測。(3)如果訓練數據充分、準确,但算法本身不好,它同樣做出不好的預測。(4)深度學習是一個黑箱,輸入和輸出之間的複雜相互作用無法得到解釋,缺乏可诠釋性、可說明性,從而導緻信任之類的問題。(5)目前的機器學習系統屬于弱人工智能,沒有自我意識,也就不具備道德感。因此,不能評估和判定一個行為的對錯。(6)如面部識别這樣的技術可以幫助警方更快的找到罪犯,但同樣也可以被用來監控公民、歧視弱勢群體。(7)使用機器學習來制作非常逼真的視頻,以抹黑、污蔑他人。(8)很多人擔心他們的工作将會被機器人取代,但另外一些人則認為它在淘汰一些崗位時還會創造一些新的崗位。(9)随着機器人變得越來越精緻,一些人已經開始視他們為同伴,這帶來了一系列倫理問題。
中期:鑒于人工智能可能被人利用做違反倫理的事情,一些學者嘗試将價值,尤其倫理價值方面的考慮内置于人工智能。(1)義務論和效用論路徑。為機器制定倫理規則,設計符合倫理的機器。其問題是,現實世界中很難知道何時應該運用哪一條規則,且這些規則難以被計算化。(2)美德論路徑。根據一個道德高尚的行動者在特定情況下會做什麼來為機器建立模型,從而将美德倫理學内置于機器之内。其問題是,我們并不完全清楚誰是一個道德高尚的行為者以及道德高尚的行為者在特定情況下會做什麼。(3)案例驅動路徑。使用倫理學中的思想實驗作為案例來驅動,将倫理學内置于機器。其問題是,不同案例究竟應該使用那種倫理學原則,以及不同的人基于倫理學原則給出的差異性判斷應該如何區别。将倫理規則内置于機器的根本性問題在于,道德判斷能力具有生物學的基礎,而這是機器難以具備的。
遠期:遠期人工智能的倫理問題是奇點問題。奇點又稱技術點,是在未來時間鍊上的一個假說性的點。在這個點上,技術的增長将變得不可控制和不可逆轉。人工智能發展為超越人類的超級人工智能,具有了自我繁殖和自我改進的能力,對人類文明産生巨大威脅。(1)我們應該如何對待這些超級人工智能。(2)我們應該如何确保這些超級人工智能對我們人類友好。奇點以及超級人工智能問題更多的是科幻、未來學的問題,而不是現實世界中的理論問題。
最後,雷瑞鵬簡要介紹了人工智能的治理問題。治理不是一種自上而下的監督管理,而是立體的、網絡式的、所有利益攸關者參與的。過去幾年許多大學、研究機構、學會提出了各自的人工智能治理方案,其中存在“權力”概念過于寬泛、缺乏統一性等若幹問題。我們應從人工智能給人們帶來的風險與受益出發,以風險為基礎,以人為本、安全第一,保護人民免受人工智能系統的潛在風險。在制訂治理規則中應該注意:(1)人工智能有改善人民福祉,改進政府決策,提高各行各業工作效率等巨大收益,且目前人工智能技術本身也沒有到無法改進的地步。因此不應該禁止,而是負責任的發展。但個别存在系統安全風險的人工智能可以禁止或停用。(2)與人工智能有關的所有利益攸關者都要參與治理,實現真正全面、立體的網絡式治理。且政府部門不僅是監督者,同時也是使用者。(3)治理規則不能僅僅是願望,應具有可操作性。(4)治理規則要能夠适應當前人工智能的快速發展,并及時修改。
在評議環節,邱仁宗先生對雷瑞鵬的報告表示感謝,對報告内容進行了總結。他強調:(1)倫理問題不單是一個情感問題,也不單是一個理性問題,而是情感和理性的雙重問題,且往往先是情感判斷,再是理性判斷,理性判斷加強或否定之前的情感判斷。(2)人工智能是一種新技術,人工智能倫理學是一種實踐倫理學,是在實踐中發現問題,解決問題。因此不能完全期待通過以往的倫理學理論來解決問題,要在新的實踐中去找辦法。(3)人工智能倫理學中首先要考慮的是安全問題,怎麼預防、追責、問責。(4)對人工智能倫理學問題的解決辦法,不僅要推論,還要辯護,從而找到最佳的治理方法。最後,邱仁宗先生提出了一點建議:在人工智能倫理學問題的三個時期劃分中,前期劃分過多,後兩期稍顯簡單。
主持人周祝紅提問道:禁止學生通過ChatGPT來生成論文是否具有可操作性。雷瑞鵬回應道:論文的規範包括原創性,因此應該禁止學生通過ChatGPT來生成論文。雖然目前沒有專門的研究來鑒别一篇論文是否由人工智能生成,但國家、政府以及系統的開發公司應該去做這方面的工作。而且這些生成出來的論文本質上是對人類已有知識的一種重複,不具有創新性。
在熱烈的互動交流中,講座圓滿結束。來自國内外的600多名聽衆參與本次線上講座。
(編輯:鄧莉萍 審稿:嚴璨)