讀書|70年追問在途中:機器人何以成為道德主體?

讀書|70年追問在途中:機器人何以成為道德主體?

▲機器人正在表演群舞。圖源:新華社

機器人在現代社會中正在扮演著越來越重要的角色。從藝術家到教育者,從陪護員到劊子手,從公共的生產生活領域到私人的隱秘情感空間,機器人不再被簡單地視為人類的替代品和無法獨立思考與行動的工具,其已成為與人類共同進化和發展的“新物種”。《人類簡史》作者尤瓦爾·赫拉利甚至斷言,隨著人工智慧和其他認知技術的飛速發展,人機融合將在本世紀完全實現,機器將比人更瞭解人自己。過去的30年間,正如摩爾定律預測的那樣,機器人技術發展的蓬勃之勢既令人欣喜若狂又令人不安。機器人行業指數級增長的同時,也面臨著一系列迫切的道德和社會挑戰。

跨學科成果:實時對新興技術提出倫理創新

如果機器人也需要遵守某些道德準則,那麼這些道德準則會是怎樣的?人與機器一旦形成情感關係,將潛藏著哪些風險?倫理約束和社會政策如何能改變和影響機器人學的方向?美國哲學家帕特里克·林、凱斯·阿布尼以及計算機科學家喬治·貝基共同編撰的《機器人倫理學》,將來自哲學、人文社會科學的著名學者和計算機、人工智慧科學家、工程師的重要成果彙編成冊。倫理學往往滯後於技術的發展,但機器人倫理學為我們的技術時代傳達了一個重要的啟示:我們必須實時對新興技術提出倫理創新。因此,此書填補了理論層面的學術討論和現實層面政策制定之間的鴻溝。

讀書|70年追問在途中:機器人何以成為道德主體?

▲《機器人倫理學》,[美]帕特里克·林、凱斯·阿布尼、喬治·A。貝基主編,薛少華、仵婷譯,人民郵電出版社出版

當您翻開《機器人倫理學》時,可以想象的場景是幾十年後機器人將無處不在。機器人不是以人類終結者的方式摧毀我們,而是為我們清掃房間,照顧老幼病人,與我們的孩子玩耍,教育我們的後代,甚至與我們談情說愛。但對於這些機器人的設計及未來應用,必須十分謹慎。《機器人倫理學》向我們呈現了與機器人技術密切相關的宗教、軍事、法律、心理、醫護、權利六大問題。

士兵可否用機器人代替並不讓他殺錯人?

在探討宗教與機器人道德之間的關係時,詹姆斯·休斯(James Hughes)建設性的開放態度格外引人注目。他試圖從佛教框架中汲取教訓,創造有意識、有自我意識、對道德負責的機器人。相比之下,塞爾默·布林斯約德(Selmer Bringsjord)和約書亞·泰勒(Joshua Taylor)用一種自然演算的證明理論討論“神命計算邏輯”如何對致命機器人進行自上而下的道德控制。

隨著“捕食者無人機”“MAARS(模組化先進武裝機器人系統)”“SWORD(特種武器偵察探測系統)”,以及完全自主的機器人武器出現在世界各地的戰場上,軍用機器人的道德問題將變得極其敏感。無疑,機器人將改變戰爭的方式。夏基(Noel Sharkey)重點討論是否應該允許機器人自主識別和殺死(疑似)敵方戰鬥人員。回答這一棘手的問題往往暗含內在衝突。一方面,從不想看到同胞在戰鬥中喪生的人的角度來看,機器人取代士兵的想法值得推廣;然而另一方面,機器人做出生死決定的想法似乎極具風險,特別是當我們考慮到機器人犯錯並殺死平民的倫理影響時。

我們如何將當前的法律法規擴充套件到機器人,以便為機器人治理建立一個框架,解決它們日益複雜的問題?目前,一些重要的法律概念,如責任、過錯、因果和意圖等,均無法適用於遠端操作、半自主和完全自主的機器人。另外,由於我們生活中的機器人越來越多,很有可能為駭客竊取和攻擊我們的私人生活開啟大門。機器人將會開啟入侵人類隱私的“潘多拉魔盒”。

擁有人腦的機器人是否值得擁有人格?

人類與機器人之間的情感和性愛關係,可能導致人類情感依賴甚至傷害的危險。一些人機互動的實驗表明,人類受到機器人存在的影響通常只由另一個人的存在引起。然而,在人機互動的情況下,情感紐帶是單向的。可怕的是,這種情感關係可能被諸如製造機器人的公司利用。惠特比(BlayWhitby)考慮社會孤立如何驅使人們向機器人尋求愛和感情時,他直言:人與人之間和平甚至充滿愛的互動,本身就是一種道德善。我們不應該相信那些動機——希望以一種傾向於替代人與人之間互動的方式引入技術的人。

在全球範圍內老齡化社會提前到來之時,機器人與人類之間以醫療和陪護的形式進行的互動在很大程度上是值得稱道的。機器人監管可能導致隱私和自由的喪失,我們如何避免機器人護理變得過於嚴格甚至侵權?另一個問題,是機器人護理可能會減少或取代社會成員間的人際接觸,進而使得這些弱勢群體變得更加邊緣。

有朝一日,我們是否會看到機器人權利的“解放宣言”?機器人帶來的最大道德難題可能是人類擬人化的傾向。在某種意義上,機器人是否可以是人,這將是保證它們是否獲得道德主體地位的關鍵。一個擁有人腦的機器人是否值得擁有人格?對於沃裡克(Kevin Warwick)這樣的神經科學家而言,答案是肯定的。在他看來,對人格的心理能力採取典型的物理主義和功能主義方法,是教條式錯誤。與人格相關的心理能力可以被區分為不同的功能性神經活動,而不是與特定的生物狀態相關聯。

70年的擔憂正以技術與人類結合方式攻克

從人工智慧和機器人技術誕生開始,作家和電影製作人就一直在積極預測,隨著更先進技術的出現,未來會是什麼樣子。1942年,薩克·阿西莫夫的“機器人三定律”首次出現在他的科幻小說《逃跑》中,至今仍廣為流傳。在1985年的《機器人與帝國》這本書中,阿西莫夫將三大法則擴充套件為四大法則,即機器人不得傷害人類整體,或坐視人類整體受到傷害。阿西莫夫的科幻想象,主要強調了法則無法終極保護人類。從上世紀80年代開始,包括《終結者》《機械戰警》《駭客帝國》在內的百餘部影視作品,都在警告這類反烏托邦的未來世界的風險。目前,機器人專家正在以挑戰基本倫理和文化理念的方式將技術與人類相結合。現在是考慮機器人整體道德問題的時候了。

《機器人倫理學》不僅濃縮了當前機器人倫理所面臨的許多障礙,而且為機器人倫理學領域內需要提出和回答的問題制定了研究議程。他們提出的一個核心問題是,“機器何以成為道德主體?”很多研究者曾提出這個問題,但似乎沒有人真正解決過。雖然沒有人會合理地低估找到機器成為道德主體的難度,但似乎很清楚的是,一旦給出答案,圍繞機器人倫理的許多問題,如道德和法律責任、人格和權利等,將迎刃而解,並形成明確和一致的立場。

作者:鬱鋒

編輯:薛偉平

TAG: 機器人道德人類倫理學倫理